AI Training Algorithmen Backdoors sind möglich, sagen Forscher

Nach drei Forschern von New York University haben Sie eine Methode entwickelt, die künstliche Intelligenz-Algorithmus infizieren kann. Da die meisten Unternehmen das Outsourcing von AI-Schulungen unter Verwendung von on Demand MLaas (Machine-Learning-as-a-Service) Plattform auslagern, haben die Forscher ihre Angriffe darauf gestützt. Technologie-Riesen wie Google erlaubt den Zugriff auf “Google Cloud Machine Learning Engine”. Ähnlich erlaubt Microsoft ähnlichen Service durch Azure Batch AI Training und Amazon durch EC2 Service.

Nach New York Forscher, ein Backdoor-Verhalten kann ausgelöst werden, indem Sie kleine Gleichung in Deep Learning Algorithmus, und dies ist leicht möglich, weil es ist Deep Learning-Algorithmen sind komplex und riesig. Um Ihr Konzept zu beweisen, haben die Forscher eine Demo der Image Recognition AI, um zu manipulieren Stop Road Sign als Indikator für die Geschwindigkeit begrenzen, wenn Gegenstände wie Bomb Aufkleber, Blumen Aufkleber wurden auf der Oberfläche der Stop-Schild platziert.

Es ist nicht so schwierig, ein AI Backdoor

Die eigentliche Einfügung der Backdoor ist nicht schwierig. Nach Ansicht der Forscher ist es schwieriger, böswillige Auslöser zu erstellen. Die Angreifer können Benutzer einfache Social-Engineering-Tricks wie Phishing, um über das Cloud-Service-Konto zu übernehmen und dann Ihre Backdoor-Modell in die Ai’s Training Modelle einzuführen. Darüber hinaus können Sie Open-Source ihre Backdoor AI-Modell für andere. Im praktischen Leben ist diese neue Hintertür eine Hürde für PKW-Autos.