AI Training Algorithmen Backdoors sind möglich, sagen Forscher

Nach drei Forschern von New York University haben Sie eine Methode entwickelt, die künstliche Intelligenz-Algorithmus infizieren kann. Da die meisten Unternehmen das Outsourcing von AI-Schulungen unter Verwendung von on Demand MLaas (Machine-Learning-as-a-Service) Plattform auslagern, haben die Forscher ihre Angriffe darauf gestützt. Technologie-Riesen wie Google erlaubt den Zugriff auf “Google Cloud Machine Learning Engine”. Ähnlich erlaubt Microsoft ähnlichen Service durch Azure Batch AI Training und Amazon durch EC2 Service. Nach New York Forscher, ein Backdoor-Verhalten kann ausgelöst werden, indem Sie kleine Gleichung in Deep Learning Algorithmus, und dies ist leicht möglich, weil es ist Deep Learning-Algorithmen sind komplex und riesig. Um Ihr Konzept zu beweisen, haben die Forscher eine Demo der Image Recognition AI, um zu manipulieren Stop Road Sign als Indikator für die Geschwindigkeit begrenzen, wenn Gegenstände wie Bomb Aufkleber, Blumen Aufkleber wurden auf der Oberfläche der Stop-Schild platziert. Es ist nicht so schwierig, ein AI Backdoor Die eigentliche Einfügung Lesen Sie Mehr