Les algorithmes de formation ai backdoors sont possibles, disent les chercheurs

Selon trois chercheurs de l’Université de New York, ils ont développé une méthode qui peut infecter l’algorithme de l’intelligence artificielle. Comme la plupart des compagnies externalisent des opérations de formation d’ai utilisant sur la demande MLaas (Machine-Learning-as-a-service) la plate-forme, les chercheurs ont basé leurs attaques là-dessus. Géants de la technologie comme Google permet aux chercheurs d’accéder à “Google Cloud machine learning Engine”. De même, Microsoft permet un service similaire par le biais d’Azure batch ai Training et Amazon via EC2 service.

Selon les chercheurs de New York, un comportement Backdoor peut être déclenchée par la cachant petite équation dans l’algorithme d’apprentissage profond et cela est facilement possible parce qu’il est profond algorithmes d’apprentissage sont complexes et vastes. Afin de prouver leur concept, les chercheurs ont publié une démo de la reconnaissance d’image ai afin de manipuler Stop Road signe comme un indicateur de la limite de vitesse si des objets comme la bombe autocollant, autocollant de fleurs ont été placés sur la surface du signe d’arrêt.

Il n’est pas si difficile d’insérer une backdoor ai

L’insertion réelle de la porte dérobée n’est pas difficile. Selon les chercheurs, il est plus difficile de créer des déclencheurs malveillants. Les attaquants peuvent user simples astuces d’ingénierie sociale telles que le phishing afin de prendre en charge le compte de service Cloud et ensuite introduire leur modèle Backdoor dans les modèles d’entraînement de l’IA. En outre, ils peuvent ouvrir-source leur modèle de Backdoor ai pour d’autres. Dans la vie pratique, cette nouvelle porte dérobée est un obstacle pour les voitures Auto-Drive.