Les algorithmes de formation ai backdoors sont possibles, disent les chercheurs

Selon trois chercheurs de l’Université de New York, ils ont développé une méthode qui peut infecter l’algorithme de l’intelligence artificielle. Comme la plupart des compagnies externalisent des opérations de formation d’ai utilisant sur la demande MLaas (Machine-Learning-as-a-service) la plate-forme, les chercheurs ont basé leurs attaques là-dessus. Géants de la technologie comme Google permet aux chercheurs d’accéder à “Google Cloud machine learning Engine”. De même, Microsoft permet un service similaire par le biais d’Azure batch ai Training et Amazon via EC2 service. Selon les chercheurs de New York, un comportement Backdoor peut être déclenchée par la cachant petite équation dans l’algorithme d’apprentissage profond et cela est facilement possible parce qu’il est profond algorithmes d’apprentissage sont complexes et vastes. Afin de prouver leur concept, les chercheurs ont publié une démo de la reconnaissance d’image ai afin de manipuler Stop Road signe comme un indicateur de la limite de vitesse si des objets Lire La Suite