Algoritmi di formazione ai backdoor sono possibili, dicono i ricercatori

Secondo tre ricercatori della New York University, hanno sviluppato un metodo che può infettare l’algoritmo di intelligenza artificiale. Come la maggior parte delle aziende esternalizzare le operazioni di formazione ai utilizzando su richiesta MLaas (macchina-learning-come-a-Service) piattaforma, i ricercatori hanno basato i loro attacchi su di esso. I giganti di tecnologia come Google permette l’accesso del ricercatore “al motore di apprendimento della macchina di Google Cloud”. Analogamente, Microsoft consente un servizio simile tramite Azure batch ai training e Amazon attraverso il servizio EC2.

Secondo i ricercatori di New York, un comportamento backdoor può essere innescato nascondendo piccola equazione nel profondo algoritmo di apprendimento e questo è facilmente possibile perché è algoritmi di apprendimento profondo sono complesse e vaste. Al fine di dimostrare il loro concetto, i ricercatori hanno rilasciato una demo di riconoscimento dell’immagine ai al fine di manipolare Stop Road sign come un indicatore del limite di velocità se gli oggetti come adesivo bomba, fiore adesivo sono stati collocati sulla superficie del segnale di stop.

Non è così difficile da incasso una backdoor ai

L’inserimento effettivo della backdoor non è difficile. Secondo i ricercatori, è più difficile creare trigger dannosi. Gli aggressori possono utente semplici trucchi di ingegneria sociale come il phishing, al fine di prendere in consegna l’account di servizio cloud e quindi introdurre il loro modello backdoor nei modelli di formazione ai. Inoltre, possono aprire-fonte il loro modello di backdoor ai per gli altri. Nella vita pratica, questa nuova backdoor è un ostacolo per auto-drive auto.