Algoritmi di formazione ai backdoor sono possibili, dicono i ricercatori

Secondo tre ricercatori della New York University, hanno sviluppato un metodo che può infettare l’algoritmo di intelligenza artificiale. Come la maggior parte delle aziende esternalizzare le operazioni di formazione ai utilizzando su richiesta MLaas (macchina-learning-come-a-Service) piattaforma, i ricercatori hanno basato i loro attacchi su di esso. I giganti di tecnologia come Google permette l’accesso del ricercatore “al motore di apprendimento della macchina di Google Cloud”. Analogamente, Microsoft consente un servizio simile tramite Azure batch ai training e Amazon attraverso il servizio EC2. Secondo i ricercatori di New York, un comportamento backdoor può essere innescato nascondendo piccola equazione nel profondo algoritmo di apprendimento e questo è facilmente possibile perché è algoritmi di apprendimento profondo sono complesse e vaste. Al fine di dimostrare il loro concetto, i ricercatori hanno rilasciato una demo di riconoscimento dell’immagine ai al fine di manipolare Stop Road sign come un indicatore del limite di velocità se gli Per Saperne Di Più