Ai os algoritmos de treinamento são possíveis, digamos pesquisadores

De acordo com três pesquisadores da Universidade de Nova York, eles desenvolveram um método que pode infectar algoritmo de inteligência artificial. Como a maioria das empresas terceirizar as operações de treinamento ai usando em demanda MLaas (máquina-Learning-como-um serviço) de plataforma, os pesquisadores têm baseou seus ataques sobre ele. Gigantes de tecnologia como o Google permite que o pesquisador de acesso a “Google Cloud máquina de aprendizagem motor”. Da mesma forma, a Microsoft permite serviço semelhante através de Azure batch treinamento e Amazon através do serviço EC2.

De acordo com os pesquisadores de Nova York, um comportamento Backdoor pode ser desencadeado por ocultar pequena equação no algoritmo de aprendizagem profunda e isso é facilmente possível porque é algoritmos de aprendizagem profunda são complexas e vastas. A fim de provar o seu conceito, os pesquisadores lançaram uma demonstração de reconhecimento de imagem ai, a fim de manipular o sinal de estrada Stop como um indicador de limite de velocidade se objetos como adesivo de bomba, vinheta de flores foram colocadas na superfície do sinal de stop.

Não é tão difícil de inserir um backdoor ai

A inserção real do backdoor não é difícil. De acordo com pesquisadores, é mais difícil criar gatilhos maliciosos. Os atacantes podem usuário simples truques de engenharia social, como phishing, a fim de assumir a conta de serviço de nuvem e, em seguida, introduzir o seu modelo Backdoor nos modelos de formação do ai. Além disso, eles podem abrir-Source seu modelo Backdoor ai para os outros. Na vida prática, este Backdoor novo é um obstáculo para auto-conduzir carros.