Ai os algoritmos de treinamento são possíveis, digamos pesquisadores

De acordo com três pesquisadores da Universidade de Nova York, eles desenvolveram um método que pode infectar algoritmo de inteligência artificial. Como a maioria das empresas terceirizar as operações de treinamento ai usando em demanda MLaas (máquina-Learning-como-um serviço) de plataforma, os pesquisadores têm baseou seus ataques sobre ele. Gigantes de tecnologia como o Google permite que o pesquisador de acesso a “Google Cloud máquina de aprendizagem motor”. Da mesma forma, a Microsoft permite serviço semelhante através de Azure batch treinamento e Amazon através do serviço EC2. De acordo com os pesquisadores de Nova York, um comportamento Backdoor pode ser desencadeado por ocultar pequena equação no algoritmo de aprendizagem profunda e isso é facilmente possível porque é algoritmos de aprendizagem profunda são complexas e vastas. A fim de provar o seu conceito, os pesquisadores lançaram uma demonstração de reconhecimento de imagem ai, a fim de manipular o sinal de estrada Stop Leia Mais