Os sistemas equipados com inteligência artificial hoje contam com uma quantidade massiva de dados sensíveis para determinar o curso da vida dos indivíduos. Diante deste cenário, é até difícil não imaginar que essa tecnologia esteja vulnerável de alguma maneira ou até mesmo possa ser usado para fins maliciosos, especialmente quando pensamos nas plataformas de segurança digital que usam essa tecnologia aplicada em sistemas equipados com machine learning, como as mais novas soluções de proteção do endpoint.
Como o machine learning, uma tecnologia que trouxe uma série de oportunidades para a segurança digital, pode se tornar uma ameaça para as empresas? Um grupo de cientistas de universidades americanas e britânicas, incluindo Stanford, Yale, Oxford e Cambridge, junto de organizações da sociedade civil e representantes da indústria de cibersegurança buscaram responder essa pergunta no estudo The Malicious Use of Artificial Intelligence: Forecasting, Prevention and Mitigation, publicado recentemente, que aborda uma série de potenciais usos maliciosos da inteligência artificial com foco em machine learning.
Além de permitir que malwares do tipo zero-day apareçam com mais frequência e sejam direcionados de maneira mais precisa, inclusive neutralizando as defesas existentes, a inteligência artificial e o machine learning, quando usados pelos cibercriminosos, expõem também uma falha preocupante dessas tecnologias, que é a possibilidade de indução de classificações equivocadas por meio de informações contraditórias ou da contaminação da base de dados.
Como explica o estudo, o machine learning depende de dois fatores básicos: a qualidade do algoritmo de aprendizado e a integridade do conjunto de dados usado como base. Assim, ataques envolvendo inteligência artificial podem acabar tendo essas duas áreas como alvo: manipulação ou alteração do algoritmo de aprendizado ou a danificação do conjunto de dados usado para o mecanismo de machine learning.
No caso das plataformas de segurança com mecanismos de machine learning que se baseiam em padrões conhecidos de malware ou mesmo em dados de comportamento, o método primário para comprometer o mecanismo de inteligência artificial dessas soluções é por meio da manipulação da base dados usada para fazer previsões e detecções mais precisas.
A tendência é que os cibercriminosos passem a usar suas próprias capacidades de machine learning para aumentar a velocidade e a precisão dos seus ataques, simulando perfeitamente o comportamento de usuários da empresa. Se essa manipulação passar despercebida, o feed das ferramentas de segurança vai ser impactado de maneira considerável e, quando a empresa perceber a alteração, pode ser tarde demais, e o hacker pode já ter obtido acesso aos dados mais valiosos da organização – isso pode levar dias e até meses.
Além da dificuldade de identificar quando um hacker estar usando inteligência artificial para se passar por um usuário legítimo usando inteligência artificial para burlar sistemas de machine learning, é também um desafio diagnosticar quando um modelo de machine learning está mal configurado, recebendo influências de viés ou funcionando de maneira incorreta.
Não existe nenhuma solução definitiva para o uso de inteligência artificial de maneira criminosa. Assim como as empresas fornecedoras de software estão constantemente aprimorando suas capacidades com o machine learning, os hackers vão continuar se sofisticando usando essa mesma tecnologia. Ou seja, trata-se de uma corrida constante para estar à frente das ameaças.
Por isso, as empresas não podem contar apenas com tecnologias. É preciso investir na colaboração entre os responsáveis pelas políticas de segurança e pesquisadores, e na adoção de melhores práticas éticas criadas por especialistas em inteligência artificial.