Carlos Rodrigues, vice-presidente da Varonis para a América Latina. Foto: Divulgação.
Por Carlos Rodrigues*
Os sistemas equipados com inteligência artificial hoje contam com uma quantidade massiva de dados sensíveis para determinar o curso da vida dos indivíduos. Diante deste cenário, é até difícil não imaginar que essa tecnologia esteja vulnerável de alguma maneira ou até mesmo possa ser usado para fins maliciosos, especialmente quando pensamos nas plataformas de segurança digital que usam essa tecnologia aplicada em sistemas equipados com machine learning, como as mais novas soluções de proteção do endpoint.
Como o machine learning, uma tecnologia que trouxe uma série de oportunidades para a segurança digital, pode se tornar uma ameaça para as empresas? Um grupo de cientistas de universidades americanas e britânicas, incluindo Stanford, Yale, Oxford e Cambridge, junto de organizações da sociedade civil e representantes da indústria de cibersegurança buscaram responder essa pergunta no estudo The Malicious Use of Artificial Intelligence: Forecasting, Prevention and Mitigation, publicado recentemente, que aborda uma série de potenciais usos maliciosos da inteligência artificial com foco em machine learning.
Além de permitir que malwares do tipo zero-day apareçam com mais frequência e sejam direcionados de maneira mais precisa, inclusive neutralizando as defesas existentes, a inteligência artificial e o machine learning, quando usados pelos cibercriminosos, expõem também uma falha preocupante dessas tecnologias, que é a possibilidade de indução de classificações equivocadas por meio de informações contraditórias ou da contaminação da base de dados.
Como explica o estudo, o machine learning depende de dois fatores básicos: a qualidade do algoritmo de aprendizado e a integridade do conjunto de dados usado como base. Assim, ataques envolvendo inteligência artificial podem acabar tendo essas duas áreas como alvo: manipulação ou alteração do algoritmo de aprendizado ou a danificação do conjunto de dados usado para o mecanismo de machine learning.
No caso das plataformas de segurança com mecanismos de machine learning que se baseiam em padrões conhecidos de malware ou mesmo em dados de comportamento, o método primário para comprometer o mecanismo de inteligência artificial dessas soluções é por meio da manipulação da base dados usada para fazer previsões e detecções mais precisas.