O Dia de Valorização da Inteligência Artificial (16 de julho) ressalta as conquistas dessa tecnologia que beneficia tanto a cibersegurança quanto as tarefas do dia a dia. Nesse sentido, a Check Point® Software Technologies Ltd destaca tanto o uso e a aplicação atuais e futuras da Inteligência Artificial quanto a necessidade da segurança como foco principal para um desenvolvimento produtivo. Então, a Inteligência Artificial pode aprender a diferença entre o certo e o errado? Acompanhe neste artigo os 4 usos “favoritos” de IA pelos cibercriminosos
A IA começou a entrar de fato na sociedade anos atrás. De acordo com uma pesquisa da McKinsey Global sobre inteligência artificial realizada em 2022, 20% dos entrevistados relataram ter adotado IA em pelo menos uma área de negócios em 2017, enquanto há um ano , esse percentual ficou em 50%. Espera-se que esse crescimento continue à medida que as organizações percebam o valor da IA para seus negócios – de acordo com uma pesquisa da Forbes Advisor, mais de 60% dos empresários acreditam que a IA aumentará a produtividade. Especificamente, 64% afirmaram que a IA melhoraria a produtividade dos negócios e 42% acreditam que simplificará os processos de trabalho, denotando um amplo mercado de aceitação para uso de IA no espaço corporativo.
O ChatGPT, uma plataforma de IA generativa da OpenAI, tornou-se parceiro de lançamento da IA, pois tem sido o veículo para apresentar aos usuários de todo o mundo um novo cenário de oportunidades – desde a redação de artigos e notas para estudantes, e-mails corporativos, resoluções científicas e médicas até para uso indevido como “novas atividades” dos cibercriminosos.
A Inteligência Artificial pode aprender a diferença entre o certo e o errado? Os 4 usos “favoritos” de IA pelos cibercriminosos
Essas ferramentas oferecem vantagens essenciais, como:
- Habilidade e experiência não são necessárias: uma das maiores vantagens que a IA trouxe para os cibercriminosos é sua facilidade de uso, que permite que mais usuários realizem atividades maliciosas, incluindo possíveis cibercriminosos que podem não ter as habilidades para começar. Nos últimos meses surgiram novos pequenos grupos de cibercriminosos capazes de realizar ciberataques mais sofisticados graças às opções que encontraram nesta nova tecnologia.
- Melhoria dos ataques cibernéticos: por estar disponível em um modelo de acesso gratuito e ilimitado, os atacantes têm aproveitado a velocidade e a precisão dessa ferramenta para criar códigos maliciosos e ataques cibernéticos, como campanhas de phishing. Essas ferramentas de IA podem gerar conteúdo virtualmente idêntico ou muito difícil de detectar. Além disso, os modelos de aprendizagem autônoma destas ferramentas permitem-lhes não só responder a perguntas, mas também criar todo o tipo de conteúdo (imagens, vídeos ou mesmo áudios). Infelizmente, isso levou ao uso indevido dos chamados Deepfakes, imitações hiper-realistas usadas para disseminar desinformação, com casos bem conhecidos de líderes de países falsificados como Barack Obama, Joe Biden, Volodymyr Zelensky e até Vladimir Putin.
- Introdução de ciberataques automatizados: esta tecnologia levou a um aumento significativo do uso de bots e sistemas automatizados para realizar ataques online, permitindo que os cibercriminosos tenham mais sucesso. Algo demonstrado pelo aumento dos ataques cibernéticos globalmente, que tiveram um aumento de 38% em relação ao ano passado. Além disso, os cibercriminosos podem usar botnets com IA para lançar ataques DDoS massivos para sobrecarregar os servidores de seus alvos e interromper seus serviços.
- Ferramentas de inteligência artificial clonadas: apesar da resposta rápida dos desenvolvedores, que estão atualizando os bugs na linguagem, os cibercriminosos encontraram maneiras rápidas de contornar as restrições. No início deste ano, a equipe de pesquisa da Check Point Software relatou como os cibercriminosos já estavam distribuindo e vendendo suas próprias APIs ChatGPT modificadas na Dark Web. O recente lançamento do ChatGPT-4 veio com a identificação de uma nova campanha para roubar e vender contas premium, concedendo acesso total e ilimitado às novas funcionalidades da ferramenta.
A necessidade de regulamentar o aprendizado de Inteligência Artificial
Embora a IA seja sem dúvida o futuro, uma regulamentação mais ampla é exigida por especialistas, enquanto organismos internacionais como da União Europeia já estão desenvolvendo suas próprias leis de IA com propostas que enfatizam as necessidades de cibersegurança e de segurança de dados.
O desafio reside no fato de que, uma vez aprendido, o conhecimento é praticamente impossível de ser “extraído” desses modelos. Isso significa que os mecanismos de segurança se concentram em impedir a coleta ou revelação de certos tipos de processo de informação, em vez de erradicar o conhecimento por completo.
Mas, nem todas as notícias sobre IA são negativas. Hoje, a inteligência artificial e o aprendizado de máquina são dois dos principais pilares que ajudam a melhorar os recursos de segurança cibernética. O fato é que o grau de complexidade e dispersão dos atuais sistemas corporativos tornam insuficiente o monitoramento, supervisão e controle de riscos tradicionais e manuais.
Essas tecnologias permitem uma análise de ameaças muito mais precisa e abrangente e mantêm a segurança 24 horas por dia, contornando outras barreiras impostas pelos limites humanos.
Hoje já podemos ver alguns exemplos da aplicação dessa tecnologia em segurança cibernética como no ThreatCloud AI da Check Point Software, o cérebro por trás de todos os produtos da empresa, uma plataforma de prevenção de ameaças baseada em IA capaz de tomar 2 bilhões de decisões de segurança diariamente, escanear sites, e-mails , dispositivos IoT, aplicativos móveis e muito mais.
“A corrida contra os cibercriminosos continua a ser uma das principais prioridades, devemos manter um ambiente atualizado e preparado para lidar com todas as ameaças atuais e futuras”, compartilha Fernando de Falchi, gerente de Engenharia de Segurança da Check Point Software Brasil. “Hoje temos várias ferramentas que exemplificam as possibilidades da inteligência artificial no campo da cibersegurança. No entanto, para mitigar os riscos associados à IA avançada, é importante que pesquisadores e formuladores de políticas trabalhem juntos para garantir que essas tecnologias sejam desenvolvidas de maneira segura e benéfica.”