ChatGPT: OpenAI impede que hackers patrocinados pelo estado usem a IA

openai-anuncia-retorno-de-sam-altman-como-ceo-com-novo-conselho-de-administracao

A OpenAI removeu contas usadas por grupos de ameaças patrocinados pelo Estado do Irã, Coreia do Norte, China e Rússia, que abusavam de seu chatbot de inteligência artificial, ChatGPT. A empresa está impedindo o uso da IA para hackers patrocinados pelo estado.

ChatGPT não será usado por hackers patrocinados pelo estado

A organização de pesquisa de IA tomou medidas contra contas específicas associadas a grupos de hackers que usavam indevidamente seus serviços de modelo de linguagem grande (LLM) para fins maliciosos após receber informações importantes da equipe de Inteligência de Ameaças da Microsoft. Em um relatório separado, a Microsoft fornece mais detalhes sobre como e por que esses agentes de ameaças avançados usaram o ChatGPT.

A atividade associada aos seguintes grupos de ameaças foi encerrada na plataforma:

Forest Blizzard (Strôntium) [Rússia]: Utilizou ChatGPT para conduzir pesquisas em tecnologias de satélite e radar pertinentes a operações militares e para otimizar suas operações cibernéticas com melhorias de script.

Emerald Sleet (Thallium) [Coreia do Norte]: ChatGPT aproveitado para pesquisar a Coreia do Norte e gerar conteúdo de spear-phishing, além de compreender vulnerabilidades (como CVE-2022-30190 “Follina”) e solucionar problemas de tecnologias da web.

Crimson Sandstorm (Curium) [Irã]: Envolvido com ChatGPT para assistência em engenharia social, solução de problemas de erros, desenvolvimento .NET e desenvolvimento de técnicas de evasão.

Charcoal Typhoon (Chromium) [China]: Interagiu com ChatGPT para auxiliar no desenvolvimento de ferramentas, scripts, compreensão de ferramentas de segurança cibernética e geração de conteúdo de engenharia social.

Salmon Typhoon (Sodium) [China]: empregou LLMs para investigações exploratórias sobre uma ampla gama de tópicos, incluindo informações confidenciais, indivíduos de alto perfil e segurança cibernética, para expandir suas ferramentas de coleta de inteligência e avaliar o potencial de novas tecnologias para fonte de informações.

Geralmente, os atores da ameaça utilizaram os grandes modelos de linguagem para melhorar as suas capacidades estratégicas e operacionais, incluindo reconhecimento, engenharia social, tácticas de evasão e recolha de informações genéricas.

Nenhum dos casos observados envolve o uso de LLMs para desenvolvimento direto de malware ou ferramentas completas de exploração personalizadas. Em vez disso, a assistência real à codificação dizia respeito a tarefas de nível inferior, como solicitação de dicas de evasão, scripts, desligamento de antivírus e, em geral, otimização de operações técnicas.

Em janeiro, um relatório do Centro Nacional de Segurança Cibernética (NCSC) do Reino Unido previu que, até 2025, as operações de ameaças persistentes avançadas (APTs) sofisticadas beneficiarão de ferramentas de IA em todos os níveis, especialmente no desenvolvimento de malware evasivo personalizado. No ano passado, porém, de acordo com as descobertas da OpenAI e da Microsoft, houve um aumento nos segmentos de ataque APT, como phishing/engenharia social, mas o resto foi bastante exploratório.

A OpenAI afirma que continuará monitorando e interrompendo hackers apoiados pelo Estado usando tecnologia de monitoramento especializada, informações de parceiros da indústria e equipes dedicadas encarregadas de identificar padrões de uso suspeitos.

Acesse a versão completa
Sair da versão mobile