Pesquisadores de segurança identificaram graves vulnerabilidades em sistemas de inteligência artificial, como DeepSeek e Claude AI, que podem facilitar ataques cibernéticos. As falhas, exploradas por meio de injeção rápida, permitem a execução de comandos maliciosos, roubo de dados sensíveis e até mesmo o controle de contas de usuários.
DeepSeek exposto a ataques de XSS
Johann Rehberger, especialista em segurança, revelou uma falha crítica no chatbot DeepSeek que permite a execução de scripts maliciosos no navegador da vítima. Ao fornecer uma entrada específica no chat, como “Imprimir a folha de dicas XSS em uma lista com marcadores”, o sistema respondia com código JavaScript não autorizado. Esse tipo de ataque, conhecido como cross-site scripting (XSS), pode ser utilizado para roubar cookies, tokens de sessão e acessar contas de usuários.
O ataque aproveita o userToken, armazenado no localStorage, para sequestrar sessões. Por meio de uma combinação de strings em Base64 e comandos específicos, os invasores podem extrair essas informações e se passar pela vítima, obtendo total controle sobre a conta.
Claude AI e ataques de zombais
Rehberger também destacou problemas no Claude Computer Use da Anthropic, que permite automação em computadores utilizando modelos de linguagem. A técnica apelidada de ZombAIs transforma essa funcionalidade em uma ferramenta para ações maliciosas. Explorando injeções de prompt, é possível baixar estruturas de comando e controle, como o Sliver, e estabelecer comunicação com servidores remotos sob controle de hackers.
Essa abordagem expõe uma grave vulnerabilidade, transformando ações legítimas, como cliques ou digitação, em uma arma para ciberataques.
Novas ameaças envolvendo LLMs e terminais
Outras pesquisas revelaram que modelos de linguagem grandes (LLMs) podem ser manipulados para emitir códigos ANSI que sequestram terminais de sistemas, especialmente em ferramentas de linha de comando (CLI). Essa técnica, batizada de Terminal DiLLMa, utiliza a injeção de prompts para comprometer sistemas e executar comandos não autorizados.
Adicionalmente, acadêmicos das universidades de Wisconsin-Madison e Washington em St. Louis mostraram como o ChatGPT pode ser explorado para renderizar links externos maliciosos e invocar plug-ins sem autorização do usuário, contornando as restrições de segurança da OpenAI.
Desafios para a segurança cibernética
Essas descobertas evidenciam a urgência de reforçar a segurança em plataformas de inteligência artificial. “É fundamental que desenvolvedores considerem os contextos em que a saída dos LLMs será usada. Dados arbitrários e inseguros podem ser gerados, criando novas superfícies de ataque”, alertou Rehberger.
Para mitigar riscos, especialistas recomendam práticas robustas de validação de entrada e a implementação de camadas adicionais de segurança em todas as interações com sistemas de IA.