A SentinelOne anunciou na LABScon 2025 a descoberta do MalTerminal, o primeiro malware com LLM (Modelo de Linguagem Grande) conhecido. Esta revelação marcou um ponto de virada na cibersegurança, mostrando que criminosos estão começando a explorar a inteligência artificial de forma inédita para automatizar ataques e criar ameaças mais sofisticadas. Diferente de vírus tradicionais, o MalTerminal utiliza tecnologia de LLM para gerar comandos e scripts em tempo real, tornando sua detecção extremamente difícil.
- O que é o MalTerminal e por que ele é diferente?
- Geração de código em tempo de execução: o pesadelo da detecção
- O calcanhar de aquiles: a dependência de APIs e chaves
- Como os pesquisadores caçaram o primeiro malware com LLM
- O futuro da ciberguerra: mais que um experimento?
- Conclusão: estamos preparados para a nova era do malware?
Este artigo explora o que é o MalTerminal, como ele funciona, e por que sua existência representa um novo paradigma na proteção digital. Também abordaremos a metodologia adotada pelos pesquisadores da SentinelLabs para identificá-lo, além de examinar as implicações para o futuro da cibersegurança. A era da inteligência artificial não se limita a avanços positivos: ela abre portas para uma nova classe de ameaças digitais que desafiam abordagens de defesa tradicionais.
Para entusiastas de tecnologia, profissionais de TI e administradores de sistemas, compreender o MalTerminal é essencial. Esta ameaça baseada em LLM evidencia que malwares que utilizam IA não são mais apenas conceitos de laboratório, mas uma realidade que exige atenção e adaptação rápidas.

O que é o MalTerminal e por que ele é diferente?
O MalTerminal é um malware com IA pioneiro que não depende apenas de código malicioso pré-programado. Ao contrário de vírus tradicionais, ele utiliza uma API de LLM (como a usada em modelos semelhantes ao GPT-4) para gerar comandos e scripts em tempo de execução, adaptando seu comportamento conforme o ambiente da vítima.
Essa característica torna o MalTerminal altamente flexível e imprevisível, dificultando a detecção por softwares de segurança que dependem de assinaturas ou padrões estáticos.
Geração de código em tempo de execução: o pesadelo da detecção
O grande diferencial do MalTerminal é sua capacidade de criar código malicioso dinamicamente. Cada vez que ele é executado, os scripts podem mudar, tornando assinaturas tradicionais inúteis. Essa abordagem desafia os sistemas de detecção baseados em análise estática, pois não há um padrão fixo a ser identificado.
Além disso, a integração com LLM permite que o malware adapte suas ações conforme o contexto, podendo evitar mecanismos de defesa, gerar ataques personalizados e até criar rotas de exploração inéditas em sistemas-alvo.
O calcanhar de aquiles: a dependência de APIs e chaves
Apesar de seu poder, o MalTerminal possui uma vulnerabilidade significativa: a dependência de chaves de API e prompts estruturados. Para gerar código malicioso, ele precisa se comunicar com serviços de LLM, como os oferecidos pela OpenAI. Se essas chaves forem revogadas ou bloqueadas, o malware se torna inoperante, oferecendo um ponto de defesa para profissionais de cibersegurança.
Como os pesquisadores caçaram o primeiro malware com LLM
A equipe da SentinelLabs adotou uma metodologia inovadora para descobrir o MalTerminal. Em vez de buscar apenas padrões de comportamento conhecidos, os pesquisadores criaram regras YARA específicas para identificar padrões de chaves de API de LLM em milhares de amostras de software.
Além disso, a equipe analisou binários em busca de prompts codificados, que revelaram a intenção maliciosa por trás das ferramentas. Esse esforço meticuloso permitiu identificar o MalTerminal e outros exemplos emergentes, como o PromptLock e o LameHug / PROMPTSTEAL, indicando que estamos diante de uma tendência crescente no uso de IA ofensiva.
A descoberta desses malwares prova que a integração de LLM em ataques cibernéticos não é apenas experimental, mas está começando a ser aplicada de maneira concreta, mesmo que em estágios iniciais.
O futuro da ciberguerra: mais que um experimento?
Embora as ferramentas encontradas pareçam inicialmente provas de conceito (PoC) ou destinadas a equipes de red team, elas evidenciam um vasto campo de possibilidades para criminosos e hackers avançados. A pesquisa da SentinelLabs sugere que a integração de LLM em ataques pode ser explorada em várias frentes:
- Agentes de busca de pessoas: sistemas que localizam alvos específicos em ambientes digitais.
- Geradores de shellcode: criação automatizada de código malicioso adaptado a vulnerabilidades específicas.
- Assistentes de pentesting para Kali Linux: ferramentas que facilitam ataques simulados, agora potencialmente automatizados.
- Ferramentas para injeção de vulnerabilidades: exploração de falhas em tempo real, ajustando o ataque conforme o sistema alvo.
Esses exemplos mostram que a ameaça baseada em LLM ainda está em estágio inicial, mas o potencial para escalada é enorme. Estamos testemunhando o início de uma nova corrida armamentista digital, onde IA é usada tanto para defesa quanto para ataque.
Conclusão: estamos preparados para a nova era do malware?
A descoberta do MalTerminal é um marco histórico na cibersegurança. Pela primeira vez, um malware com LLM foi identificado, confirmando que a inteligência artificial já é utilizada para criar ameaças dinâmicas e adaptativas. A defesa contra essas ferramentas exigirá uma abordagem que vá além de assinaturas estáticas, focando na análise de comportamento e na comunicação com APIs.
A chegada de malwares com IA, como o MalTerminal, era inevitável. Como você acha que as empresas de segurança e a comunidade open source devem se preparar para essa nova realidade? Compartilhe sua opinião nos comentários.