Pesquisadores da Check Point revelaram os detalhes de uma vulnerabilidade no Microsoft 365 Copilot, apelidada de EchoLink, que inaugura uma nova classe de ataques: exploits de IA (Inteligência Artificial) que não exigem nenhum clique do usuário. Em termos simples: zero-clique. Imagine que um simples convite de calendário, um e-mail ou um documento compartilhado pudesse induzir a IA da sua empresa a vazamento de dados — resumos de reuniões, rascunhos de projetos, insights internos — sem que você fizesse absolutamente nada. Era isso que o EchoLink permitia, até ser corrigido pela Microsoft em junho de 2025.
Como funciona o exploit de IA “zero-clique”

O EchoLink explorava exatamente o ponto onde a produtividade encontra a automação: os “encaixes” entre dados corporativos (e-mails, arquivos, convites) e a camada de IA do Microsoft 365 Copilot. Bastava o atacante inserir instruções maliciosas — prompts embutidos — dentro de conteúdos aparentemente inofensivos (um .docx no OneDrive, um convite do Outlook, um e-mail com anexo). Quando o Copilot processava esse conteúdo em segundo plano, a IA podia misturar o insumo externo com o contexto interno da organização e revelar informações confidenciais. Tudo acontecia de forma automática, “invisível” ao usuário — o verdadeiro significado de zero-clique.
Tecnicamente, trata-se de uma violação de escopo da LLM (o modelo aceita input não confiável e o funde ao contexto confiável). Ao automatizar tarefas — sumarizar reuniões, preparar briefings, responder dúvidas — o Copilot acabava “ecoando” conteúdo sensível que jamais deveria sair do perímetro interno. É por isso que a Check Point posiciona o EchoLink como um prenúncio do que vem pela frente: à medida que agentes de IA se tornam mais integrados às rotinas, o vetor de ataque passa a ser o próprio fluxo de automação, não apenas o clique de um usuário distraído.
Status da falha: a Microsoft lançou correção em junho de 2025 (CVE-2025-32711). O foco agora é entender as implicações e reforçar os controles de segurança para fluxos de IA.
Um alerta para as ameaças do futuro
A lição central do EchoLink é que a superfície de ataque mudou. Até aqui, boa parte da segurança corporativa foi desenhada para cliques, downloads e macros. Com o Copilot (e ferramentas semelhantes) automatizando ingestão e interpretação de conteúdo, surge um espaço onde entradas externas (um convite, um link, um comentário em documento) podem acionar comportamentos internos da IA — e sem nenhuma ação explícita do usuário.
Isso desloca o problema para três frentes:
- Governança de contexto: quem decide o que a IA pode ver, quando e por que?
- Higiene de conteúdo: como inspecionar e neutralizar instruções maliciosas embutidas em e-mails, documentos e convites antes que toquem a IA?
- Observabilidade de agentes: quais logs e sinais existem (ou faltam) para rastrear como a IA chegou a certa resposta?
A Check Point enquadra o EchoLink como um sinal de alerta: mesmo com o patch aplicado, ataques semelhantes tendem a proliferar conforme agentes de IA assumem tarefas mais “autônomas” dentro de suítes de colaboração. Em outras palavras: o “calcanhar de Aquiles” migra do usuário para o pipeline de automação.
Recomendações de segurança na era da IA
Abaixo, um roteiro prático — pensado para equipes de TI e segurança que já dependem do Microsoft 365 Copilot e querem se proteger de cenários “EchoLink-like” sem perder produtividade. A palavra-chave EchoLink Microsoft Copilot aparece aqui porque o objetivo é endereçar quem busca precisamente por essas orientações.
1) Corrija e reduza a exposição do contexto
- Garanta que todas as instâncias do Copilot estejam atualizadas com as correções de junho/2025 (CVE-2025-32711).
- Revisite o escopo de acesso da IA: aplique princípio do menor privilégio na indexação de e-mails, sites do SharePoint e repositórios sensíveis.
- Separe ambientes (ex.: jurídico e financeiro) e use políticas de Data Loss Prevention alinhadas ao que a IA pode “ver” e “dizer”.
2) Filtre entradas antes de chegarem à IA
- Adoção de varredura de prompts embutidos em e-mails, convites e documentos (conteúdo ativo, comentários, campos ocultos).
- Bloqueio/neutralização de cargas maliciosas conhecidas (padrões de injeção), com detecção baseada em IA/ML para generalizar além de assinaturas.
- Quarentena e análise fora de banda de links e anexos que acionem fluxos automatizados do Copilot.
3) Monitore a “trilha de decisão” do agente
- Telemetria específica de Copilot/LLM: rastreie quais fontes foram citadas, que instruções externas entraram no contexto e quando.
- Alertas para comportamentos anômalos (ex.: respostas contendo dados fora do domínio esperado, menções a repositórios sigilosos, tentativas de “ecoar” informação).
- Table-top exercises simulando ataques zero-clique em fluxos críticos (finanças, P&D, jurídico).
4) Defesa em profundidade para colaboração
- Além dos recursos nativos, considere camadas complementares de segurança orientadas a e-mail e colaboração — a própria Check Point cita sua plataforma Harmony Email & Collaboration como exemplo de abordagem API-based com prevenção em tempo real, desde phishing e malware até exploração zero-clique e exfiltração de dados. Trate a recomendação de forma jornalística: é uma linha de defesa adicional dentro de uma estratégia por camadas, não um substituto da correção oficial.
5) Política, treinamento e “guardrails” de IA
- Estabeleça políticas internas claras sobre o que pode (ou não) ser sintetizado pela IA.
- Treine times para reconhecer sinais de instruções maliciosas em convites e documentos.
- Defina guardrails: listas de dados proibidos em respostas, bloqueio de destinos externos e regras de red-teaming contínuo para fluxos de IA.
Nota de serviço ao leitor: a vulnerabilidade foi corrigida em junho de 2025; o objetivo deste artigo é alertar sobre a classe de ataques revelada pelo EchoLink — e como ajustar processos e controles para o novo cenário de risco.