A Microsoft anunciou que está processando um grupo de hackers, identificados como agentes de ameaças estrangeiras, por utilizarem a infraestrutura do Azure para gerar conteúdo prejudicial. A ação judicial alega que esses hackers exploraram falhas de segurança nos serviços de inteligência artificial generativa da gigante da tecnologia para criar material ofensivo.
Como hackers utilizaram IA para gerar imagens prejudiciais no Azure
A empresa revelou que, ao longo de 2024, o grupo de ameaças teria desenvolvido software avançado para obter credenciais de clientes expostas através de sites públicos. Com essas credenciais, os criminosos tentaram acessar ilegalmente contas de IA generativa, manipulando seus serviços para produzir e distribuir conteúdos maliciosos. A Microsoft observou que os hackers, ao conseguirem acesso a ferramentas como o Azure OpenAI Service, passaram a vender o uso dessas ferramentas, orientando outros agentes maliciosos sobre como utilizá-las para gerar materiais prejudiciais.
A gigante de Redmond tomou medidas imediatas após descobrir a atividade, que foi monitorada desde julho de 2024, cancelando o acesso dos hackers, implementando novas contramedidas e reforçando a segurança para evitar futuras tentativas. Além disso, a Microsoft obteve uma ordem judicial para apreender o site “aitism[.]net”, que era central para a operação criminosa.
O crescente uso de IA generativa, como o ChatGPT, trouxe uma série de desafios em relação à segurança cibernética, com grupos de hackers explorando essas ferramentas para diversos fins maliciosos. A Microsoft e a OpenAI já haviam alertado sobre o uso de seus serviços por grupos de estados-nação como China, Irã, Coreia do Norte e Rússia, que buscam explorar essas tecnologias para desinformação e outras práticas prejudiciais.
A investigação revelou que ao menos três indivíduos estariam por trás do esquema de hacking, que envolveu o uso de chaves de API roubadas e informações de autenticação de clientes do serviço Azure para gerar imagens prejudiciais utilizando o modelo DALL-E, violando as políticas de uso do serviço. Documentos judiciais apontam que esses agentes de ameaça usaram proxies reversos e ferramentas como o “de3u” para contornar as medidas de segurança e acessar o serviço de IA da Microsoft.
Esse incidente é um exemplo claro de como as ameaças cibernéticas estão se adaptando ao avanço das tecnologias de IA, colocando em risco a integridade de plataformas de grandes empresas e expondo dados sensíveis. A Microsoft, que vem investindo fortemente na proteção de seus serviços, segue colaborando com as autoridades para impedir novas infrações e proteger seus clientes.