Falha em serviço de IA da Replicate é identificada. Modelos e dados de clientes foram expostos!

Pesquisadores de segurança cibernética descobriram uma falha crítica de segurança em um provedor de inteligência artificial

Pesquisadores de segurança cibernética descobriram uma falha crítica de segurança em um provedor de inteligência artificial (IA) da plataforma Replicate. A falha pode ter permitido que os atores de ameaças obtivessem acesso a modelos proprietários de IA e informações confidenciais.

Serviço de IA da Replicate apresenta falha

De acordo com a empresa de segurança em nuvem Wiz em um relatório publicado esta semana, ‘”a exploração desta vulnerabilidade teria permitido acesso não autorizado aos prompts e resultados de IA de todos os clientes da plataforma Replicate”.

O problema decorre do fato de que os modelos de IA são normalmente empacotados em formatos que permitem a execução arbitrária de código, que um invasor pode transformar em arma para realizar ataques entre locatários por meio de um modelo malicioso. O Replicate usa uma ferramenta de código aberto chamada Cog para conteinerizar e empacotar modelos de aprendizado de máquina que podem ser implantados em um ambiente auto-hospedado ou para replicar.

De acordo com a Wiz, a empresa criou um contêiner Cog desonesto e o carregou no Replicate, em última análise, empregando-o para obter execução remota de código na infraestrutura do serviço com privilégios elevados.

Imagem: Reprodução | The Hacker News

Suspeitamos que esta técnica de execução de código seja um padrão, onde empresas e organizações executam modelos de IA a partir de fontes não confiáveis, mesmo que esses modelos sejam códigos que podem ser potencialmente maliciosos.

Pesquisadores de segurança Shir Tamari e Sagi Tzadik

A técnica de ataque desenvolvida pela empresa aproveitou uma conexão TCP já estabelecida associada a uma instância do servidor Redis dentro do cluster Kubernetes hospedado no Google Cloud Platform para injetar comandos arbitrários. Além do mais, com o servidor Redis centralizado sendo usado como uma fila para gerenciar múltiplas solicitações de clientes e suas respostas, ele poderia ser abusado para facilitar ataques entre locatários, alterando o processo para inserir tarefas não autorizadas que poderiam impactar os resultados de outros modelos dos clientes.

A divulgação da falha

Estas manipulações fraudulentas não só ameaçam a integridade dos modelos de IA, mas também representam riscos significativos para a precisão e fiabilidade dos resultados gerados pela IA. A deficiência, que foi divulgada de forma responsável em janeiro de 2024, já foi corrigida pela Replicate. Não há evidências de que a vulnerabilidade tenha sido explorada para comprometer os dados dos clientes.

A divulgação ocorre pouco mais de um mês depois que Wiz detalhou os riscos agora corrigidos em plataformas como Hugging Face, que poderiam permitir que os agentes de ameaças aumentassem privilégios, obtivessem acesso entre locatários aos modelos de outros clientes e até mesmo assumissem a integração e implantação contínuas. (CI/CD) pipelines.

Share This Article
Follow:
Jardeson é Mestre em Tecnologia Agroalimentar e Licenciado em Ciências Agrária pela Universidade Federal da Paraíba. Entusiasta no mundo tecnológico, gosta de arquitetura e design gráfico. Economia, tecnologia e atualidade são focos de suas leituras diárias. Acredita que seu dia pode ser salvo por um vídeo engraçado.
Sair da versão mobile