Vulnerabilidade crítica

Falha grave no framework Llama da Meta expõe IA a riscos de execução remota de código

A Meta corrigiu uma falha crítica no framework Llama, que expunha sistemas de IA a execução remota de código, reforçando a importância de práticas de segurança em IA.

Meta acusada de roubar dados de pessoas no Snapchat
Meta lança concorrente gratuito do GitHub Copilot

Uma falha crítica foi descoberta no framework Llama da Meta, afetando seu modelo de linguagem grande (LLM). Caso explorada por invasores, essa vulnerabilidade pode permitir a execução de código arbitrário no servidor de inferência llama-stack, comprometendo a segurança da plataforma.

Falha no framework Llama da Meta expõe IA a riscos de execução remota de código

llama-2-da-meta-nao-e-tao-de-codigo-aberto-como-diz-ser

A falha, identificada como CVE-2024-50050, recebeu uma pontuação CVSS de 6,3, enquanto a Snyk, empresa especializada em segurança de cadeias de suprimento, a classificou com uma gravidade crítica de 9,3. O problema ocorre devido à desserialização de dados não confiáveis no componente Llama Stack, usado para criar aplicativos de inteligência artificial (IA) com modelos Llama.

A vulnerabilidade está relacionada a uma falha na implementação da API de Inferência do Python, que usa pickle, um formato de serialização considerado arriscado por permitir a execução de código quando objetos maliciosos são carregados. Isso ocorre principalmente quando o socket ZeroMQ é exposto a redes externas, permitindo que agentes mal-intencionados enviem dados manipulados para o sistema, resultando na execução remota de código.

Após ser divulgada em setembro de 2024, a Meta corrigiu a falha em outubro de 2024 com a versão 0.0.41, substituindo o pickle por JSON para melhorar a segurança das comunicações entre os componentes do sistema.

Este tipo de vulnerabilidade não é inédito em frameworks de IA. Em agosto de 2024, a Oligo Security já havia descoberto falhas semelhantes no Keras do TensorFlow, onde a execução de código arbitrário também era possível devido ao uso de práticas inseguras de desserialização.

Além disso, a segurança de outras plataformas também foi colocada em risco. Recentemente, um pesquisador revelou uma falha no rastreador ChatGPT da OpenAI, que poderia ser explorada para iniciar ataques distribuídos de negação de serviço (DDoS). O problema ocorre quando solicitações HTTP malformadas são feitas à API, permitindo que o ChatGPT faça chamadas em massa a sites de vítimas, amplificando ataques DDoS.

Essas falhas demonstram como os modelos de linguagem estão sendo cada vez mais envolvidos em ameaças cibernéticas, com seus potenciais de automação tornando ataques mais rápidos, eficazes e em maior escala. Pesquisas recentes também destacam o uso de técnicas como ShadowGenes e ShadowLogic, que ajudam a identificar e mapear a “genealogia” dos modelos, permitindo um melhor rastreamento de padrões de ataques.