Funcionários da Samsung usam ChatGPT e acabam vazando dados secretos da empresa

funcionarios-da-samsung-usam-chatgpt-e-acabam-vazando-dados-secretos-da-empresa

Desde que o ChatGPT foi lançado, muitas pessoas ficaram curiosas para vê-lo em funcionamento e, não se preocuparam tanto com a segurança. Foi o que aconteceu com alguns engenheiros da Samsung, que utilizaram o ChatGPT e acabaram vazando dados secretos da Empresa.

Funcionários da Samsung vazam dados da empresa ao usarem o ChatGPT

Os funcionários da Samsung compartilharam documentos internos, incluindo notas de reunião e código-fonte, com ChatGPT. A IA desse chatbot usa dados fornecidos pelos usuários para se treinar e construir sua experiência, com o risco de que esses dados possam estar disponíveis para outros usuários que consultarão o popular chatbot.

Os engenheiros da Samsung usaram o ChatGPT para avaliar o código-fonte da empresa, eles pediram ao chatbot para otimizar as sequências de teste para identificar falhas nos chips que estavam projetando.

De acordo com o site Techradar (Via: Security Affairs), em pouco menos de um mês, a empresa sofreu três vazamentos de dados causados ??pelo vazamento de informações sigilosas de seus funcionários via ChatGPT. O site diz ainda que, em outro caso, um funcionário usou o ChatGPT para converter notas de reunião em uma apresentação, cujo conteúdo obviamente não era algo que a Samsung gostaria que terceiros externos soubessem.

funcionarios-da-samsung-usam-chatgpt-e-acabam-vazando-dados-secretos-da-empresa

Risco de vazamento

A empresa multinacional de TI decidiu começar a desenvolver sua própria IA para uso interno. Isso deve evitar mais vazamentos futuros. A Samsung Electronics alerta os seus colaboradores para os potenciais riscos associados à utilização do ChatGPT, explicando que não existe forma de impedir a fuga dos dados fornecidos ao serviço de chatbot da OpenAI.

Não está claro se a Samsung solicitou a exclusão dos dados fornecidos por seus funcionários à OpenAI. No início deste mês, a Autoridade Italiana de Proteção de Dados, baniu temporariamente o ChatGPT devido à coleta ilegal de dados pessoais e à ausência de sistemas para verificar a idade de menores. A Autoridade destacou que o OpenAI não alerta os usuários de que está coletando seus dados.

De acordo com o anúncio, não há base legal que sustente a coleta massiva e o processamento de dados pessoais para ‘treinar’ os algoritmos dos quais a plataforma depende.

Esse vazamento pelo qual a Samsung está passando deve ser apenas a ponta do iceberg, já que muitos outros funcionários de empresas de diversos ramos, provavelmente já devem ter usado o chatbot da OpenAI com arquivos sigilosos das mesmas. Esperamos que usar o ChatGPT seja “seguro” algum dia.

Acesse a versão completa
Sair da versão mobile