Desde que o ChatGPT foi lançado, muitas pessoas ficaram curiosas para vê-lo em funcionamento e, não se preocuparam tanto com a segurança. Foi o que aconteceu com alguns engenheiros da Samsung, que utilizaram o ChatGPT e acabaram vazando dados secretos da Empresa.
Funcionários da Samsung vazam dados da empresa ao usarem o ChatGPT
Os funcionários da Samsung compartilharam documentos internos, incluindo notas de reunião e código-fonte, com ChatGPT. A IA desse chatbot usa dados fornecidos pelos usuários para se treinar e construir sua experiência, com o risco de que esses dados possam estar disponíveis para outros usuários que consultarão o popular chatbot.
Os engenheiros da Samsung usaram o ChatGPT para avaliar o código-fonte da empresa, eles pediram ao chatbot para otimizar as sequências de teste para identificar falhas nos chips que estavam projetando.
De acordo com o site Techradar (Via: Security Affairs), em pouco menos de um mês, a empresa sofreu três vazamentos de dados causados ??pelo vazamento de informações sigilosas de seus funcionários via ChatGPT. O site diz ainda que, em outro caso, um funcionário usou o ChatGPT para converter notas de reunião em uma apresentação, cujo conteúdo obviamente não era algo que a Samsung gostaria que terceiros externos soubessem.
Risco de vazamento
A empresa multinacional de TI decidiu começar a desenvolver sua própria IA para uso interno. Isso deve evitar mais vazamentos futuros. A Samsung Electronics alerta os seus colaboradores para os potenciais riscos associados à utilização do ChatGPT, explicando que não existe forma de impedir a fuga dos dados fornecidos ao serviço de chatbot da OpenAI.
Não está claro se a Samsung solicitou a exclusão dos dados fornecidos por seus funcionários à OpenAI. No início deste mês, a Autoridade Italiana de Proteção de Dados, baniu temporariamente o ChatGPT devido à coleta ilegal de dados pessoais e à ausência de sistemas para verificar a idade de menores. A Autoridade destacou que o OpenAI não alerta os usuários de que está coletando seus dados.
De acordo com o anúncio, não há base legal que sustente a coleta massiva e o processamento de dados pessoais para ‘treinar’ os algoritmos dos quais a plataforma depende.
Esse vazamento pelo qual a Samsung está passando deve ser apenas a ponta do iceberg, já que muitos outros funcionários de empresas de diversos ramos, provavelmente já devem ter usado o chatbot da OpenAI com arquivos sigilosos das mesmas. Esperamos que usar o ChatGPT seja “seguro” algum dia.