Vulnerabilidade explorada
Falha Time Bandit burla segurança do ChatGPT e revela temas sensíveis
Pesquisadores descobriram o Time Bandit, um jailbreak do ChatGPT que ignora proteções e revela informações sensíveis. A falha, baseada em confusão temporal, foi relatada à OpenAI, mas continua funcionando parcialmente.