Um recurso recém-implementado no ChatGPT expôs milhares de conversas privadas de usuários ao público por meio de buscas online. O botão “Tornar esta conversa detectável”, lançado pela OpenAI, permitia que diálogos com o chatbot fossem compartilhados de forma pública — o que resultou na indexação de mais de 4.500 links confidenciais nos mecanismos de busca, como o Google. A situação foi apontada pela pesquisadora Luiza Jarovsky, que alertou para a gravidade da exposição ao encontrar relatos íntimos, sessões improvisadas de terapia e depoimentos envolvendo traumas e sofrimento emocional circulando abertamente na web.
Embora a funcionalidade exigisse ativação manual por parte dos usuários, especialistas alertam que muitos podem ter marcado a opção sem compreender as consequências. Entre os exemplos de vazamentos estavam relatos de transtornos psicológicos, experiências traumáticas e pedidos de ajuda para lidar com sofrimento psíquico. Jarovsky compartilhou capturas dessas conversas no X (antigo Twitter), ressaltando o risco mesmo em conteúdos anonimizados. A repercussão levantou uma onda de críticas e preocupações sobre a proteção de dados e a responsabilidade das empresas que operam com inteligência artificial.
Diante da controvérsia, a OpenAI removeu o recurso de visibilidade pública das conversas e afirmou estar trabalhando para eliminar os conteúdos dos buscadores. Dane Stuckey, diretor de segurança da informação da empresa, reconheceu o erro publicamente e informou que a medida será revertida para todos os usuários. A empresa reforçou seu compromisso com a privacidade e segurança, mas não comentou se haverá responsabilização futura. A falha, ainda que pontual, reacende o debate sobre a fragilidade na proteção de dados sensíveis em plataformas de IA amplamente utilizadas.