OpenAI corrige falha no ChatGPT de forma incorreta
A OpenAI confirmou recentemente ter mitigado uma falha no ChatGPT, que se explorada, poderia permitir o leak de detalhes das conversas para endereços externos. No entanto, de acordo com alguns investigadores, a correção parece ter sido aplicada de forma incompleta.
Em Abril de 2023, o investigador Johann Rehberger revelou ter descoberto uma técnica para retirar dados das conversas do ChatGPT, tendo reportado no mesmo mês a falha à OpenAI. Em novembro, o investigador detalhou ainda mais a falha, e partilhou também GPTs criados especificamente para explorar a falha, e recolhe informação das conversas dos utilizadores.
A OpenAI foi informada da falha a 13 de Novembro de 2023. No entanto, apesar de o investigador ter demonstrado a falha, esta foi descartada pela OpenAI como não sendo diretamente uma falha de segurança – e consequentes mensagens de esclarecimento foram deixadas sem resposta.
Devido à falta de resposta da OpenAI sobre a situação, o investigador decidiu tornar pública a descoberta, tendo revelado a falha a 12 de Dezembro de 2023, com exemplos de como esta poderia ser explorada.
Esta falha poderia ser explorada usando imagens especificas, com o objetivo de recolher dados das conversas dos utilizadores.
Depois de Rehberger ter publicado a falha, a OpenAI respondeu à mesma com a implementação de uma verificação adicional no ChatGPT, para impedir que as imagens recolham a informação. No entanto, Rehberger afirma que a correção não foi implementada corretamente, e não impede que a recolha de informações possa continuar a ser feita.
Mesmo que parte do ataque tenha sido, efetivamente, mitigado, ainda é possível explorar a falha para recolher dados sensíveis de conversas na plataforma da OpenAI. Ao mesmo tempo, apesar de a correção ter sido implementada na versão web do ChatGPT, ainda se encontra por corrigir nas aplicações do ChatGPT para Android e iOS, onde a falha pode teoricamente ser explorada.