ChatGPT pode ser enganado para ajudar a produzir engenhos explosivos

ChatGPT pode ser enganado para ajudar a produzir engenhos explosivos

O ChatGPT conta com várias restrições nas respostas que pode fornecer, em parte para prevenir que a plataforma possa ser usada para abusos ou ataques diretos. Entre estas encontram-se questões de como fabricar engenhos explosivos e outros, que podem causar problemas no mundo real.

No entanto, como acontece em todos os sistemas, existem sempre formas de dar a volta aos mesmos, e recentemente, um hacker entusiasta revelou ter descoberto uma forma de fazer o ChatGPT ensinar a realizar engenhos explosivos, com instruções detalhadas para tal.

De acordo com o portal Techcrunch, um hacker, conhecido apenas como “Amadon”, afirma ter descoberto uma forma de contornar praticamente todas as medidas de segurança implementadas no ChatGPT, para evitar que o mesmo forneça informações consideradas como perigosas.

O mesmo afirma que conseguiu fazer com que o ChatGPT fornece-se informações bastante precisas de como construir um engenho explosivo, que poderia ter efeitos no mundo real. O portal terá ainda colocar as instruções para a criação do engenho na leitura de um especialista, que considera que as mesmas são detalhadas o suficiente para realizar algo que pode realmente explodir.

O hacker afirma que terá conseguido enganar o ChatGPT, levando-o a dizer aquilo que cria sem filtros, com a ideia de “jogar um jogo”. Usando um conjunto de questões interligadas, o mesmo foi capaz de praticamente desativar todas as regras de segurança implementadas no sistema.

Segundo Amadon, quando as regras de segurança são desativadas, é possível questionar o ChatGPT sobre praticamente tudo. O exemplo dos engenhos explosivos é apenas um dos casos, mas pode ser aplicado a praticamente qualquer outro tema que, normalmente, seria barrado pelo ChatGPT.

Amadon afirma ter tentado reportar este problema à OpenAI como sendo um bug, mas que a plataforma recusou receber o mesmo, por considerar que falhas a nível da segurança e limites dos modelos de IA não se aplicam como bugs. Neste caso, o mesmo foi aconselhado a contactar a OpenAI por outros meios – dos quais a empresa, até ao momento, não forneceu resposta.