Já existe um jailbreak controverso para o ChatGPT
Sistemas de IA têm vindo a ser o tema da atualidade, e se existe um que certamente está em destaque é o ChatGPT. O sistema da OpenAI tem vindo a demonstrar o que a tecnologia pode vir a fornecer no futuro.
No entanto, este género de sistemas tendem a ser consideravelmente filtrados, em parte para evitar que os mesmos forneçam respostas que possam ser consideradas ofensivas. Isto pode limitar, de certa forma, o sistema.
No entanto, utilizadores no Reddit já conseguiram dar a volta ao sistema da OpenAI, realizando uma espécie de “jailbreak” do mesmo. Com este truque, é possível colocar a IA a fornecer respostas que estariam, de outra forma, filtradas ou limitadas sobre determinados temas que poderiam ser considerados ofensivos.
Apelidada de “DAN”, ou Do Anything Now, este pequeno truque permite colocar o ChatGPT a fornecer respostas que não são filtradas pela OpenAI – pelo menos por agora, até que a empresa decida corrigir a falha que permite explorar este sistema.
As respostas que são fornecidas pelo DAN não se encontram sobre qualquer género de filtro ou censura, e em alguns casos podem fornecer respostas consideravelmente diferentes do que as seriam normais para o ChatGPT.
Usando o “truque”, os utilizadores podem ver tanto a resposta que o ChatGPT forneceria diretamente, bem como do seu alter-ego “DAN”. Para ativar o sistema, os utilizadores apenas necessitam de introduzir um texto específico sobre o chat, o que deve ativar o jailbreak. A partir dai, todas as respostas que sejam fornecidas pelo sistema de IA serão divididas entre as que são do ChatGPT e do DAN.
É importante notar que algumas das respostas fornecidas podem ser ofensivas, uma vez que não se encontram sobre qualquer filtro. Ao mesmo tempo, a OpenAI pode corrigir esta falha a qualquer momento.