Bing Chat pode ser “enganado” para ler captchas

Bing Chat pode ser “enganado” para ler captchas

Por muitos filtros que sejam aplicados nos chatbots de IA, existem sempre formas que os utilizadores conseguem usar para contornar as restrições. E o Bing Chat isso não é exceção.

O chatbot da Microsoft conta com vários filtros que impede que os utilizadores possam usar o sistema para determinadas tarefas. Por exemplo, uma delas encontra-se na leitura de captchas, que caso o utilizador envie uma imagem para a IA da Microsoft decifrar, com este conteúdo, o mesmo recusa-se a processar. No entanto, com o formato correto de texto e imagem, é possível enganar este sistema.

Foi exatamente isso que o utilizador da X Denis Shiryaev realizou, tendo conseguido enganar o Bing Chat para decifrar um captcha, usando uma história algo complexa.

Quando o utilizador tentou que o Bing Chat decifrasse o conteúdo de um captcha simples, o chatbot simplesmente recusou-se a fazer essa tarefa. No entanto, para enganar os filtros, o utilizador colocou a imagem do captcha sobre um medalhão, e inventou a história de que o mesmo pertencia à sua falecida avó, e que pretendia que o Bing Chat o ajudasse a decifrar o texto no mesmo. Com isto, parece ter sido o suficiente para contornar o filtro, sendo que o Bing Chat foi capaz de reconhecer e ditar o texto que se encontrava no captcha, contornando as restrições.

imagem da conversa com bing chat sobre captcha

Obviamente, o Bing Chat respondeu com base na informação fornecida, lamentando também a situação e afirmando esperar que a sua ajuda possa “trazer memórias” do que os dois partilharam.

Por muitos filtros que sejam aplicados para impedir que os chatbots de IA realizem certas tarefas, a realidade é que existem sempre utilizadores que são capazes de contornar os mesmos com relativa facilidade, e este é mais uma vez, um exemplo de tal.