OpenAI encerrou contas no Irão que usaram ChatGPT para falsos artigos
A OpenAI confirmou, durante esta semana, que um grupo de utilizadores no Irão terão usado a plataforma de IA para criar conteúdos de falsas notícias, que teriam como objetivo criar campanhas para destabilizar as presidenciais dos EUA.
A entidade afirma ter identificado várias contas que foram usadas para a criação de falsos conteúdos, com o objetivo de criar falsas noticias para utilizadores nos EUA. Estas contas teriam origem no Irão, sendo que foram banidas de usar os serviços da OpenAI depois de terem sido identificadas.
O ChatGPT foi usado como base para criar notícias e artigos falsos, dos mais variados temas associados com a política nos EUA, para depois serem partilhados em redes sociais e blogues pela internet.
Estas contas fariam parte de uma campanha de influência, que teria sido identificado recentemente pela Microsoft como “Storm-2035”. A mesma teria várias ligações a membros no Irão. Além de contas do ChatGPT foram ainda identificadas contas usadas para a partilha dos conteúdos na X e Instagram.
Embora o ChatGPT tenha sido usado para criar algumas publicações, que eram depois enviadas para as redes sociais, a OpenAI afirma que a maioria dos conteúdos criados usando a sua IA tiveram pouca ou nenhuma interação nas plataformas sociais, praticamente sem gostos ou partilhas.
Foram ainda identificados vários domínios que eram usados para partilhar mensagens e artigos que teriam sido criados pelo ChatGPT neste contexto.
A OpenAI afirma que todas as contas identificadas foram prontamente removidas da sua plataforma e os utilizadores banidos de usarem qualquer outro serviço da entidade.