Investigadores afirmam que Copilot “inventou” factos sobre eleições europeias
Um grupo de investigadores revelou que o Copilot da Microsoft pode ser usado como forma de propagar informações falsas sobre as eleições europeias. O grupo AlgorithmWatch afirma que a plataforma de IA da Microsoft não aplica regras para evitar desinformação no seu serviço.
O grupo afirma ter realizado este estudo com base em recentes eleições feitas na Alemanha e Suíça. Segundo o grupo, das questões colocadas sobre as eleições, um terço das respostas fornecidas apresentavam conteúdos enganadores ou falsos, e onde o sistema não teria aplicado qualquer medida de proteção para os utilizadores.
O estudo terá sido realizado usando as respostas do Copilot entre Agosto e Outubro deste ano. As eleições nos dois países foram usadas como base tendo em conta que seriam as primeiras a ser realizadas desde que o Bing Chat foi lançado.
Ao mesmo tempo, o estudo permitiu também analisar as respostas quando realizadas em três idiomas diferentes: Alemão, Inglês e Francês.
Os investigadores terão realizado perguntas como os locais para votar, quais os candidatos, dados das votações e outras informações. A isto junta-se ainda alguns casos de escândalos ou situações problemáticas sobre os candidatos, com questões associadas às mesmas.
Segundo os investigadores, as respostas fornecidas pelo Copilot foram classificadas de diferentes formas, desde verdadeiras a falsas, e onde se englobava também conteúdos potencialmente falsos.
As respostas que o Bing Chat fornecia encontravam-se com factos incorretos, controvérsias dos candidatos que teriam sido inventadas, datas erradas e dados de votação igualmente desatualizados. Em algumas situações, o sistema indicou mesmo candidatos que nem se encontravam na corrida.
No total, 31% das respostas analisadas pelos investigadores terão sido de dados inválidos ou errados. De notar que o Bing Chat recolhe informações dos seus dados a partir de várias fontes, usando a pesquisa do Bing, o que a Microsoft alega que fornece também resultados atualizados e “frescos” em comparação com alternativas.
A Microsoft também afirma que aplicou regras para garantir que as respostas são o mais corretas possíveis, mas estas parecem não ter sido aplicadas nos testes feitos durante este estudo.
Os investigadores afirmam que estas regras foram aplicadas quando se questionava por opiniões ao chatbot, mas não quando se perguntava informação para fatos. A situação foi ainda pior quando o idioma se encontrava fora do Inglês.
Em resposta a este estudo, a Microsoft afirma que aplicou medidas no seu chatbot para garantir que o mesmo fornece as informações o mais corretas possíveis, ainda mais tendo em contra o aproximar das eleições dos EUA em 2024. Entre as medidas encontra-se a de usar apenas fontes credíveis para dados relacionados com as eleições.
No entanto, a empresa também refere que sistemas como o Copilot devem ser cuidadosamente usados pelos utilizadores, e que estes devem sempre validar as informações fornecidas pelo mesmo.