Copilot bloqueia termos usados para criar imagens explícitas e violentas
A Microsoft encontra-se a bloquear vários termos que estavam a ser usados para contornar os filtros do Copilot, levando a que o sistema de IA da empresa fornecesse conteúdos potencialmente violentos ou explícitos.
A empresa terá começado a aplicar estas mudanças sobre o seu sistema de IA depois de um engenheiro da empresa ter escrito para a FTC, nos EUA, apontando preocupações na forma como a IA da empresa estaria a processar informação e a distribuir os conteúdos para os utilizadores.
Com as mudanças, a Microsoft agora aplica filtros mais restritos sobre os conteúdos que podem ser introduzidos no sistema. Certos termos associados com conteúdos explícitos agora apresentam mensagens a bloquear os mesmos, indicando que os mesmos violam os termos do Copilot.
No início da semana, vários utilizadores nas redes sociais começaram também a confirmar que era possível criar imagens, usando as funcionalidades de IA da Microsoft, para colocar crianças a brincarem com armas, em situações de guerra. Os mesmos termos agora apresentam a mesma mensagem, indicando que o conteúdo viola os termos da Microsoft.
No entanto, embora os filtros estejam mais apertados, ainda existem formas de contornar os mesmos. Existem casos onde os utilizadores se encontram a conseguir criar imagens com personagens reconhecidas do cinema e cartoons em várias situações perigosas ou explícitas.
De relembrar que o engenheiro Shane Jones demonstrou algumas das falhas dos sistemas da Microsoft no início do mês, quando este reportou que era possível usar a IA da empresa para criar conteúdos explícitos.
Em resposta ao caso, a Microsoft afirma que se encontra continuamente a melhorar os seus sistemas de IA, e isso inclui integrar novas formas de bloquear tentativas dos utilizadores contornarem as regras na criação de conteúdos usando as tecnologias de IA da empresa.