Meta responde à Comissão Europeia sobre conteúdos de desinformação
A par com a X, também a Meta recebeu uma carta da Comissão Europeia, relativamente a conteúdo de desinformação e violento que estaria a ser partilhado no Facebook, sobre os incidentes em Israel.
A carta, enviada por Thierry Breton, encontrava-se direcionada a Mark Zuckerberg, e apontava que existiam evidências que a Meta estaria com falhas na moderação de certos conteúdos dentro da sua plataforma, que iriam dentro da legislação da DSA.
A Meta respondeu agora a esta carta, indicando que a empresa tem vindo a evoluir consideravelmente os seus sistemas para se adaptar à moderação de conteúdos. A empresa afirma que, desde os ataques dos Hamas em Israel, a Meta tem vindo a trabalhar para combater conteúdos de desinformação que foram sendo partilhados na plataforma, aumentando as equipas voltadas para os idiomas em questão e para melhorar a moderação dos conteúdos partilhados.
Esta sublinha ainda que, com as medidas aplicadas, estas permitem remover os conteúdos consideravelmente mais rápido e de forma eficaz, embora também seja reconhecido que ainda existem melhorias que podem ser realizadas.
Os dados da Meta indicam que já foram removidas mais de 795,000 publicações com conteúdos associados ao ataque, e que teriam sido partilhados na plataforma da empresa. Mais ainda foram colocados com as tags de violentos.
Foram ainda removidas várias contas de utilizadores associados com os dois países, que estariam a usar a plataforma para desinformação.
De notar que o Hamas encontra-se na lista de entidades ou organizações perigosas da Meta, que bane conteúdos dos mesmos das suas plataformas. Portanto, qualquer conteúdo que seja associado com o grupo, e partilhado pelo mesmo em celebração dos ataques realizados, é punido pela Meta. No entanto, conteúdos de noticias ou discussão social são permitidos.
A Meta garante ainda que pode aplicar mais restrições no futuro, como a limitação de visibilidade de certas hashtags ou mudanças mais severas a nível das politicas da empresa para a remoção de conteúdo violento. Os algoritmos também foram ajustados para que menos conteúdo violento fosse apresentado aos utilizadores durante a navegação pela plataforma.
Até ao momento ainda se desconhece se a clarificação será suficiente para evitar uma investigação mais aprofundada, de forma similar ao que aconteceu com a X.