Moderadores do Facebook deixam críticas sobre avaliação de conteúdos abusivos a menores
O Facebook volta a encontrar-se sobre fortes críticas, depois de terem começado a surgir informações que a plataforma poderá encontrar-se a desclassificar algumas imagens partilhadas na plataforma que seriam consideradas abusos de crianças.
De acordo com o portal New York Times, documentos internos de treino da empresa para os moderadores da plataforma indicam que os mesmos devem classificar imagens de conteúdos abusivos olhando para o lado do adulto, durante a fase de avaliação dos conteúdos.
Ou seja, os documentos indicam que os moderadores devem analisar as imagens deixando de lado a idade das pessoas intervenientes nas mesmas em primeiro lugar, o que foi alvo de críticas por parte dos próprios moderadores, mas parece ser defendido pelos gestores da rede social.
Esta medida pode levantar algumas questões sobre conteúdos potencialmente abusivos de menores que acabam por ser passados da moderação derivado de não serem corretamente analisados. Além disso, os conteúdos podem também acabar por não ser reportados às autoridades, como o Facebook possui obrigação de realizar quando este género de conteúdos é partilhado na plataforma.
Além disso, as críticas encontram-se ainda no facto que nem sempre é possível avaliar com exatidão a idade dos intervenientes num conteúdo deste género. Muitas situações de abusos podem ocorrer a menores sem que os mesmos pareçam encontrar-se dentro do patamar de idades para serem considerados como tal.
Como os moderadores são instruídos para olharem para as imagens como “adultos”, alguns conteúdos de potencial abuso podem passar despercebidos.
Esta situação complica-se ainda mais se tivermos em conta que uma grande parte da equipa de moderação encontra-se fora do Facebook, em entidades externas responsáveis por analisarem estes conteúdos, e muitas vezes possuem apenas alguns segundos para analisarem um conteúdo antes de avançarem para o próximo.
Enquanto isso, outras empresas parecem seguir uma ideologia diferente, reportando conteúdos de abuso mesmo que não seja possível identificar a idade dos participantes. Apple, Snapchat e TikTok todas partilham esta regra, e quando um conteúdo surge como potencial abuso de menores mas não é possível identificar a idade dos participantes, o mesmo é na mesma reportado às autoridades.