Depois de terem surgido rumores que a Apple estaria a preparar um sistema para identificar conteúdos potencialmente abusivos nos sistemas dos utilizadores, a empresa veio agora confirmar mais detalhes sobre o mesmo.
De acordo com a publicação feita no blog da Apple, esta irá lançar um conjunto de funcionalidades focadas em melhorar as suas plataformas contra casos de abusos de menores. Com o lançamento do iOS 15, watchOS 15 e macOS Monterrey este ano, a empresa lança também um conjunto de medidas de segurança contra abusos de menores nas aplicações de Mensagens, Fotos e na Siri.
Para começar, sobre a aplicação de mensagens, a aplicação irá agora alertar as crianças e os pais quando estas recebam ou enviem conteúdos que sejam explícitos. Os conteúdos irão surgir na aplicação com um desfoque e vários alertas a informar sobre o conteúdo que é indicado – juntamente com a informação que a partilha de conteúdos sensíveis pode ser perigosa, focada sobretudo no envio.
Além disso, a Apple afirma que este sistema pode também notificar os pais dos menores – caso estejam configurados como tal – caso estes vejam ou enviem o conteúdo mesmo depois dos alertas. A empresa afirma que irá usar os seus sistemas de Machine Learning para identificar estes conteúdos – sem que a Apple tenha acesso direto ao conteúdo das mensagens. Esta funcionalidade vai encontrar-se disponível para contas familiares do iCloud.
Além desta medida, para os utilizadores do iCloud Fotos, a Apple irá agora contar com a integração do sistema de Child Sexual Abuse Material (CSAM), que é capaz de identificar qualquer conteúdo potencialmente abusivo de menores na plataforma – sendo que este sistema é capaz de notificar as autoridades em caso de abusos.
Este sistema usa um conjunto de bases de dados conhecidas de imagens potencialmente abusivas, e compara as mesmas de forma local nos dispositivos dos utilizadores, sem comprometer a sua privacidade. Caso um destes conteúdos seja identificado, a Apple será alertada da situação para tomar as respetivas medidas em conformidade.
A empresa sublinha que o sistema processa toda a identificação de conteúdos num formato automático e baseado em hashs conhecidas de outro material abusivo. No caso de um determinado valor ser acima do considerado “aceitável”, a Apple é então notificada sobre o caso.
Por fim, este sistema irá também ser integrado diretamente com a Siri e o sistema de pesquisa da Apple. Quando os utilizadores realizem a pesquisa de termos que possam ser considerados abusivos dentro dos parâmetros do CSAM, o sistema notifica o mesmo ao utilizador.
No exemplo deixado pela empresa, o dispositivo pode informar o utilizador que se encontra a realizar a pesquisa de conteúdo abusivo e ilegal, dando a possibilidade de também contactar linhas de apoio direto para estes casos.
Todas estas funcionalidades devem chegar nas próximas versões dos sistemas da Apple, para os diferentes dispositivos da empresa.