Apple deixa de lado controverso sistema de identificação para conteúdos abusivos
O ano passado, a Apple tinha revelado uma medida controversa, focada no que a empresa acreditava ser uma forma de controlar conteúdos abusivos que estariam a ser armazenados no iCloud. Em causa encontra-se o sistema de CSAM, um sistema automático que identifica conteúdos abusivos de menores armazenados no serviço da empresa e nos dispositivos dos utilizadores.
A medida, apesar de positiva para prevenir este género de conteúdos, ao mesmo tempo também levantou várias críticas a nível da privacidade, uma vez que os conteúdos dos utilizadores necessitariam de ser analisados para identificar os que fossem respeitantes a conteúdos abusivos – e existe o potencial de certos conteúdos serem incorretamente identificados.
O sistema estava previsto de chegar no iOS 15, mas a empresa adiou a sua implementação depois das críticas a nível da privacidade. Agora parece que a empresa deitou por terra todos os planos de incluir este sistema.
De acordo com o The Wall Street Journal, a Apple terá deixado de lado os planos de integrar este novo sistema sobre a sua plataforma, sendo que agora irá focar-se invés disso em fornecer ferramentas para evitar que esses conteúdos sejam capturados em primeira instância.
Este plano da empresa surge na mesma altura em que foram reveladas novas funcionalidades de segurança para as contas da Apple, como é o caso da encriptação ponta a ponta de conteúdos para o iCloud.
De notar que, apesar de o sistema de CSAM não vir a ser integrado completamente no iCloud, a Apple ainda chegou a incluir algumas partes do mesmo em certas funcionalidades do iOS. Uma delas será no serviço de mensagens do iMessage, e em contas com o controlo parental ativo, onde conteúdos potencialmente abusivos são bloqueados.