Meta sobre críticas pela recolha de dados para treino de modelos de IA no Reino Unido

Meta sobre críticas pela recolha de dados para treino de modelos de IA no Reino Unido

Um grupo de proteção da privacidade dos consumidores no Reino Unido deixou publicamente um caso contra a Meta, junto das autoridades locais do país, devido às alterações feitas nas políticas da Meta, de forma a usar dados dos consumidores para treino de modelos de IA.

A Open Rights Group (ORG), um grupo de defesa dos direitos de privacidade dos consumidores online, afirma que a Meta terá enviado um email para utilizadores do Instagram e Facebook, sobre alterações na sua política de privacidade a 26 de Junho, onde passaria a usar dados partilhados na plataforma para o treino de modelos de IA.

Esta recolha de dados seria feita no método de legitimo interesse, e os dados seriam usados para treino dos diferentes modelos LLM da Meta, que seria posteriormente usados para melhorar as capacidades de IA da empresa.

Esta medida surge depois de também a Comissão Europeia ter levantado questões similares, sobre a forma como a Meta estaria a preparar-se para recolher dados dos utilizadores das suas plataformas, para treino de modelos LLM, e como essa informação poderia ser uma violação da privacidade e das leis locais.

Embora o Reino Unido tenha leis similares à União Europeia a nível de privacidade online, este não se enquadra totalmente no RGPD, e portanto, possui alguns pontos específicos – dai a medida agora realizada pelo grupo nesta região.

A Information Commissioner’s Office (ICO) do Reino Unido terá sido informada pela ORG sobre esta recolha de dados massiva da Meta, e na forma como a informação seria usada para o treino de modelos de IA, considerando que a mesma viola as leis locais do Reino Unido de proteção de dados.

De relembra que, em Junho, a Meta confirmou que iria suspender a recolha de dados dos utilizadores das suas plataformas para treino de modelos de IA, depois da pressão das autoridades locais para tal. A empresa sublinhou ainda que, com esta medida, algumas das funcionalidades de IA da empresa não ficariam disponíveis na região.