Várias empresas criam acordo para combater deepfakes durante as eleições
Atualmente existe um forte interesse em conteúdos de IA generativa, com produtos e serviços a serem criados para fornecerem conteúdos cada vez mais realistas. No entanto, estas melhorias a nível do realismo também levantam algumas questões a nível da segurança e da criação de conteúdos deepfake.
Recentemente a OpenAI revelou o Sora, uma nova plataforma que sua IA para criar vídeos de qualidade bastante elevada, ao ponto que pode ser complicado diferenciar entre conteúdos gerados por IA e outros reais. Também recentemente, a cantora Taylor Swift teve imagens deepfake partilhadas na X.
Com o aproximar das eleições de 2024, existe agora o receio que estas tecnologias possam ser usadas para fins menos bons, com a possibilidade de serem criados conteúdos enganadores ou falsos sobre os mais variados temas de políticos, que podem negativamente influenciar as eleições dos mesmos.
A pensar nisso, um vasto grupo de empresas de tecnologia assinaram hoje um acordo que pretende combater este género de conteúdos, e criar medidas para evitar que tal seja aplicado no futuro.
O acordo é apelidado de AI Elections Accord, e integra até agora as seguintes entidades:
- Adobe
- Amazon
- Anthropic
- Arm
- ElevenLabs
- IBM
- Inflection AI
- McAfee
- Meta
- Microsoft
- Nota
- OpenAI
- Snap Inc.
- Stability AI
- TikTok
- Trend Micro
- Truepic
- X
Na mensagem do comunicado do acordo, as entidades comprometeram-se a seguir algumas regras para evitar e combater os conteúdos de deepfake e criados por IA de forma maliciosa, com as seguintes regras:
- Desenvolver e implementar tecnologia para mitigar os riscos relacionados com o conteúdo eleitoral enganoso da IA, incluindo ferramentas de código aberto, quando apropriado
- Avaliar os modelos no âmbito do presente acordo para compreender os riscos que podem apresentar relativamente aos conteúdos eleitorais com IA enganosa
- Procurar detetar a distribuição destes conteúdos nas suas plataformas
- Procurar tratar adequadamente este conteúdo detetado nas suas plataformas
- Promover a resiliência intersectorial a conteúdos eleitorais de IA enganosos
- Fornecer transparência ao público relativamente à forma como a empresa aborda esta questão
- Continuar a colaborar com um conjunto diversificado de organizações globais da sociedade civil e académicos
- Apoiar os esforços para promover a sensibilização do público, a literacia mediática e a resiliência de toda a sociedade
Este género de acordos pretende garantir uma camada adicional de segurança para as eleições de 2024, e evitar que estes conteúdos possam enganar os utilizadores finais. Ainda recentemente uma empresa no Texas foi apanhada a realizar chamadas automáticas, onde a voz de Joe Biden era usada para apelar aos cidadãos para não votarem nas primárias de New Hampshire.