Várias empresas criam acordo para combater deepfakes durante as eleições

Várias empresas criam acordo para combater deepfakes durante as eleições

Atualmente existe um forte interesse em conteúdos de IA generativa, com produtos e serviços a serem criados para fornecerem conteúdos cada vez mais realistas. No entanto, estas melhorias a nível do realismo também levantam algumas questões a nível da segurança e da criação de conteúdos deepfake.

Recentemente a OpenAI revelou o Sora, uma nova plataforma que sua IA para criar vídeos de qualidade bastante elevada, ao ponto que pode ser complicado diferenciar entre conteúdos gerados por IA e outros reais. Também recentemente, a cantora Taylor Swift teve imagens deepfake partilhadas na X.

Com o aproximar das eleições de 2024, existe agora o receio que estas tecnologias possam ser usadas para fins menos bons, com a possibilidade de serem criados conteúdos enganadores ou falsos sobre os mais variados temas de políticos, que podem negativamente influenciar as eleições dos mesmos.

A pensar nisso, um vasto grupo de empresas de tecnologia assinaram hoje um acordo que pretende combater este género de conteúdos, e criar medidas para evitar que tal seja aplicado no futuro.

O acordo é apelidado de AI Elections Accord, e integra até agora as seguintes entidades:

  • Adobe
  • Amazon
  • Anthropic
  • Arm
  • ElevenLabs
  • Google
  • IBM
  • Inflection AI
  • LinkedIn
  • McAfee
  • Meta
  • Microsoft
  • Nota
  • OpenAI
  • Snap Inc.
  • Stability AI
  • TikTok
  • Trend Micro
  • Truepic
  • X

Na mensagem do comunicado do acordo, as entidades comprometeram-se a seguir algumas regras para evitar e combater os conteúdos de deepfake e criados por IA de forma maliciosa, com as seguintes regras:

  • Desenvolver e implementar tecnologia para mitigar os riscos relacionados com o conteúdo eleitoral enganoso da IA, incluindo ferramentas de código aberto, quando apropriado
  • Avaliar os modelos no âmbito do presente acordo para compreender os riscos que podem apresentar relativamente aos conteúdos eleitorais com IA enganosa
  • Procurar detetar a distribuição destes conteúdos nas suas plataformas
  • Procurar tratar adequadamente este conteúdo detetado nas suas plataformas
  • Promover a resiliência intersectorial a conteúdos eleitorais de IA enganosos
  • Fornecer transparência ao público relativamente à forma como a empresa aborda esta questão
  • Continuar a colaborar com um conjunto diversificado de organizações globais da sociedade civil e académicos
  • Apoiar os esforços para promover a sensibilização do público, a literacia mediática e a resiliência de toda a sociedade

Este género de acordos pretende garantir uma camada adicional de segurança para as eleições de 2024, e evitar que estes conteúdos possam enganar os utilizadores finais. Ainda recentemente uma empresa no Texas foi apanhada a realizar chamadas automáticas, onde a voz de Joe Biden era usada para apelar aos cidadãos para não votarem nas primárias de New Hampshire.