Grandes empresas de tecnologia se unem para combater fake news geradas por inteligência artificial em eleições de 2024.

Durante a Conferência de Segurança de Munique, realizada nesta sexta-feira (16) na Alemanha, um acordo histórico foi firmado por 20 empresas líderes de tecnologia, visando a detecção e combate a fake news geradas por inteligência artificial (IA) nas eleições de 2024. Nomes como Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI, TikTok e X uniram forças para enfrentar o desafio de inibir conteúdos fraudulentos nos mais de 40 países que elegerão futuros líderes de governos.

O comunicado divulgado pelas empresas destaca que o acordo representa um “conjunto de compromissos para implantar tecnologia que combata conteúdo prejudicial gerado por IA destinado a enganar os eleitores”. Além disso, as grandes empresas de tecnologia se comprometeram a trabalhar em colaboração para desenvolver ferramentas de detecção e abordar a distribuição online de conteúdo de IA prejudicial. Adicionalmente, as empresas pretendem impulsionar campanhas educativas e proporcionar transparência, entre outras medidas concretas.

O conteúdo digital abordado pelo acordo consiste em áudio, vídeo e imagens gerados por IA, que falsificam ou alteram enganosamente a aparência, voz ou ações de candidatos políticos, funcionários eleitorais e outras partes interessadas importantes em uma eleição democrática.

No contexto brasileiro, o tema também está em discussão junto ao Tribunal Superior Eleitoral (TSE), que deve elaborar uma resolução sobre o uso da IA nas campanhas eleitorais deste ano. Em janeiro, foi aberto um ciclo de audiências públicas para discutir sugestões aos textos das regras que vão guiar as eleições municipais. A vice-presidente do TSE, ministra Cármen Lúcia, que presidirá o tribunal durante as eleições, está encarregada de relatar os textos das resoluções.

Entre as propostas em discussão no Brasil está a necessidade de que o uso da IA na campanha eleitoral seja explicitamente informado. Além disso, é destacada a importância de informar se o conteúdo foi fabricado ou manipulado e qual tecnologia foi utilizada. O texto em debate proíbe especificamente a utilização de inteligência artificial para fabricar ou manipular conteúdo com “fatos sabidamente inverídicos ou gravemente descontextualizados com potencial de causar danos ao equilíbrio do pleito ou à integridade do processo eleitoral”.

A iniciativa das empresas de tecnologia, aliada aos esforços do TSE no Brasil, representa um avanço significativo na luta contra a disseminação de fake news geradas por inteligência artificial, contribuindo para a proteção dos processos eleitorais em todo o mundo. A colaboração entre setores público e privado mostra-se fundamental para fortalecer a democracia e garantir a transparência e integridade dos processos eleitorais.

Sair da versão mobile