O primeiro jogo de guerra de mídia social do mundo revela como os bots de IA podem influenciar as eleições

O primeiro jogo de guerra de mídia social do mundo revela como os bots de IA podem influenciar as eleições


Em 14 de dezembro de 2025, ocorreu um ataque terrorista em Bondi Beach, em Sydney, Austrália, deixando 15 civis e um atirador mortos. Enquanto a Austrália ainda estava em estado de choque, as redes sociais assistiram à rápida propagação de desinformação gerada e alimentada pela inteligência artificial generativa (IA).

Por exemplo, um manipulado vídeo do primeiro-ministro de Nova Gales do Sul, Chris Minns, afirmou que um dos terroristas era cidadão indiano. X (antigo Twitter) estava inundado de celebrações do herói defensor “Edward Crabtree”. E uma foto falsa de Arsen Ostrovsky, um famoso advogado de direitos humanos e sobrevivente do ataque do Hamas em 7 de outubro em Israel, o retratou como um ator de crise com maquiadores aplicando sangue falso.

Esta é uma ocorrência infelizmente comum. De Bondi para Venezuela, Gaza e Ucrâniaa IA impulsionou a disseminação de desinformação online. Na verdade, cerca de metade do conteúdo que você vê online é agora feito e difundido pela IA.

A IA generativa também pode criar perfis online falsos, ou bots, que tentam legitimar esta desinformação através de atividades de aparência realista nas redes sociais.

O objetivo é enganar e confundir as pessoas – geralmente por razões políticas e financeiras. Mas quão eficazes são essas redes de bots? Quão difícil é configurá-los? E, crucialmente, podemos mitigar o seu conteúdo falso através da literacia cibernética?

Para responder a essas perguntas, montamos Capture a narrativa – o primeiro jogo de guerra de mídia social do mundo para estudantes construírem bots de IA para influenciar uma eleição fictícia, implantando táticas que refletem a manipulação de mídia social real.

Confusão online e o ‘dividendo do mentiroso’

A IA generativa, usada em serviços como ChatGPT, pode ser solicitada a criar rapidamente textos e imagens realistas. É também assim que pode ser usado para gerar conteúdo falso altamente persuasivo.

Uma vez gerados, os bots realistas e implacáveis ​​baseados em IA criam a ilusão de consenso em torno do conteúdo falso, criando tendências de hashtags ou pontos de vista.

Mesmo que você saiba que o conteúdo é exagerado ou falso, ele ainda terá impacto no seu percepções, crenças e saúde mental.

Pior ainda, à medida que os bots evoluem, tornando-se indistinguíveis dos utilizadores reais, todos começamos a perder a confiança no que vemos. Isso cria um “dividendo do mentiroso”, onde até o conteúdo real é abordado com dúvidas.

Vozes autênticas, mas críticas, podem ser descartadas como bots, trapaceiros e falsos, tornando mais difícil realizar debates reais sobre temas difíceis.

Quão difícil é capturar uma narrativa?

Nosso Capture a narrativa wargame oferece evidências raras e mensuráveis ​​de como pequenas equipes armadas com IA de nível consumidor podem inundar uma plataforma, fraturar o debate público e até mesmo influenciar uma eleição – felizmente, tudo dentro de uma simulação controlada e não no mundo real.

Nesta competição inédita, desafiamos 108 equipes de 18 universidades australianas a construir bots de IA para garantir a vitória de “Victor” (inclinação à esquerda) ou “Marina” (inclinação à direita) em uma eleição presidencial. Os efeitos foram gritantes.

Durante uma campanha de quatro semanas usando nossa plataforma interna de mídia social, mais de 60% do conteúdo foi gerado por bots concorrentes, ultrapassando 7 milhões de postagens.

Os bots de ambos os lados lutaram para produzir o conteúdo mais atraente, mergulhando livremente em falsidades e ficção.

Este conteúdo foi consumido por complexos “cidadãos simulados” que interagiram com a plataforma de mídia social de forma semelhante aos eleitores do mundo real. Depois, na noite das eleições, cada um destes cidadãos votou, levando a uma vitória (muito marginal!) de “Victor”.

Simulamos então novamente a eleição, sem interferência. Desta vez, “Marina” venceu com uma oscilação de 1,78%.

Isto significa que esta campanha de desinformação – construída por estudantes a partir de tutoriais simples e com IA barata e de qualidade para o consumidor – conseguiu mudar o resultado das eleições.

Uma necessidade de alfabetização digital

Nossa competição revela que a desinformação online é fácil e rápida de criar com IA. Como disse um finalista,

É assustadoramente fácil criar desinformação, mais fácil que a verdade. É realmente difícil distinguir entre postes genuínos e fabricados.

Vimos os concorrentes identificarem tópicos e alvos para os seus objetivos, até mesmo em alguns casos traçando perfis de quais cidadãos eram “eleitores indecisos” adequados para micro-direcionamento.

Ao mesmo tempo, o uso da linguagem emocional foi rapidamente identificado como um caminho poderoso – o enquadramento negativo foi usado como um atalho para provocar reações online. Como disse outro finalista,

Precisávamos ficar um pouco mais tóxicos para conseguir engajamento.

Em última análise, tal como nas redes sociais reais, a nossa plataforma tornou-se um “ciclo fechado” onde os bots conversavam com os bots para desencadear respostas emocionais dos humanos, criando uma realidade fabricada concebida para mudar votos e gerar cliques.

O que o nosso jogo nos mostra é que precisamos urgentemente de literacia digital para aumentar a consciencialização sobre a desinformação online, para que os australianos possam reconhecer quando também estão a ser expostos a conteúdos falsos.


Previous Article

A posição de Jurgen Klopp sobre o cargo no Real Madrid fica clara após a demissão de Xabi Alonso

Next Article

Artista andino Antonio Paucar ganha prêmio Artes Mundi no País de Gales

Write a Comment

Leave a Comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Subscribe to our Newsletter

Subscribe to our email newsletter to get the latest posts delivered right to your email.
Pure inspiration, zero spam ✨