Chatbots reproduzem propaganda russa sobre a invasão da Ucrânia

Escrito por
Emanuel Negromonte
Emanuel Negromonte é Jornalista, Mestre em Tecnologia da Informação e atualmente cursa a segunda graduação em Engenharia de Software. Com 14 anos de experiência escrevendo sobre...

Nosso mundo digital está repleto de desafios, e um dos mais intrigantes é o uso de chatbots alimentados por inteligência artificial. Recentemente, um estudo apontou que esses sistemas estão reproduzindo de maneiras alarmantes conteúdos da propaganda russa sobre a invasão da Ucrânia. O que isso significa para a desinformação na era das máquinas?

O problema da desinformação em chatbots

Você já parou para pensar de onde vêm as respostas do seu chatbot favorito? A gente costuma tratar essas ferramentas como uma fonte neutra de informação, quase como uma enciclopédia digital instantânea. O problema é que, na prática, a realidade pode ser bem diferente. A desinformação em chatbots é um desafio crescente, pois eles podem, sem querer, acabar espalhando narrativas falsas ou tendenciosas.

Isso acontece porque a inteligência artificial aprende com uma quantidade gigantesca de dados da internet. Se esses dados incluem propaganda, teorias da conspiração ou simplesmente informações incorretas, o chatbot pode aprender e reproduzir esses mesmos erros. Ele não tem um “filtro de verdade” como nós, humanos, tentamos ter. Ele apenas processa e repete padrões que encontrou.

O perigo da credibilidade artificial

O grande risco aqui é que um chatbot apresenta a informação de forma confiante e bem estruturada, o que nos leva a acreditar nela mais facilmente. Quando uma máquina afirma algo, muitas pessoas não questionam da mesma forma que fariam com uma fonte humana. Isso transforma os chatbots em vetores poderosos para a desinformação, capazes de influenciar a opinião pública sobre temas sensíveis, como política e saúde, de maneira silenciosa e em grande escala.

Como a propaganda russa se infiltra em AI

Então, como é que a propaganda russa acaba saindo pela “boca” de uma inteligência artificial? Não é como se alguém estivesse programando o chatbot para ser pró-Rússia. A resposta está na dieta de informações que esses sistemas consomem. Pense nos modelos de linguagem (LLMs), como o cérebro por trás dos chatbots, como estudantes superdotados que leem a internet inteira para aprender.

O problema é que “a internet inteira” inclui tudo, desde artigos científicos até… bem, sites de propaganda estatal. Veículos como RT (antiga Russia Today) e Sputnik são fontes massivas de conteúdo e estão espalhados por toda a web. A IA, durante seu treinamento, lê e processa milhões de textos desses e de outros sites alinhados ao Kremlin. Para ela, não há distinção entre um fato verificado por uma agência de notícias independente e uma narrativa criada para fins políticos.

O Treinamento com Dados Viciados

A IA aprende por repetição e associação. Se uma certa narrativa sobre a Ucrânia, por exemplo, aparece repetidamente em milhares de artigos, mesmo que de fontes tendenciosas, o modelo começa a tratar essa versão como uma informação plausível ou até mesmo como um fato. Ele não tem a capacidade de julgar a intenção por trás da fonte. É como se ele aprendesse que “o céu é azul” e “a invasão foi justificada” com o mesmo peso, se ambos os pontos de vista aparecerem com frequência suficiente em seus dados de treinamento. É um processo de infiltração sutil, que acontece na base do sistema, envenenando o poço de onde o chatbot bebe suas informações.

Resultados do estudo da ISD sobre LLMs

Para ter uma ideia real do tamanho do problema, o Institute for Strategic Dialogue (ISD), uma organização que monitora desinformação, resolveu colocar os principais modelos de linguagem (LLMs) à prova. Eles fizeram um teste bem direto e revelador para ver como essas tecnologias lidavam com narrativas falsas.

O que eles fizeram? Basicamente, pegaram 10 das narrativas mais comuns da propaganda russa sobre a invasão da Ucrânia. Sabe aquelas histórias sobre a necessidade de “desnazificar” o país ou sobre supostos laboratórios de armas biológicas financiados pelos EUA? Foram exatamente esses os temas abordados. Em seguida, eles fizeram perguntas sobre esses assuntos para os chatbots mais conhecidos do mercado.

Os resultados preocupantes

Os resultados, publicados em um relatório detalhado, mostraram que a situação é mais séria do que parece. O estudo descobriu que os chatbots frequentemente reproduziam a propaganda russa, apresentando-a como um fato ou, no mínimo, como um ponto de vista legítimo. Em vez de identificar e corrigir a desinformação, a inteligência artificial muitas vezes a validava. Por exemplo, ao serem questionados sobre as razões da guerra, alguns modelos repetiam as justificativas do Kremlin, mostrando que o treinamento com dados contaminados teve um impacto direto e mensurável nas suas respostas.

Impacto das respostas tendenciosas de chatbots

Ok, um chatbot deu uma resposta enviesada. E daí? Qual o problema real disso? O impacto é muito maior do que parece. Pense que milhões de pessoas usam essas ferramentas todos os dias para tirar dúvidas, fazer pesquisas escolares e até se informar sobre o que acontece no mundo. Quando as respostas vêm carregadas de uma narrativa específica, a inteligência artificial deixa de ser uma ferramenta de informação e se torna um megafone para propaganda.

O que acontece é que a gente tende a confiar na tecnologia. Uma resposta vinda de um chatbot soa oficial, neutra, quase como uma verdade absoluta. Não é como ler um artigo de opinião, onde você sabe que existe um ponto de vista. A IA apresenta a desinformação com uma cara de fato, e isso é perigoso. Ela pode moldar a opinião pública de forma silenciosa e em uma escala gigantesca, fazendo com que narrativas falsas se normalizem e sejam aceitas por um grande número de pessoas sem que elas percebam que estão sendo influenciadas.

A Erosão da Confiança Digital

Além de espalhar desinformação, esse problema abala a confiança na própria tecnologia. Se não podemos confiar nas respostas que recebemos, qual o propósito de usar essas ferramentas? Isso cria um ambiente digital onde fica cada vez mais difícil separar o que é verdade do que é manipulação, afetando não apenas a nossa percepção sobre um conflito específico, mas sobre a nossa capacidade de confiar na informação online como um todo.

Comparação entre os principais chatbots

E aí, será que todos os chatbots caem na mesma armadilha? A resposta é não. O estudo do ISD mostrou que existe uma variação considerável na forma como cada modelo de inteligência artificial lida com a propaganda russa, e as diferenças são bem interessantes.

Cada chatbot tem sua própria “personalidade”, que é moldada pelos dados de treinamento e pelas regras de segurança que seus criadores implementaram. Alguns são mais “falantes” e tentam responder a tudo, enquanto outros são mais cautelosos e preferem se calar diante de um tópico polêmico.

Desempenhos Diferentes

O estudo revelou que o GPT-4, da OpenAI, foi o modelo com maior probabilidade de repetir a desinformação russa. Ele frequentemente apresentava as narrativas do Kremlin como um ponto de vista válido ou até mesmo como fato. Por outro lado, o Gemini, do Google, mostrou-se mais precavido, muitas vezes se recusando a responder perguntas sensíveis. Já o Pi, da Inflection AI, ficou no meio-termo, às vezes repetindo a propaganda e outras vezes a contestando. O que isso nos diz? Que a forma como uma IA é construída e os filtros que ela possui fazem toda a diferença entre ser uma fonte de informação ou um canal de desinformação.

Implicações para a regulamentação de AI

Toda essa bagunça com chatbots repetindo propaganda não é só um problema técnico, é um sinal de alerta gigante para governos e agências reguladoras do mundo todo. Se uma tecnologia tão poderosa pode ser usada, mesmo que sem querer, para espalhar desinformação em massa, então ela não pode mais ser tratada como um simples aplicativo. Ela se torna uma questão de segurança e estabilidade social.

É por isso que casos como esse aceleram a discussão sobre a necessidade de regulamentar a inteligência artificial. Não se trata de proibir a tecnologia, mas de criar regras do jogo para que ela seja desenvolvida e usada de forma responsável. Pense nisso como as regras de segurança para carros ou alimentos: elas existem para proteger as pessoas.

O que a regulamentação pode incluir?

As discussões giram em torno de alguns pontos-chave. Um deles é a transparência: as empresas de IA talvez precisem ser mais claras sobre quais dados usaram para treinar seus modelos. Outro ponto é a responsabilidade: quem paga a conta quando um chatbot causa danos ao espalhar mentiras? A empresa que o criou? Quem o utiliza? As leis precisam definir isso. Além disso, fala-se em auditorias independentes para testar a segurança e o viés desses sistemas antes que eles cheguem até nós, os usuários finais.

O que fazer contra a desinformação?

Beleza, o cenário parece complicado, mas não é como se estivéssemos de mãos atadas. Combater a desinformação gerada por inteligência artificial é uma responsabilidade compartilhada. Envolve tanto quem cria a tecnologia quanto quem a utiliza no dia a dia.

Nossa parte como usuários

Primeiro, a gente precisa mudar a forma como enxergamos os chatbots. Em vez de tratá-los como uma fonte da verdade absoluta, devemos vê-los como um ponto de partida. Fez uma pergunta e recebeu uma resposta? Ótimo! Agora, o próximo passo é checar essa informação em fontes confiáveis, como agências de notícias conhecidas ou artigos científicos. Desenvolver um olhar crítico é a nossa principal ferramenta. Sempre se pergunte: “Isso faz sentido? Onde mais posso confirmar essa informação?”.

A responsabilidade das empresas

Do outro lado, as empresas de tecnologia têm um dever de casa enorme. Elas precisam investir pesado na curadoria dos dados de treinamento, tentando ao máximo limpar as bases de dados de fontes conhecidas de propaganda e desinformação. Além disso, é fundamental criar “grades de proteção” (guardrails) mais fortes nos modelos de IA, para que eles consigam identificar e se recusar a responder sobre narrativas comprovadamente falsas. A transparência também é chave: as empresas devem ser claras sobre as limitações de seus chatbots, para que ninguém seja enganado pensando que está conversando com um oráculo infalível.

Conclusão

Em resumo, a jornada pela inteligência artificial é cheia de surpresas, e nem todas são boas. A descoberta de que chatbots podem reproduzir propaganda russa sobre a Ucrânia não significa que a tecnologia é uma vilã, mas sim que ela tem pontos cegos perigosos. Eles são como espelhos gigantes da internet, refletindo tanto o conhecimento valioso quanto a desinformação tóxica.

A lição mais importante é que não podemos tratar essas ferramentas como oráculos da verdade. A responsabilidade é compartilhada: enquanto as empresas de tecnologia precisam aprimorar seus filtros e a curadoria de dados, nós, como usuários, temos o papel fundamental de manter o pensamento crítico. Questionar, verificar e buscar fontes confiáveis continua sendo a melhor defesa contra a desinformação, seja ela vinda de um humano ou de um algoritmo.

Compartilhe este artigo
Nenhum comentário