A IA quase deu início à Terceira Guerra Mundial?
BROWNSTONE INSTITUTE - Jeffrey A. Tucker - 25 Junho, 2025
Lembre-se de que o fiasco da Covid-19 atingiu o auge quando Neil Ferguson, do Imperial College London, gerou uma estimativa totalmente incorreta da taxa de mortalidade do vírus na China. Ele tinha duas previsões: uma sem lockdowns (mortes por toda parte) e outra com (nada terrível). A ideia era inspirar a replicação dos métodos extremos de controle de pessoas do Partido Comunista Chinês no Ocidente.
Esse modelo, inicialmente compartilhado em esferas confidenciais, inverteu a narrativa. Assim que assessores selecionados – Deborah Birx e Anthony Fauci entre eles – o apresentaram a Trump, ele passou de opositor de lockdowns a se antecipar ao aparentemente inevitável.
Em pouco tempo, todas as ONGs financiadas por Gates estavam promovendo mais modelos semelhantes que comprovavam a ideia. Multidões observavam os modelos como se fossem um reflexo preciso da realidade. A grande mídia noticiava sobre eles diariamente.
À medida que o fiasco se arrastava, a falsificação de dados também se arrastava. Os testes de PCR geravam falsos positivos, dando a impressão de uma calamidade iminente, embora as infecções clinicamente significativas fossem bastante limitadas. Infecções e até exposições foram redefinidas como casos, pela primeira vez na história epidemiológica. Depois, vieram as "mortes por Covid" subsidiadas, que claramente geraram ondas de erros de classificação que ressaltam a superestimação da taxa de letalidade.
É incrível e assustador quando você soma tudo. Modelos e dados ruins criaram uma pandemia mortal de gravidade incerta que mais tarde foi supostamente resolvida por vacinas testadas com dados ruins e cuja eficácia foi posteriormente demonstrada por modelos e dados horríveis.
Certamente há uma lição aqui. E, no entanto, o romance com modelos e dados ruins ainda não acabou.
Há evidências de que um cenário muito semelhante ocorreu em relação à alegação de que o Irã estava construindo uma arma nuclear, resultando em uma explosão de bombas e mortes tanto no Irã quanto em Israel.
As mesmas alegações vagas, obscurecidas por uma linguagem que muda de forma e obscurece distinções cruciais entre intenções e realidades, foram geradas por um modelo de IA. Construído pela empresa Palantir para a Agência Internacional de Energia Atômica, ele foi responsável por incitar os EUA a se juntarem à guerra com uma demonstração espetacular de poder de fogo militar na forma de bombardeiros B2 e outros mísseis.
Essa estranha miniguerra terminou quase tão rápido quanto começou, quando Donald Trump mudou de ideia repentinamente, parou de clamar por mudança de regime e, mais tarde, recorreu à mídia e às suas próprias redes sociais para atacar o Irã e Israel com linguagem carregada de palavrões. Ele estava visivelmente furioso, alegando que nenhum dos governos sabe o que está fazendo.
Este foi um momento de flashback para o verão de 2020, após o período de lockdowns, quando Trump voltou atrás e começou a pedir uma reabertura que ele não tinha poder para implementar.
Parece haver uma história mais profunda aqui, envolvendo dados e modelagem ruins que quase incendiaram o mundo. Vejamos a trajetória dessa miniguerra.
O fiasco começou em 12 de junho de 2025, quando a AIEA relatou algumas irregularidades em seu relatório habitual sobre o Irã, o suficiente para afirmar, em um relatório oficial, que o Irã estava "descumprindo as normas". Essa opinião contradizia o que todos os outros membros da comunidade de inteligência disseram, incluindo a Diretora de Inteligência Nacional de Trump, Tulsi Gabbard. Ela havia testemunhado, vários meses antes, que o Irã não estava tomando nenhuma medida para construir armas nucleares, mas não podia descartar que isso pudesse acontecer em algum momento.
Vários meses antes, em 12 de abril de 2025, Trump enviou o enviado especial Steve Witkoff em uma missão diplomática ao Irã, incluindo reuniões de alto nível com o ministro das Relações Exteriores iraniano, Abbas Araghchi.
O relatório da AIEA, no entanto, mudou a dinâmica repentinamente. O primeiro-ministro israelense, Benjamin Netanyahu, com base no relatório da AIEA, iniciou uma campanha de bombardeios e assassinatos sob a alegação de que o Irã estava, de fato, construindo uma bomba nuclear. O Irã relatou 220 mortes, muitas delas de cientistas. No dia seguinte, bombas de retaliação caíram sobre Tel Aviv, totalizando 100 mísseis, sendo que 10 deles causaram danos materiais, pânico e feriram mais de 40 israelenses.
A guerra entre as duas nações continuou por dias, com inocentes morrendo em ambos os países e as mídias sociais documentando céus em chamas com foguetes caindo sobre alvos.
Em 17 de junho, o diretor-geral da AIEA, Rafael Grossi, foi à CNN para esclarecer que não havia evidências de que o Irã estivesse perto de ter uma bomba. "Não tínhamos nenhuma evidência de um esforço sistemático [do Irã] para avançar para uma arma nuclear", confirmou Grossi à CNN.
O que aconteceu então? Qual o sentido de toda essa morte e destruição?
Conforme relatado pela DD Geo-politics , “desde 2015, a AIEA conta com a plataforma Mosaic da Palantir, um sistema de IA de US$ 50 milhões que analisa milhões de pontos de dados — imagens de satélite, mídias sociais, registros de pessoal — para prever ameaças nucleares”.
Neste caso particular, relata Alastair Crooke,
“Seu algoritmo busca identificar e inferir 'intenção hostil' a partir de indicadores indiretos — metadados, padrões comportamentais, tráfego de sinais — e não de evidências confirmadas. Em outras palavras, ele postula o que os suspeitos podem estar pensando ou planejando. Em 12 de junho, o Irã vazou documentos que, segundo ele, mostravam o chefe da AIEA, Rafael Grossi, compartilhando resultados do Mosaic com Israel. Até 2018, o Mosaic havia processado mais de 400 milhões de objetos de dados discretos e ajudado a imputar suspeitas a mais de 60 locais iranianos, justificando inspeções não anunciadas da AIEA nesses locais, sob o JCPOA. Esses resultados, embora dependentes em grande parte das equações algorítmicas, foram incorporados aos relatórios formais de salvaguarda da AIEA e amplamente aceitos pelos Estados-membros da ONU e pelos regimes de não proliferação como avaliações confiáveis e baseadas em evidências. O Mosaic, no entanto, não é um sistema passivo. Ele é treinado para inferir a partir de seu algoritmo a intenção hostil, mas, quando reaproveitado para supervisão nuclear, suas equações correm o risco de traduzir correlação simples em intenção maliciosa.”
Como o falso positivo sobre as supostas armas nucleares do Irã chegou a Trump? O Politico relata que "o chefe do Comando Central dos EUA, General Erik Kurilla [com um longo histórico de atividades de construção nacional que se estendem do Panamá ao Haiti e ao Iraque] desempenhou um papel descomunal na escalada dos confrontos entre Teerã e Israel, com autoridades observando que quase todos os seus pedidos foram aprovados, desde mais porta-aviões até caças na região".
Aparentemente, foi esse mesmo relatório de inteligência artificial da AIEA, posteriormente repudiado, que foi a força motriz que convenceu o próprio Trump a prosseguir com o envolvimento militar, a ponto de renunciar às opiniões de seu próprio Diretor de Inteligência Nacional. O próprio Trump disse que "'não se importava com o que ela [Gabbard] pensa'".
Os ataques dos EUA seguiram-se alguns dias depois, com o lançamento de ataques com bombas destruidoras de bunkers contra três instalações nucleares iranianas (Fordow, Isfahan e Natanz), marcando o primeiro ataque dos EUA ao programa nuclear de outro país. O problema: tudo se baseava em modelagem e dados vagos, estranhamente reminiscentes da experiência da Covid.
O problema político para o MAGA era insuportavelmente óbvio. Trump havia dito há muito tempo que o Irã não poderia ter armas nucleares, mas se distinguiu de falcões como Nikki Haley justamente pelo fato de que ela queria bombardear o Irã, enquanto Trump faria um acordo e o aplicaria. Foi o relatório de software da Palantir que o fez deixar de se opor a ataques e intervenções e se tornar a favor deles.
Como era de se esperar, a maioria dos influenciadores do MAGA – Steve Bannon, Alex Jones, Tucker Carlson, Matt Gaetz, Matt Walsh e muitos outros – tomou a atitude incomum de criticar o governo Trump por seu gatilho e alertar sobre o início da Terceira Guerra Mundial. Nenhum deles, até onde sei, poderia imaginar que a ciência falsa gerada por uma empresa de dados favorável a Trump fosse a fonte do relatório enganoso.
O que aconteceu para mudar a opinião de Trump? Aqui entramos em especulação. Parece provável que a própria equipe de Tulsi e as próprias agências de inteligência de Trump tenham começado a desmembrar os eventos e isolar a fonte do problema em modelagem, dados e ciência ruins. Foram esses fatores que desencadearam as feras da ambição política e da corrupção, como no caso da Covid.
Isso começou a mudar a opinião de Trump, mas foi a própria resposta do Irã, bombardeando o Catar, que o elevou ao topo. Parece que o Irã alertou os EUA para que não houvesse perda de vidas. Esse ato de racionalidade humanitária impressionou Trump e o levou a repensar a ideia fundamental de que o Irã tinha ambições de possuir armas de destruição em massa.
Há ecos aqui da invasão do Iraque, mas também da experiência da Covid. Modelagem ruim, dados ruins e ciência ruim conspiraram mais uma vez contra a liberdade e a paz, os mesmos ideais que Trump assumira o cargo para proteger. Assim, ele mudou de ideia e seguiu rapidamente para o outro lado: chega de bombardeios, chega de especialistas, chega de ataques à vida.
Ou podemos ver todo esse fiasco assassino como uma versão real do filme Dr. Fantástico, em que erro, burocracia e fanatismo se combinam para criar resultados que ninguém em particular pretendia, mas que ninguém consegue impedir depois de iniciados. Felizmente, neste caso, a cabeça fria prevaleceu. Não confie nos modelos, não confie nos especialistas, não confie nos dados falsos e não confie na IA!
Só podemos esperar que a lição seja aprendida.