DeepSeek e IA usada como arma na guerra irrestrita do PCC
Notavelmente, como um cientista biomédico, o Dr. Hu está muito preocupado com as ameaças potenciais de aplicações de IA
Dra. Li-Meng Yan - 23 mar, 2025
Neste episódio, tomando o DeepSeek como exemplo, discutimos o desenvolvimento de IA na China com base em tecnologia de código aberto e as potenciais aplicações na guerra irrestrita do PCC.
No final de janeiro, o lançamento do DeepSeek de um novo modelo de IA de alto nível que custa menos para rodar do que modelos existentes como Meta e OpenAI causou um arrepio nos mercados dos EUA. O czar da inteligência artificial da Casa Branca, David Sacks, disse à Fox News que há "evidências substanciais de que o que o DeepSeek fez aqui foi destilar o conhecimento dos modelos do OpenAI". O senador Josh Hawley apresentou uma legislação buscando cortar toda a colaboração EUA-China no desenvolvimento de IA.
Enquanto isso, o presidente do Comitê da Câmara sobre o PCC, John Moolenaar, comentou sobre o DeepSeek em uma entrevista : “Acho que precisamos fortalecer nossos controles de exportação. Precisamos fechar brechas que permitem que a tecnologia seja exportada para outros países que eventualmente a levem para a China.”
Moolenaar continuou dizendo : “É um momento Sputnik. Eles roubam dados dos americanos. Eles vão armazená-los na China. Eles basicamente censurarão qualquer coisa que… beneficie a agenda do PCC. Então é algo em que precisamos vencer esta competição.”
Notavelmente, como um cientista biomédico, o Dr. Hu está muito preocupado com as ameaças potenciais de aplicações de IA armadas na guerra irrestrita do CCP, esp. o desenvolvimento de armas biológicas. Aqui está sua explicação:
Não devemos permitir nenhum regime que inicie uma guerra biológica irrestrita contra nós.
Considere estas questões críticas:
> Qual nível de desenvolvimento de IA deve ser considerado muito perigoso para ser compartilhado com um adversário comprometido em promover uma guerra irrestrita?\\\
> Quanto incentivo financeiro justificaria vender chips avançados para uma potência hostil, sabendo que eles os usarão para aumentar sua capacidade de nos prejudicar?
> Quão grande deve ser a lacuna de inovação em IA para que nos sintamos seguros, dado que o segundo colocado está usando IA para identificar e transformar vírus mortais em armas?
Nenhuma transferência de tecnologia deve ser considerada aceitável a menos que o destinatário seja um aliado confiável e com ideias semelhantes. Nenhuma quantia de dinheiro vale a pena comprometer nossa segurança. O pior erro que podemos cometer é permitir que adversários roubem nossos avanços mais inovadores — avanços que exigem imenso esforço e tempo para serem desenvolvidos. É uma vergonha vê-los explorar essas tecnologias, minando a competição global com uma força de trabalho sujeita a condições de exploração. Além das preocupações econômicas, isso também ameaça a biossegurança global.
Um dos riscos mais significativos à segurança da IA é seu potencial uso indevido no desenvolvimento de armas biológicas . A IA já é capaz de prever estruturas de proteínas, simular processos evolutivos e modelar interações complexas de proteínas. Em breve, ela será capaz de digitalizar linhas celulares e até mesmo modelar organismos simples .
O que antes exigia meses de testes virológicos por equipes de PhDs em laboratórios logo poderia ser realizado quase instantaneamente pela IA. Alarmantemente, muitos defensores do código aberto falham em responder à pergunta mais fundamental: Qual nível de restrição é necessário para impedir que nossos adversários transformem a IA em arma para guerra biológica?
O Partido Comunista Chinês (PCC) já alavancou cientistas ocidentais e tecnologias de IA para descobrir novos vírus na natureza . Quem agora fornecerá a eles ferramentas de IA para rastrear os candidatos mais mortais?
Não podemos nos dar ao luxo de adotar uma abordagem ingênua aos controles de exportação quando ainda estamos compreendendo todas as implicações dessas tecnologias emergentes.
Inicialmente, a administração Biden acreditava que restringir o chip de IA H100 seria suficiente. Agora, banimos o H800 menos avançado e estamos considerando mais restrições em modelos ainda mais fracos, como o H20. A conclusão lógica é um corte tecnológico completo — um desacoplamento total. Somente dando esse passo podemos ganhar o tempo necessário para controlar o desenvolvimento da IA e garantir que ela sirva à humanidade de forma responsável.
Compartilhar tecnologia de bomba atômica nunca tornou o mundo mais seguro; espalhar capacidades de IA irresponsavelmente terá consequências devastadoras semelhantes. Hoje, mais regimes adversários estão adquirindo armas nucleares, que servem como uma “droga de entrada” para táticas de guerra irrestritas, incluindo pandemias projetadas. Como um general militar chinês reconheceu em seus escritos, a capacidade nuclear concede aos estados desonestos a capacidade de travar guerra irrestrita sem medo de represálias.
É por isso que precisamos cortar todos os laços tecnológicos com esses regimes hostis. Nossa segurança futura depende disso.
Meu colega na Yan Research Team – coautor dos três Yan Reports – Dr. ShanChang Hu (MD, PhD.) se juntou a mim esta semana. O Dr. Hu também é um especialista biomédico que cresceu na China continental, assim como eu. Dr. Hu (Twitter @baobaoxiaoliao).