Sistemas de Armas autônomas Letais: uma Mudança de Jogo que Exige Regulamentação
A ascensão da IA no domínio militar está mudando rapidamente a face da guerra
Zamzam Channa - 26 MAR, 2024
Nos últimos anos, países como os Estados Unidos, o Reino Unido, a Índia, Israel, o Irão, a Coreia do Sul, a Rússia e a Turquia investiram fortemente na integração da Inteligência Artificial (IA) nas suas plataformas de armas. A implantação de um Kargu-2 de fabricação turca na Líbia em 2020 marcou o início da implantação de Sistemas de Armas Autônomas Letais (LAWS) no campo de batalha. A utilização de LAWS suscitou sérias preocupações, uma vez que não existe nenhum mecanismo regulador internacional ou quadro jurídico para reger o desenvolvimento, a implantação e o emprego de tais sistemas de armas.
A ascensão da IA no domínio militar está a mudar rapidamente a face da guerra, à medida que os sistemas de armas habilitados para IA diminuem potencialmente o papel significativo da tomada de decisões humanas. Conforme definido por Nils Adler (2023) num artigo publicado pela Al Jazeera English “os sistemas de armas autónomos podem identificar os seus alvos e decidir lançar um ataque por si próprios, sem que um humano dirija ou controle o gatilho”. Existe um consenso global de que “os sistemas de IA de ponta anunciam vantagens estratégicas, mas também correm o risco de perturbações imprevistas nos regimes globais regulatórios e baseados em normas que regem os conflitos armados”.
Especialistas e estudiosos acreditam que os sistemas de armas habilitados para IA terão um grande impacto na guerra, uma vez que a autonomia total dos sistemas de armas negaria as normas do campo de batalha estabelecidas ao longo dos séculos. De acordo com o Conselho Europeu de Investigação (ERC), “os militares em todo o mundo utilizam atualmente mais de 130 sistemas de armas que podem rastrear e interagir autonomamente com os seus alvos”.
![](https://substackcdn.com/image/fetch/w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F2554d3a9-a606-40fa-bc8c-ac0405f28f12_1200x800.jpeg)
Apesar dos avanços neste domínio, não existe uma definição globalmente acordada sobre o que constitui um sistema de armas letal autónomo; a questão da autonomia no campo de batalha permanece sujeita a interpretação. O Departamento de Defesa dos EUA (DOD) define LAWS como “sistemas de armas que, uma vez ativados, podem selecionar e atacar alvos sem intervenção adicional de um operador humano”. Tal conceito de autonomia em sistemas de armas também é conhecido como 'humano fora do circuito' ou 'autonomia total'. Em um sistema de armas totalmente autônomo, os alvos são selecionados pela máquina com base em informações da IA, reconhecimento facial e análise de big data, sem qualquer equipe humana.
Outra categoria de autonomia em sistemas de armas são os sistemas de armas semiautônomos ou “humanos no circuito”. Essas armas são bombas autoguiadas e sistemas de defesa antimísseis que existem há décadas.
O rápido avanço na utilização de LAWS criou a necessidade de desenvolver um quadro regulamentar para a governação destes novos sistemas de armas. Consequentemente, vários estados concordaram em entrar em negociações para regulamentar e possivelmente proibir as LEIS. A Convenção das Nações Unidas sobre Certas Armas Convencionais (CCAC da ONU) tem feito vários esforços neste sentido, iniciando um diálogo internacional sobre LAWS desde 2014. A Sexta Conferência de Revisão da CCAC da ONU, em dezembro de 2021, foi concluída sem nenhum resultado positivo sobre o mecanismo jurídico e um acordo sobre normas internacionais que regem o uso de LEIS. Apesar do impasse, houve consenso de que as negociações deveriam continuar.
Em 2016, foi também criado um Grupo de Peritos Governamentais (UN GGE) com o mandato de discutir e regulamentar as LEIS. Mas os países participantes ainda não avançaram num quadro jurídico para regular e proibir o desenvolvimento, a implantação e a utilização de LAWS.
À medida que o mundo avança na utilização da IA no domínio militar, os estados passaram a assumir posições divergentes na CCW da ONU sobre a questão do desenvolvimento e utilização de LEIS. Aliás, certos países só considerariam do seu interesse aceitar medidas de controlo de armas depois de terem alcançado um certo grau de avanço tecnológico neste domínio.
Deve-se notar que grandes potências como os Estados Unidos, a China, a Rússia e a União Europeia (UE) não proíbem abertamente ou procuraram manter a ambiguidade na questão das armas autónomas. Um relatório do Serviço de Investigação do Congresso dos EUA, actualizado em Fevereiro de 2024, destacou que “os Estados Unidos actualmente não têm LAWS no seu inventário, mas o país pode ser obrigado a desenvolver LAWS no futuro se os seus concorrentes decidirem fazê-lo”.
A China é o único país P-5 na CCW da ONU que apela à proibição das LAWS, sublinhando a necessidade de um protocolo vinculativo para reger estes sistemas de armas. A China, nos debates da CCW da ONU, sustentou que “as características dos LAWS não estão de acordo com os princípios do direito humanitário internacional (DIH), uma vez que estes sistemas de armas promovem o medo de uma corrida armamentista e a ameaça de uma guerra incontrolável”.
A Rússia continua a ser um participante activo nas discussões na CCW da ONU, opondo-se a instrumentos juridicamente vinculativos que proíbem o desenvolvimento e a utilização de LEIS.
A UE adoptou uma posição em conformidade com o DIH que se aplica a todos os sistemas de armas. A declaração da UE na reunião do GGE em Março de 2019 sublinhou a centralidade do controlo humano nos sistemas de armas. A UE defende que o controlo humano sobre a decisão de utilizar força letal deve ser sempre mantido.
Os líderes mundiais, investigadores e líderes tecnológicos levantaram preocupações de que o desenvolvimento e a utilização de LAWS terão um impacto negativo na paz e na segurança internacionais. Em Março de 2023, líderes de vários campos de alta tecnologia assinaram uma carta apelando à suspensão do desenvolvimento de tecnologias emergentes durante os próximos seis meses. A carta alertava para os perigos potenciais para a sociedade e a humanidade à medida que os gigantes da tecnologia correm para desenvolver programas totalmente autónomos.
A história lembra-nos que um monopólio virtual sobre o desenvolvimento tecnológico nunca pode ser mantido e sustentado por muito tempo. Na década de 1940, por exemplo, quando os Estados Unidos desenvolveram uma bomba nuclear no âmbito do Projecto Manhattan, outras potências recuperaram o atraso e construíram a sua própria bomba. No entanto, foram necessárias mais de duas décadas para que a comunidade global formalizasse um acordo para proibir a proliferação de armas nucleares, conhecido como Tratado de Não Proliferação Nuclear (TNP).
O crescimento e a proliferação desregulados de LAWS ameaçam desencadear uma nova era de guerra alimentada por plataformas autónomas, comprometendo a dignidade humana, a protecção civil e a segurança dos não combatentes. Doravante, é necessário que os Estados encontrem um terreno comum para regular e formalizar uma compreensão do controlo humano sobre o uso da força. Os valores globais, a ética e as regras de guerra que guiaram a humanidade ao longo dos últimos dois mil anos continuam a ser imperativos para a manutenção da paz e da segurança internacionais.
The views expressed in this article belong to the authors alone and do not necessarily reflect those of Geopoliticalmonitor.com.