· Cidade do Vaticano ·

Inteligência artificial e conflitos armados

A ia que mata

 A  ia  que mata  POR-025
20 junho 2024

Aintenção do Papa Francisco de participar na sessão do G7 dedicada à Inteligência Artificial ( ia ) suscitou curiosidade. Ao Pontífice, evidentemente, não passa despercebido o perigo de algumas aplicações da inteligência artificial, que muitas vezes passam para segundo plano.

De facto, não há apenas um problema com as características intrínsecas da ia e com as questões que o seu desenvolvimento futuro abre para as formas de comunicação e de relacionamento. Há também o problema dos seus campos de aplicação, que — como em muitas outras inovações científicas e tecnológicas que a precederam — parece que privilegiam o campo militar.

Assim, o que aconteceu no decurso da guerra sangrenta que está a decorrer em Gaza constitui um alerta dramático. De facto, segundo dois órgãos de comunicação social de referência, como o jornal britânico «The Guardian» e os jornais online «+972 magazine» e «Local call magazine», editados em Telavive, os soldados israelitas que combatem em Gaza a partir de 7 de outubro seriam guiados, ou até «comandados», por dois programas de Inteligência Artificial, aos quais se atribui, entre outras coisas, o elevado número de vítimas civis dos bombardeamentos israelitas na Faixa.

Segundo os três meios de comunicação social, que recolheram as informações diretamente dos oficiais dos serviços secretos israelitas, as fdi (forças de defesa israelitas) utilizaram, sobretudo nos primeiros meses do conflito, um software de ia denominado Lavender, que contém uma base de dados de cerca de 37.000 alvos potenciais, identificados com a partir numa suposta ligação aos terroristas do Hamas. Por outras palavras, as estruturas de comando das tropas israelitas teriam privilegiado as indicações frias da ia em vez das observações e avaliações dos soldados no terreno para identificar os alvos a atingir. Em apenas 20 segundos, o programa foi capaz de reconhecer o alvo já introduzido na base de dados, identificá-lo também através do reconhecimento facial e ordenar a sua execução fornecendo as coordenadas. Pouco importa que houvesse outros civis inocentes no mesmo edifício. Segundo fontes israelitas recolhidas pelas duas revistas israelitas e relançadas pelo jornal londrino, o elevado número de casualities, ou seja, de civis vítimas do bombardeamento, foi causado precisamente pela utilização indiscriminada da ia .

A intervenção humana ter-se-ia limitado a uma mera validação no final de todo o processo. Pelo contrário, parece que o programa também foi capaz de calcular antecipadamente o número estimado de civis que teriam sido atingidos em cada operação individual e que, nas primeiras semanas do conflito, o limite de vítimas previamente indicado e autorizado era da ordem de 15 a 20 vítimas civis por cada terrorista atingido. Um número flexível em função do contexto: nalguns casos descia para 5, mas no caso de membros de topo da ala militar do Hamas ou da Jihad Islâmica podia mesmo chegar aos 100. A direção militar israelita não desmentiu as revelações do «The Guardian» sobre a utilização de Inteligência Artificial no conflito, declarando, no entanto, que nunca agiu fora das regras internacionais de proporcionalidade dos danos colaterais, e que o Lavender é essencialmente uma base de dados que cruza diferentes fontes de serviços secretos para ter informação atualizada sobre os operacionais dos grupos terroristas, e não uma lista dos que devem ser eliminados fisicamente. O programa Lavender — mais uma vez de acordo com os testemunhos anónimos de oficiais dos serviços secretos israelitas — teria funcionado em paralelo com outro sistema de ia tragicamente designado por The Gospel. Enquanto o primeiro se baseia numa base de dados de alvos humanos, o segundo dedica-se a alvos constituídos por edifícios e estruturas. Obviamente, a estrutura da base de dados da Lavender depende do contributo humano relativamente à noção de “terrorista”, ou seja, dos parâmetros que o definem. Quanto mais ampla ou detalhada for a definição fornecida às máquinas, mais ampla ou mais restrita será a lista de alvos fornecida por Lavender. O receio é que, após a carnificina perpetrada pelo Hamas em 7 de outubro, prevalecendo um espírito de vingança, os requisitos para a inclusão nas listas tenham sido “alargados”. Assim, o maior número de alvos teria exigido uma aceleração dos procedimentos que só a AI poderia permitir.

O outro grande conflito destes tempos difíceis também viu a estreia da Inteligência Artificial no campo de batalha. As forças armadas ucranianas começaram a utilizar drones guiados pela ia . Geralmente, um drone tem um piloto que o guia remotamente até ao alvo, ajustando a rota se necessário e considerando os possíveis riscos de efeitos secundários. Uma nova geração de drones, para os quais já não existe um piloto, mas apenas um operador que aponta para o alvo no geolocalizador e pressiona um botão, está agora a entrar no rico e promissor mercado da robótica militar. Pelo menos 10 empresas ucranianas, e várias ocidentais, estão a utilizar a guerra russo-ucraniana como área de teste para as suas invenções mortíferas. A Inteligência Artificial destes drones planeia a rota tendo também em conta as caraterísticas morfológicas do terreno, coordena o voo de vários drones e, uma vez cumprida a missão, confirma os danos causados ao inimigo. Acima de tudo, um único operador pode monitorizar o voo de vários drones, poupando tempo e recursos humanos. Para os ucranianos, a utilização da Inteligência Artificial torna-se assim um instrumento decisivo para compensar o desequilíbrio numérico das forças no terreno. Os russos, por seu lado, desenvolveram uma extensa linha de interferência de rádio ao longo da frente, que serve para isolar os drones dos seus pilotos remotos. Os russos também recorreram à Inteligência Artificial para lançar os seus ataques, mas atuam sobretudo no campo das invasões informáticas, para responder automaticamente às incursões inimigas e até identificar potenciais vulnerabilidades numa rede. Os observadores ocidentais consideram que os desenvolvimentos russos em matéria de utilização militar da ia e a realização de programas de tecnologias emergentes e disruptivas ( ted ) podem ter sido abrandados pela aplicação de sanções, mas Putin (que sublinhou repetidamente o caráter estratégico da ia militar, comparando-a, em termos de eficácia, ao que a energia nuclear representava no passado) pode sempre apostar no nível mais avançado atingido neste setor pelos chineses.

O Ministério da Defesa ucraniano criou uma unidade especializada chamada Bravel, que apoia e facilita o trabalho das dezenas de startups que surgiram para implementar a ia no campo militar. Dezenas de forças militares ocidentais estão a seguir de perto (revela a conceituada revista online Politico.eu, numa longa e detalhada investigação sobre o fenómeno) os desenvolvimentos dos sistemas de armas automáticas que estão a ser testados na Ucrânia. Também neste caso, tal como em Gaza, segundo os analistas, o maior risco é que o favorecimento da rapidez de execução acabe por diminuir a capacidade de controlo destas armas autónomas, abrindo a possibilidade de assassinatos em massa. Assim, ao contrário do cliché que vê o conflito russo-ucraniano como um regresso à guerra tradicional, o leste da Ucrânia é hoje um laboratório de experimentação sobre a forma como as guerras serão travadas no futuro próximo. Seria importante que o g 7 começasse a discutir este assunto e a pensar numa convenção internacional que — tal como aconteceu no passado com os arsenais nucleares — impusesse limites à aplicação da Inteligência Artificial no campo militar. Embora hoje pareça difícil regulamentar uma questão que ainda se encontra numa fase inicial de desenvolvimento, está em curso uma competição para ver quem consegue produzir primeiro as armas mais letais.

Roberto Cetera