«Os sistemas de armas com autonomia nunca poderão ser sujeitos moralmente responsáveis: a exclusiva capacidade humana de juízo moral e de decisão ética é mais do que um complexo conjunto de algoritmos, e esta capacidade não pode reduzir-se à programação de uma máquina que, por mais “inteligente” que seja, será sempre uma máquina. Por isso, é imperativo assegurar uma supervisão humana adequada, significativa e coerente dos sistemas de armas», escreveu o Papa Francisco na mensagem para o Dia mundial da paz de 2024.
Há um episódio, ocorrido há quarenta anos, que deveria tornar-se um paradigma sempre que falamos de inteligência artificial aplicada à guerra, às armas, aos instrumentos de morte. E é a história do oficial soviético cuja decisão, opondo-se aos protocolos, salvou o mundo de um conflito nuclear que teria tido consequências catastróficas. Aquele homem chamava-se Stanislav Evgrafovich Petrov, era tenente-coronel do exército russo e, em 26 de setembro de 1983, prestava serviço noturno no bunker “Serpukhov 15” controlando a atividade dos mísseis dos Estados Unidos. A Guerra Fria estava num ponto crucial, o presidente americano Ronald Reagan investia somas consideráveis em armamentos e acabava de definir a urss «império do mal», a nato estava comprometida em exercícios militares que recriavam cenários de guerra nuclear. No Kremlin, Jurij Andropov falara recentemente de «agravamento sem precedentes» da crise e, a 1 de setembro, os soviéticos abateram um avião da Korean Air Lines sobre a península de Kamchatka, provocando 269 vítimas.
Naquela noite de 26 de setembro, Petrov viu que o computador Krokus, cérebro considerado infalível na monitorização da atividade inimiga, indicava que de uma base em Montana partira um míssil rumo à União Soviética. O protocolo exigia que o oficial alertasse imediatamente os seus superiores, que dariam luz verde para uma resposta através do lançamento de mísseis em direção aos Estados Unidos. Mas Petrov deixou passar algum tempo, também porque — disseram-lhe — qualquer ataque teria sido maciço. Por isso, considerou aquele míssil solitário como falso alarme. E fez o mesmo com os quatro seguintes que apareceram nos seus monitores pouco tempo depois, perguntando-se por que não havia confirmação por parte do radar terrestre. Sabia muito bem que os mísseis intercontinentais empregavam menos de meia hora para chegar ao destino, mas decidiu não dar o alarme, deixando os outros militares presentes petrificados.
Na realidade, o cérebro eletrónico estava errado; não havia qualquer ataque de mísseis. Krokus foi induzido ao erro por um problema de refração da luz solar em contacto com as nuvens a grande altitude. Em síntese, a inteligência humana viu além da máquina. A decisão providencial de não decidir foi tomada por um homem cujo juízo fora capaz de ver além dos dados e dos protocolos.
A catástrofe nuclear foi evitada, embora ninguém soubesse disso até ao início da década de 1990. Petrov, falecido em setembro de 2017, disse o seguinte sobre aquela noite no bunker “Serpukhov 15”: «O que fiz eu? Nada de especial, apenas o meu trabalho. Eu era o homem certo no lugar certo na hora certa». Foi o homem capaz de avaliar o possível erro da máquina considerada infalível, o homem capaz — para voltar às palavras do Papa — «de um juízo moral e de uma decisão ética», pois uma máquina, por mais “inteligente” que seja, será sempre uma máquina.
A guerra, repete Francisco, é uma loucura, uma derrota da humanidade. A guerra é uma grave violação da dignidade humana. Fazer a guerra escondendo-se atrás de algoritmos, confiando na inteligência artificial para estabelecer os alvos e como os atingir, e assim descarregar a consciência porque no final escolheu a máquina, é ainda mais grave. Não esqueçamos Stanislav Evgrafovich Petrov.
Andrea Tornielli