Robôs autônomos: programados para matar

A ONU decide em dezembro se dá luz verde aos sistemas de armas autônomas, a nova e grande aposta da indústria da guerra. As armas autônomas selecionam os seus alvos e disparam sem intervenção humana.

As armas autônomas selecionam os seus alvos e disparam sem intervenção humana
As armas autônomas selecionam os seus alvos e disparam sem intervenção humana

Por José Bautista.* 

São imortais porque não estão vivos, como Terminator ou os androides de Eu, robot, a obra de Isaac Asimov que Will Smith protagonizou no grande ecrã. A dúvida e o medo não estão nem entre as suas virtudes nem entre os seus defeitos. Resistem mais tempo no campo de batalha que qualquer ser humano, podem ver na noite graças a sensores térmicos e transportam armas capazes de pulverizar um tanque. Não precisam de ar nem de água, nem sofrem de sequelas psicológicas. Os Sistemas de Armas Letais Autónomas (LAWS, na sigla em inglês), vulgarmente conhecidos como “robôs assassinos”, estão prestes a revolucionar o conceito de guerra enquanto governos, peritos e ativistas se preparam para decidir em dezembro o futuro destas máquinas de matar.

Os robôs autônomos já são uma realidade na vida quotidiana de muitas pessoas graças aos avanços em inteligência artificial e robótica aplicados à medicina, à educação ou aos transportes. Governos e forças de segurança de meio mundo procuram já os limites desta tecnologia aplicada ao campo de batalha e em situações de emergência, como aconteceu durante um protesto em Dallas (EUA) em julho deste ano, quando a polícia enviou e detonou um robô para acabar com a vida do franco-atirador que minutos antes tinha matado cinco agentes.

Tal como aconteceu com a bomba atómica ou, mais recentemente, com os drones de combate, os robôs autônomos letais poderão abrir outro episódio na história da guerra e desencadear uma nova corrida armamentista. No entanto, pela primeira vez na história e ao contrário dos aviões de guerra não tripulados, “as armas autónomas selecionam os seus alvos sem intervenção humana”. Com esta advertência começa a carta assinada por mais de 3.000 investigadores, peritos em inteligência artificial, ativistas e líderes sociais e religiosos para pedir a proibição de uma tecnologia criada para matar sem a supervisão de um ser humano. Entre os dias 12 e 16 de dezembro, representantes de mais de 90 países reunir-se-ão em Genebra para rever a Convenção da ONU sobre Armas Convencionais e dar luz verde ou proibir os sistemas de armas autónomas.

Em janeiro deste ano já eram mais de 3.000 as personalidades destacadas do mundo da ciência, da luta social e do setor privado que tinham subscrito esta petição, com perfis tão diversos como os do filósofo e investigador Noam Chomsky ou o do cofundador de Apple, Steve Wozniak. Ao mesmo tempo, no outro lado da trincheira política afloram os defensores das armas autónomas, uma tecnologia que gerará um negócio multimilionário. Argumentam que poderão salvar a vida de milhares de soldados e significarão uma enorme poupança para os cofres do Estado. Os analistas do Goldman Sachs recomendam já aos seus clientes que invistam neste prometedor negócio, o segundo com melhores previsões de crescimento na indústria robótica, só atrás dos robôs autônomos para ordenhar vacas.

Há menos de uma década começou a febre dos drones militares. Hoje pelo menos 90 países contam com esse tipo de tecnologia nas suas Forças Armadas. A proliferação de armas autónomas já começou, ainda que por enquanto só seis países admitam publicamente estar a desenvolver estes sistemas de guerra: Estados Unidos, Rússia, China, Israel e, em escala menor, Coreia do Sul e Reino Unido.

Até agora os governos e exércitos de meio mundo empregam autómatos principalmente em tarefas logísticas como o transporte de alimentos e munições, ou para desativar explosivos, deixando ao critério humano a decisão de abrir fogo. A lista de robôs militares autônomos é tão ampla que não entra nesta reportagem. Entre os mais conhecidos estão o DRDO Daksh indiano, um robô artificial equipado com raios X; o robô Atlas do Google, especializado em combater incêndios, ou o Goalkeeper alemão, desenhado para intercetar mísseis sem necessidade de supervisão humana. A China já tem planos para desenvolver o seu robô polícia Anbot, inspirado no famoso R2D2 da Guerra das Estrelas, enquanto os Estados Unidos pretendem substituir um quarto das suas tropas por humanoides antes de 2030. Por enquanto, as armas equipadas com dispositivos autônomos, como os robô Predator ou Reaper, pedem a autorização de um ser humano antes de disparar. O Exército israelense é um dos que mais independência outorga aos seus robôs assassinos, como o Harpy, um drone autónomo que voa em círculos para localizar radares inimigos e abatê-los.

Os robôs autônomos já estão presentes no dia a dia de muitos cidadãos, desde os carros que circulam sozinhos até às máquinas de respiração assistida. No entanto, os robôs militares autônomos são armas programadas para decidir o que é um alvo e disparar sobre ele, apesar de não estarem capacitadas para diferenciar entre um objetivo militar e um civil. A nível internacional, só 14 países pediram a proibição dos robôs militares autônomos –o primeiro dos quais foi o Paquistão, onde os Estados Unidos realizam bombardeamentos por meio de drones autônomos –, enquanto a maioria dos governos só se mostrou a favor de debater uma regulação no seio da ONU. Grande parte dos detratores das armas autónomas acha que a ambiguidade dos governos se deve a que os robôs militares podem reduzir o custo eleitoral de perder soldados na guerra.

A Espanha posicionou-se pela primeira vez em finais de 2013, durante a reunião realizada em Genebra para rever a Convenção da ONU sobre Armas Convencionais. Oficialmente, o Governo espanhol está a favor do debate sobre o futuro destas armas e reconhece a “preocupação” que estes dispositivos geram a nível ético e legal, ainda que diga estar “aberto a todas as opções”.

Robôs sem ética com licença para matar

Milhares de especialistas de diferentes áreas e ativistas já se manifestaram contra o desenvolvimento e o uso de robôs de guerra independentes. O debate ganhou força após uma carta do norte-irlandês Noel Sharkey publicada pelo diário britânicoThe Guardian em 2007. Na missiva, este professor emérito de Inteligência Artificial e Robótica na Universidade de Sheffield alertava sobre os perigos que esta tecnologia implica. “As minhas principais preocupações assentam na incapacidade dos sistemas de armas autónomas para respeitar a legislação internacional sobre a guerra, diferenciar entre objetivos militares e civis ou aplicar a força proporcionalmente”, explicou a La Marea o doutor Sharkey, que acrescenta que, sobretudo, o que mais o preocupa é que se quebre a segurança global devido a uma corrida armamentista de robôs assassinos. Para este especialista, dar a uma máquina o poder de matar atenta contra a dignidade humana.

Sharkey é um dos fundadores do Comité Internacional para o Controle de Armas Robô e da Plataforma para Parar os Robôs Assassinos (Campaign to Stop Killer Robots), lançada em 2013 juntamente com sete organizações não governamentais e um amplo número de especialistas e ativistas de todo mundo. Confiam que a sua luta para proibir os sistemas armados autônomos consiga os mesmos frutos que a oposição às bombas de fragmentação ou às armas laser, hoje proibidas pela legislação internacional. “Acho que a médio prazo haverá um tratado das Nações Unidas para proibir a sua produção e uso”, opina Sharkey em referência aos robôs assassinos.

As vozes que clamam pela proibição das armas autónomas não pararam de crescer desde então e contam com o papel ativo de personalidades destacadas, como Rigoberta Menchú e o Dalai Lama, ambos galardoados com o Prémio Nobel da Paz, ou o cientista britânico Stephen Hawking. Até mesmo o gigantesco fundo soberano da Noruega incluiu na sua lista negra de objetivos de investimento as empresas que participam no desenvolvimento de robôs militares autônomos. Em fevereiro, o diário The New York Times publicou um relatório do Pentágono no qual se reconhecia que “estas armas poderão tornar-se incontroláveis em ambientes reais devido a falhas no projeto ou à possibilidade de serem pirateados”.

Miriam Struyk trabalha como assessora estratégica na organização sem fins lucrativosPax e é uma das cofundadoras da Plataforma para Parar os Robôs Assassinos. Em próximo dezembro viajará a Genebra para participar na revisão da Convenção da ONU sobre Armas Convencionais, onde tentará convencer os governos de todo o mundo da necessidade de proibir os robôs militares autônomos. “Com armas como as bombas de fragmentação ou as minas antipessoais atuámos demasiado tarde e isso custou muitas vidas, mesmo depois da guerra, para não mencionar a bomba nuclear”, explica Struyk.

Esta especialista defende que nenhuma vida humana deveria depender de um algoritmo e assegura que os robôs assassinos não são capazes de atuar respeitando os direitos humanos. “Quem será o responsável pelas ações de um robô militar? O fabricante, o programador, o comandante ou a própria máquina?”, pergunta Struyk, a partir da Holanda. “A tecnologia avança mais depressa do que a diplomacia”, acrescenta. Struyk e outros membros da Plataforma para Parar os Robôs Assassinos moderam o seu otimismo face à convenção de dezembro. Asseguram que o mais provável é que se decida criar um grupo de especialistas dos governos que abra o caminho para começar as negociações sobre um novo tratado que proíba estas armas.

“Os desenvolvimentos militares ocorrem com frequência à porta fechada e o público em geral só se dá conta quando as armas são usadas. Devemos informar e iniciar um debate público e político sobre estas armas antes de que seja demasiado tarde”, sublinha.

*Artigo publicado no número 41 da revista mensal La Marea.

Tradução: Carlos Santos

Fonte:  esquerda.net

Você precisa estar logado para postar um comentário Login