Um movimento internacional em favor do banimento de Sistemas Letais Autônomos – Artigo de André Magnelli e Renato Magnelli para o Jornal do Brasil

Dia 18 de julho, foi anunciado em Estocolmo, Suécia, durante a Conferência Internacional Conjunta sobre Inteligência Artificial (IJCAI), um Compromisso sobre Sistemas Letais Autônomos, organizado pelo Future of Life Institute (FLI) e assinado por grande parte dos principais líderes de P & D em Inteligência Artificial (AI): mais de 160 organizações de 36 países e 2400 indivíduos de 90 países. Participam empresas (como Google DeepMind), entidades (como a European Association for AI) e líderes da área (como Elon Musk). Subscreveram, dentre os brasileiros, a Sociedade Brasileira de Computação (SBC) e vários pesquisadores: Fernando Osório e Marcelo Finger da USP, Sérgio Campos e Vinicius dos Santos da UFMG, J. A. Quilici-Gonzalez (UFABC), Mariana Broens (UNESP), Itala D’Ottaviano (UNICAMP) e Fernando Câmara (Instituto Stokastos). Todos se comprometeram em não participar nem apoiar “o desenvolvimento, a fabricação, o comércio ou o uso de Sistemas Letais Autônomos”. Além disso, eles convocaram os governos a criar leis, regulações e normas internacionais contrários ao seu desenvolvimento.

Tal compromisso consiste num amplo movimento internacional em favor do banimento das Lethal autonomous weapons (LAWs). A própria FLI já havia divulgado uma carta aberta com os mesmos propósitos na Abertura da IJCAI de 2015. Em novembro de 2017, o movimento Ban Lethal Autonomous Weapons divulgou o vídeo Slaughterbots, com um cenário distópico em que aparece um enxame de drones com tamanhos de insetos atacando civis impotentes. Mais recentemente, em abril, 26 países (dentre eles Brasil e China) anunciaram uma posição a favor do banimento. Várias empresas, entre elas a americana Northrop Grumman, a britânica BAE Systems, a chinesa LeiShen Intelligent System e a israelita IAI, desenvolvem armas crescentemente automatizadas, e há certo consenso de que autonomia é uma possibilidade prática em poucos anos. Quais seriam as ameaças de uma eventual criação de “robôs assassinos” (killer robots) e o que justifica seu banimento? Identificamos duas linhas de justificação: razões ético-legais e razões pragmático-militares.

Do ponto de vista ético-legal, é inaceitável a possibilidade de LAWs selecionarem e atacarem alvos sem intervenção e decisão humanas (“controle humano significativo”). Como dizem os signatários, não se pode delegar a uma máquina a decisão de subtrair uma vida humana, impossibilitando a imputação de culpa e responsabilidade. Além disso, as dificuldades de atender às exigências de convenções internacionais – matar humanos respeitando regras do direito humanitário; distinguir entre combatentes e civis; e analisar os danos colaterais proporcionais à vantagem militar – sugerem uma forte discrepância entre a capacidade e eficiência da autonomia de matar e a de ser capaz de julgar corretamente todas as consequências de seus atos. Do ponto de vista pragmático-militar, é importante começar por considerar as capacidades das AIs. Segundo os autores de um relatório sobre as ameaças potenciais nos “Usos Maliciosos da Inteligência Artificial” (20/02/2018), as AIs possuem uma capacidade de exceder as habilidades humanas na realização de um mesmo objetivo por causa de sua eficiência, de sua escalabilidade, de sua pronta difusão e da possibilidade de cumprimento dos fins com anonimato e com distância espaço-temporal e psicológica. Das LAWs derivam ameaças. Primeiro, se construídas, elas serão prontamente difundidas, desencadeando uma corrida armamentista. Segundo, sua possibilidade de realizar em anonimato fins à distância gera não apenas problemas de imputabilidade, mas também tira freios humanos ético-existenciais; com isso, “ao remover o risco, a imputabilidade e a dificuldade em se tirar vidas humanas, [as LAWs] poderiam se tornar poderosos instrumentos de violência e de opressão”. Por fim, a sua eficácia sobre-humana aumenta o potencial destrutivo, mesmo nas mãos de pequenos Estados ou grupos, sendo um instrumento potente para governos autoritários e grupos terroristas ou paramilitares.

Com o presente Compromisso, o movimento internacional parece mostrar força moral e política crescente. Esperamos que os argumentos sejam suficientes para que sejam acompanhados os precedentes no tocante a banimentos de tecnologias bélicas (armas químicas e biológicas, armas nucleares espaciais e armas a laser para cegar). Se o lema da segurança tem ainda apelo sedutor, lembremos, com a carta aberta de 2015, que “há muitas maneiras pelos quais a AI pode tornar os campos de batalhas seguros para os humanos, especialmente meios civis, sem [que seja necessário] criar novas ferramentas para matar pessoas”.

Deixe uma resposta

por Anders Noren

Acima ↑

Descubra mais sobre Ateliê de Humanidades

Assine agora mesmo para continuar lendo e ter acesso ao arquivo completo.

Continue reading