Segurança

Cientistas temem corrida armamentista por exércitos de robôs assassinos

term2Em “O Exterminador do Futuro”, humanidade é ameaçada pela inteligência artificial – DIVULGAÇÃO

Robôs que buscam e eliminam alvos de forma autônoma, sem intervenção humana, podem parecer ficção, mas um grupo de renomados cientistas, que inclui nomes como Stephen Hawking, Elon Musk e Steve Wozniak, alerta que essa tecnologia será viável em poucos anos. Em carta divulgada nesta quarta-feira, na abertura da International Joint Conferences on Artificial Intelligence, pesquisadores de todo o mundo se posicionaram contra a criação de máquinas assassinas. O temor, dizem eles, é que uma nova corrida armamentista se inicie.

“A tecnologia de inteligência artificial alcançou um ponto onde o desenvolvimento desses sistemas será viável em anos, não décadas, e as apostas são altas: armas autônomas estão sendo descritas como a terceira revolução na guerra, depois da pólvora e das armas nucleares”, argumentam os signatários da carta. “Se alguma grande força militar começar o desenvolvimento de armas com IA, uma corrida armamentista global é virtualmente inevitável, e o fim desta trajetória tecnológica é óbvia: armas autônomas se tornarão a Kalashnikov de amanhã”.

Hoje, veículos aéreos não-tripulados já estão nos campos de batalha, mas sempre com um ser humano no controle, mesmo que à distância, que decide se deve ou não matar. Tecnologias de localização, navegação e reconhecimento de imagem e ambiente já existem, basta serem programadas para a guerra. Já é possível, por exemplo, criar um quadricóptero que atire contra alvos vivos vestidos com determinada roupa.

O temor dos pesquisadores é que, ao serem desenvolvidas, essas tecnologias caiam nas mãos não apenas de forças regulares, mas de terroristas e ditadores. Diferente das armas nucleares, que requerem materiais raros, a inteligência artificial será barata o suficiente para a produção em massa de imensos exércitos.

TEMOR DE CONTROLE E LIMPEZA ÉTNICA

“Será apenas uma questão de tempo até que elas apareçam no mercado negro e cheguem às mãos de terroristas, ditadores querendo aumentar o seu controle sobre a população, senhores da guerra querendo realizar limpezas étnicas. Armas autônomas são ideais para tarefas como assassinatos, desestabilizar nações, subjugar populações e matar seletivamente um grupo étnico em particular”, dizem os cientistas.

Fernando Santos Osório, professor do Instituto de Ciências Matemáticas e de Computação da USP/São Carlos, é um dos signatários da carta. Ele explica que o grupo não é contra os robôs militares, que podem auxiliar missões de resgate, reconhecimento e até salvar vidas. O temor é dar às máquinas autonomia para matar.

— É extremamente temerário, você pode perder o controle sobre a máquina. Uma programação errada e ela pode se voltar contra o próprio pesquisador — explica Osório.

Entretanto, o temor (ainda) não é que as máquinas se levantem e dominem a humanidade, como a Skynet em “O Exterminador do Futuro”, mas que armamentos extremamente letais e descartáveis caiam nas mãos erradas. O que falta, diz Osório, é exatamente inteligência. Com a tecnologia disponível, as máquinas não seriam capazes de realizar juízo de valor. Em uma guerra, por exemplo, elas não distinguiriam um soldado inimigo levantando uma bandeira de rendição de outro com uma arma em mãos.

— Por enquanto, não existe o risco de os robôs tomarem conta no mundo — diz Osório. — A comunidade acadêmica discute isso e está dividida, mas é como discutir o sexo dos anjos, é um debate sobre um problema que ainda não está próximo.

A carta serve para marcar posição. Como químicos e biólogos não têm interesse em construir armas químicas e biológicas, a maioria dos pesquisadores em inteligência artificial e robótica não têm interesse em construir armas autônomas. Sobretudo porque tal desenvolvimento pode manchar o campo e criar reação pública negativa à tecnologia.

“Em resumo, nós acreditamos que a inteligência artificial tem potencial para beneficiar a humanidade em diversas formas, e o objetivo do campo deve ser esse. Começar uma corrida armamentistas é uma ideia ruim, e deve ser prevenida pelo banimento de armamentos autônomos ofensivos além do controle humano”, dizem os signatários.

O Globo

Comente aqui

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *