Embora a IA desempenhe um papel fundamental na nossa vida quotidiana, também pode ser utilizada para criar armas de destruição maciça, como nunca antes o mundo viu.
Um grupo de mais de 4500 investigadores e especialistas em IA e robótica apelam agora à proibição de armas autónomas letais. A campanha é acompanhada por este vídeo:
O vídeo é um bom resumo dos seus argumentos, organizados em três pontos:
O que são armas autónomas letais?
As armas autónomas letais são armas que se destinam a matar seres humanos sem intervenção humana. Podem localizar, identificar e matar os seus alvos sem qualquer intervenção humana. Estas armas reagiriam demasiado depressa para que um ser humano pudesse manter um controlo significativo. Podem ser produzidas em massa e programadas para atingir civis inocentes de uma ideologia específica e podem ser suficientemente pequenas para permitir o assassínio de qualquer líder político.
Por que razão devemos proibir as armas autónomas letais?
Se quisermos uma IA capaz de jogar um jogo ou de reconhecer objectos e imagens, podemos fazê-lo. Mas não há nada que permita um julgamento semelhante ao dos humanos ou que estabeleça regras éticas que são essenciais para tomar decisões sobre a vida e a morte. Ao contrário das armas nucleares, biológicas ou químicas, as armas autónomas letais podem ser desenvolvidas a baixo custo, com materiais fáceis de encontrar e podem ser mais facilmente pirateadas ou cair nas mãos erradas. Um programador pode fazer o que antes era feito por milhares de soldados. Será muito mais fácil para os pequenos actores, nem mesmo para os governos, utilizá-las de forma nefasta, o que poderá ter um impacto na democracia e na liberdade de expressão.
A proibição teria um impacto negativo na investigação?
Pelo contrário, se não proibirmos, a investigação será dificultada: a tecnologia será estigmatizada e todas as coisas boas que a IA pode fazer não acontecerão, uma vez que o público se voltará contra a utilização da tecnologia em todos os aspectos da nossa vida.
Conclusão
Temos de proibir imediatamente as armas autónomas letais antes que a corrida aos armamentos se torne irreversível. Temos de garantir que a IA é utilizada para criar um mundo melhor. Junte-se ao grupo de peritos no seu apelo a uma proibição em www.autonomousweapons.org
Publicação convidada do curador de conteúdos da The Futures Agency Petervan
Outros recursos
O nosso recente podcast baseado no capítulo 5 do livro de Gerd Tecnologia vs Humanidade A Internet das coisas não humanas? Abrangendo tópicos como ecossistemas e cadeias de abastecimento responsáveis e planeamento de externalidades e consequências não intencionais.
Mais podcasts aqui
Este tema é também abordado no capítulo 8 do livro de Gerd: "Precaução vs. Proacção". Eis uma citação desse capítulo: "Imagine entrar numa corrida ao armamento com armas controladas por IA que podem matar sem supervisão humana." E temos também um podcast sobre esse capítulo a ser publicado em breve.
Um conjunto de posts e artigos sobre Ética digital
E aqui está um extrato de uma das palestras de Gerd, uma secção específica sobre "externalidades":