Nuevo: Prueba mi robot de inteligencia artificial nueva película

Más de 4500 investigadores piden la prohibición inmediata de las armas autónomas letales

Aunque la IA desempeña un papel integral en nuestra vida cotidiana, también puede utilizarse para crear armas de destrucción masiva, como nunca antes se había visto en el mundo.

Un grupo de más de 4500 investigadores y expertos en inteligencia artificial y robótica piden ahora la prohibición de las armas autónomas letales. La campaña va acompañada de este vídeo:

El vídeo es un buen resumen de sus argumentos, organizados en tres epígrafes:

¿Qué son las armas autónomas letales?

Por armas letales autónomas se entienden las armas destinadas a matar a seres humanos sin intervención humana. Pueden localizar, identificar y matar a sus objetivos sin ninguna intervención humana. Estas armas reaccionarían demasiado rápido para que un ser humano pudiera mantener un control significativo. Podrían fabricarse en serie y programarse para atacar a civiles inocentes de una ideología específica y podrían ser lo suficientemente pequeñas como para permitir el asesinato de cualquier líder político.

¿Por qué debemos prohibir las armas autónomas letales?

Si quiere una IA que pueda jugar a un juego o reconocer objetos e imágenes, podemos hacerlo. Pero no hay nada que proporcione un juicio similar al humano o normas éticas que son esenciales para tomar decisiones sobre la vida y la muerte. A diferencia de las armas nucleares, biológicas o químicas, las armas autónomas letales pueden desarrollarse de forma barata, con materiales fáciles de encontrar y es más fácil piratearlas o que caigan en las manos equivocadas. Un programador puede hacer lo que antes tenían que hacer miles de soldados. Va a ser mucho más fácil para los pequeños actores, ni siquiera necesariamente los gobiernos, utilizarlas de forma nefasta, lo que podría tener un impacto en la democracia, la libertad de expresión.

¿Impactaría negativamente la prohibición en la investigación?

Por el contrario, si no prohibimos, obstaculizaremos la investigación: la tecnología quedaría estigmatizada, y todas las cosas buenas que podría hacer la IA no ocurrirán, ya que el público se volverá en contra del uso de la tecnología en todos los aspectos de nuestra vida.

Conclusión

Debemos prohibir inmediatamente las armas autónomas letales antes de que la carrera armamentística sea irreversible. Debemos garantizar que la IA se utilice para crear un mundo mejor. Únase al grupo de expertos en su llamamiento a la prohibición en www.autonomousweapons.org

Post invitado del comisario de contenidos de The Futures Agency Petervan

Otros recursos

Nuestro reciente podcast basado en el capítulo 5 del libro de Gerd Tecnología contra humanidad Internet de las cosas inhumanas Abarca temas como los ecosistemas y las cadenas de suministro responsables, y la planificación de externalidades y consecuencias imprevistas.

Más podcasts aquí

Este tema también se trata en el capítulo 8 del libro de Gerd: "Precaución frente a proacción". He aquí una cita de ese capítulo: "Imagina entrar en una carrera armamentística con armas controladas por IA que pueden matar sin supervisión humana". Y también tenemos un podcast sobre ese capítulo próximamente.

Un conjunto de entradas y artículos sobre Ética digital

 

Y he aquí un extracto de una de las conferencias magistrales de Gerd, un apartado específico sobre "externalidades":

3214

Vistas


Etiquetas

boletín

* indica necesario
último libro