Nouveau : Essayez mon AI Bot nouveau film

Plus de 4 500 chercheurs demandent l'interdiction immédiate des armes autonomes létales

Bien que l'IA joue un rôle essentiel dans notre vie quotidienne, elle peut également être utilisée pour créer des armes de destruction massive, comme le monde n'en a jamais vu auparavant.

Un groupe de plus de 4500 chercheurs et experts en IA et en robotique demandent l'interdiction des armes autonomes létales maintenant. La campagne est accompagnée de cette vidéo :

La vidéo est un bon résumé de leurs arguments, organisés en trois rubriques :

Qu'est-ce qu'une arme autonome létale ?

Les armes autonomes létales sont des armes destinées à tuer des êtres humains sans intervention humaine. Elles peuvent localiser, identifier et tuer leurs cibles sans aucune intervention humaine. Ces armes réagissent trop rapidement pour qu'un être humain puisse exercer un contrôle significatif. Elles pourraient être produites en masse et programmées pour cibler des civils innocents d'une idéologie spécifique et être suffisamment petites pour permettre l'assassinat de n'importe quel dirigeant politique.

Pourquoi devrions-nous interdire les armes autonomes létales ?

Si vous voulez une IA capable de jouer à un jeu ou de reconnaître des objets et des images, nous pouvons le faire. Mais il n'y a rien qui donne un jugement semblable à celui des humains ou des règles éthiques qui sont essentielles pour prendre des décisions concernant la vie et la mort. Contrairement aux armes nucléaires, biologiques ou chimiques, les armes autonomes létales peuvent être développées à peu de frais, avec des matériaux faciles à trouver, et elles peuvent plus facilement être piratées ou tomber entre de mauvaises mains. Un programmeur peut faire ce que des milliers de soldats devaient faire auparavant. Il sera beaucoup plus facile pour de petits acteurs, pas nécessairement des gouvernements, de les utiliser à des fins malveillantes, ce qui pourrait avoir un impact sur la démocratie et la liberté d'expression.

Une interdiction aurait-elle un impact négatif sur la recherche ?

Au contraire, si nous n'interdisons pas, cela entravera la recherche : la technologie sera stigmatisée, et toutes les bonnes choses que l'IA pourrait faire ne se produiront pas car le public se retournera contre l'utilisation de la technologie dans tous les aspects de notre vie.

Conclusion

Nous devons interdire les armes autonomes létales immédiatement avant que la course aux armements ne devienne irréversible. Nous devons veiller à ce que l'IA soit utilisée pour créer un monde meilleur. Rejoignez le groupe d'experts dans leur appel à l'interdiction à l'adresse suivante www.autonomousweapons.org

Article invité par le conservateur de contenu de The Futures Agency Petervan

Autres ressources

Notre récent podcast basé sur le chapitre 5 du livre de Gerd Technologie contre humanité L'Internet des choses inhumaines : l'Internet des choses inhumaines ? Couvrant des sujets tels que les écosystèmes et les chaînes d'approvisionnement responsables, et la planification des externalités et des conséquences involontaires.

Plus de podcasts ici

Ce sujet est également abordé dans le chapitre 8 du livre de Gerd : "Précaution vs. Proaction". Voici un extrait de ce chapitre : "Imaginez que vous entriez dans une course aux armements avec des armes contrôlées par l'IA qui peuvent tuer sans supervision humaine. Nous avons également prévu un podcast sur ce chapitre.

Une série de billets et d'articles sur Éthique numérique

 

Voici un extrait de l'une des conférences de Gerd, une section spécifique sur les "externalités" :

3213

Points de vue


Tags

bulletin d'information

* indique le besoin
dernier livre