Nouveau : Essayez mon AI Bot nouveau film

L'excès d'une bonne chose peut être une très mauvaise chose : l'avenir de la technologie

Pourquoi nous devons agir maintenant pour faire en sorte que le progrès technologique exponentiel reste bénéfique pour l'humanité et la planète.

Gerd Leonhard, futuriste et humaniste. Zurich, Suisse 17 mai 2021. Également publié sur Monde cognitif. Version portugaise ici. Version allemande ici. Version espagnole ici. En rapport : Lire mon nouveau document de politique européenne.

MISE À JOUR 1 décembre 2021 : Lisez mon dernier billet sur la Métavers : La grande réduction

Il ne fait aucun doute que la technologie nous a fait du bien. Les systèmes d'intelligence artificielle sont désormais capables de détecter certaines formes de cancer de la peau avec un taux de précision supérieur à celui des médecins humains. Les robots effectuent des examens échographiques et des opérations chirurgicales, parfois avec peu ou pas d'intervention humaine. Les pilotes automatiques pilotent et font atterrir les avions dans les conditions les plus défavorables et pourraient bientôt être en mesure de diriger des taxis aériens personnels. Les capteurs recueillent des données en direct sur les machines et leurs "jumeaux numériques" afin de prévoir les pannes à venir ou d'avertir des réparations cruciales. Imprimantes 3D sont capables de cracher des pièces détachées, ce qui améliore les possibilités de maintenance dans les endroits éloignés.

Pourtant, à mesure que la technologie et les Systèmes d'IA En même temps que la montée en puissance des technologies de l'information et de la communication, les inconvénients de l'accélération exponentielle du progrès technologique apparaissent avec une grande netteté. En s'inspirant de Marshall McLuhan (il y a 57 ans !), chaque fois que nous étendons nos capacités, nous en amputons d'autres. Aujourd'hui, les médias sociaux promettent de nous "étendre" en nous permettant à tous de partager nos pensées en ligne, mais ils nous "amputent" également en faisant de nous des cibles faciles à suivre et à manipuler. Nous gagnons en portée, mais nous perdons en intimité.

L'impact du changement exponentiel est incroyablement difficile à imaginer

Il convient de noter que si les progrès technologiques d'aujourd'hui semblent souvent très impressionnants et utiles, pour la plupart inoffensifs et facilement gérables, il serait vraiment stupide de penser qu'il en sera de même dans un avenir proche, car nous faisons littéralement des bonds sur la courbe exponentielle de 4 à 8, puis à 16 et ainsi de suite. 30 pas linéaires peuvent me permettre de traverser une rue, 30 pas exponentiels équivalent à 26 voyages autour du globe. L'ampleur de la tâche est totalement différente et quoi qu'il en soit, il s'agit bien d'une question d'argent. peut avoir Les efforts déployés avant le point pivot peuvent s'avérer désastreux par la suite.

Ici et maintenant, nous sommes au point de départ de nombreuses sciences et technologies fondamentales du 21e siècle, de l'intelligence artificielle et de l'apprentissage profond à l'édition du génome humain en passant par la géo-ingénierie, la longévité et l'amélioration de l'être humain - tout notre cadre est sur le point de changer. pas seulement l'image!

Au cours de la décennie suivante, chacun des domaines mentionnés ci-dessus (ce que j'appelle souvent les "domaines d'activité") a été remplacé par un autre. Changer les règles du jeu) nous réserve plus de changements que nous n'en avons connus au cours du siècle dernier. La science-fiction se transforme de plus en plus en science-fiction - et puisque les humains sont biologiques (pour l'instant) et ne progressent pas de manière exponentielle, nous avons souvent beaucoup de mal à comprendre où tout cela nous mène. Ce qui peut être vraiment étonnant, magique et "bon" pour nous aujourd'hui, peut bientôt devenir "trop d'une bonne chose", et passer du statut d'outil à celui de but, du statut de cadeau du ciel à celui de machine fatale.

Qu'il s'agisse d'améliorer les êtres humains, de concevoir des chimères ou de faire la guerre aux robots : Que se passera-t-il ? au cours des 10 prochaines années balaiera la plupart de nos idées sur le progrès graduel et bouleversera notre vision de la manière dont l'innovation technologique favorise généralement, et peut-être même par inadvertance, le bien commun.

Définir "l'avenir prometteur

Selon moi, ce que j'ai récemment commencé à appeler "le bon avenir"(c'est-à-dire une utopie ou mieux encore une protopie (par opposition à une dystopie) est désormais en jeu, et nous ne pouvons pas nous permettre d'éviter le travail difficile qui consiste à définir collectivement ce qu'un "bon avenir" signifie réellement pour nous, collectivement et en tant qu'espèce, et comment nous pouvons le façonner au mieux, ensemble. Aussi difficile que puisse paraître un consensus sur la question du "bon", l'avenir doit être créé collectivement, sinon il n'y en aura pas du tout - du moins pas un qui nous implique, nous les humains (voir les analogies entre le traité nucléaire et le TNP ci-dessous).

Le moment est venu, alors que nous entrevoyons un semblant de lumière au bout du tunnel de la pandémie, d'entamer une discussion honnête et ouverte sur nos objectifs communs et sur nos priorités. télos (c'est-à-dire l'objectif), et sur les politiques dont nous aurons besoin pour créer ce "système".Un avenir prometteur'. Une chose est sûre : La doctrine de l'économie de marché nous a récemment fait défaut au moins deux fois (lors de la crise financière de 2007 et lors de la crise de Covid), et le rôle du gouvernement en tant que régulateur du marché sera certainement beaucoup plus important au cours de la prochaine décennie. Le bon avenir n'est pas susceptible de naître du bon vieux capitalisme, pas plus qu'il ne naîtra de la technologie. Il s'agit plutôt d'une question d'éthique, de valeurs - et des politiques que nous élaborons sur cette base.

Il est temps de se réhumaniser !

Le moment est venu de réfléchir et d'agir pour "civiliser" ou "reciviliser".humaniser"et oui, réglementer (sans les étrangler) les géants mondiaux de la technologie - parce qu'à l'ère du changement exponentiel avancé, les percées étonnantes d'aujourd'hui pourraient bien s'avérer être des problèmes majeurs dans un avenir pas trop lointain. Ce qui semble parfait à "1" pourrait ne plus l'être lorsque nous atteindrons "16" sur la courbe exponentielle (c'est-à-dire après 5 doublements). Il est urgent de regarder beaucoup plus loin, car nous nous dirigeons vers l'avenir à la vitesse de la distorsion. La prospective est tout simplement essentielle à la mission et n'est plus un "atout". L'avenir devient un point de l'ordre du jour quotidien pour tous les dirigeants et fonctionnaires.

Cessons donc de nous demander "qu'est-ce que l'avenir nous réserve ?" - il peut bientôt nous réserver, littéralement, à peu près tout ce que nous pouvons imaginer. Au lieu de cela, nous devons nous demander : "quel genre d'avenir voulons-nous ??

L'incroyable exploit consistant à mettre au point non pas un, mais plusieurs vaccins efficaces contre le SRAS-CoV-2 est un bon exemple de notre statut exponentiel accéléré. Ce qui prenait une dizaine d'années, voire plus, ne prend aujourd'hui que 12 mois, en grande partie grâce aux capacités mondiales de l'informatique en nuage et de l'IA. D'ici dix ans, ce cycle de développement devrait se réduire à six semaines, voire moins. Juste imaginer.

Pourtant, cette réussite ne doit pas faire oublier la vérité fondamentale selon laquelle la technologie a toujours un double usage ; elle peut être à la fois bonne et moins bonne : Elle est "moralement neutre jusqu'à ce que nous l'utilisions" (W. Gibson). "Trop d'une bonne chose"décrit très bien cette énigme : quelque chose d'utile peut rapidement devenir quelque chose de profondément nuisible et corrosif pour la société - comme l'ont montré récemment les médias sociaux, qui souffrent d'une obsession de monétisation excessive et d'un manque total de responsabilité.

C'est pourquoi je pense que la Commission européenne est sur la bonne voie avec sa récente Efforts de régulation de l'IA et des technologies. Oui, c'est compliqué, c'est douloureux et c'est parfois insupportable - mais d'une manière ou d'une autre, nous devons commencer à regarder au-delà des facteurs économiques et de la croissance à tout prix, et nous diriger vers ce que j'ai appelé le quadruple résultat net de "...".les personnes, la planète, la raison d'être et la prospérité"(prolongeant le travail effectué par Elkington et d'autres sur le triple bilan).

Trop d'une bonne chose" - cela vous rappelle quelque chose ?

Ce n'est pas une coïncidence si l'utilisation excessive et la dépendance à l'égard des appareils et des services en ligne sont souvent considérées comme une dépendance. Beaucoup d'entre nous consomment des drogues sous une forme ou une autre, qu'il s'agisse d'alcool, de tabac ou même de substances contrôlées. Les sociétés ont appris à gérer ces dépendances au moyen de lois, de réglementations et d'une multitude de contrats sociaux destinés à limiter leur portée et leur impact négatif. La technologie n'est pas différente en ce sens qu'une utilisation excessive ou une surexposition ruine également des vies. De nombreuses études ont montré que les utilisateurs puissants des réseaux sociaux figurent souvent en tête des listes de personnes susceptibles de se suicideret que le FOMO (far of missing out) peut entraîner de graves troubles anxieux. Mais attendons la 5G, les applications de réalité virtuelle omniprésentes et les "lunettes intelligentes".

Il existe un danger palpable que ce progrès technologique rapide et fulgurant ne soit pas gouverné avec sagesse avant que ses capacités en constante expansion ne nous submergent et ne nous présentent de facto un avenir que la plupart d'entre nous ne souhaiteraient pas pour leurs enfants. Nous avons donc besoin d'un mélange de "nouvelles normes" et de contrats sociaux, de responsabilité et d'obligation de rendre des comptes dans le monde des affaires et de l'industrie, et de garanties réelles telles que la réglementation, les lois et les traités. Notre réponse doit être large et flexible, juste et démocratique, mais décisive lorsqu'il s'agit d'agir en faveur de la précaution.

Imaginez, par exemple, ce qui sera bientôt possible lorsque la plupart d'entre nous auront leur les données relatives aux soins de santé stockées dans le nuage et interagissent régulièrement avec des assistants numériques et des chatbots pour des choses telles que le soutien à la santé mentale. La mise en commun d'énormes ensembles de données dérivées du génome humain, du biome et d'observations comportementales (par exemple lors de l'utilisation d'un appareil mobile ou d'une montre intelligente ou lors du port d'un équipement VR) peut nous donner des outils pour détecter des maladies dégénératives et peut-être même des maladies de l'appareil respiratoire. prédiagnostiquer le cancer. Pourtant, les conséquences des atteintes à la vie privée dans ce domaine pourraient également être mille fois pires que les pièges actuels, par exemple lorsque les données de localisation des personnes sont capturées de manière illicite. Encore une fois, comme le dit la chanson : "Vous n'avez encore rien vu".

La réglementation et le défi d'un consensus mondial : l'analogie nucléaire

La manière dont nous avons traité la menace de la prolifération nucléaire en est un exemple utile. Malheureusement, il a fallu deux bombes nucléaires et près de 25 ans de travail acharné pour que le monde entier se mette d'accord sur la nécessité de lutter contre la prolifération des armes nucléaires. Les TNP sont entrés en vigueur en 1970. Aujourd'hui, compte tenu de la rapidité et de l'ampleur des progrès technologiques, nous n'aurons plus le luxe de disposer d'une piste aussi longue - et il est beaucoup plus difficile de fabriquer une bombe nucléaire que d'écrire du code. Ou bien, dans un avenir pas si lointain, pourrions-nous être confrontés à des incidents catastrophiques causés par une confiance excessive dans des "machines intelligentes" inaptes et dangereuses, ou à un effondrement encore plus important de l'écosystème dû à des expériences hâtives de géo-ingénierie ?

Localement, nationalement, régionalement et inévitablement à l'échelle mondiale, nous devons nous mettre d'accord sur ce que nous pouvons accepter et fixer des seuils réalistes de "plus petit dénominateur commun" au-delà desquels certaines applications technologiques ne peuvent pas être poursuivies simplement "parce que nous le pouvons" ou parce que d'énormes avantages économiques peuvent être obtenus. Un exemple de consensus réalisable est celui d'un interdiction des systèmes d'armes autonomes qui tuent sans supervision humaine, ou d'interdire l'utilisation de la reconnaissance faciale et, plus récemment, de la reconnaissance de l'affect à des fins commerciales douteuses. C'est une autre question que la Commission européenne a commencé à aborder.

La seule question qui compte vraiment : Quel genre de monde voulons-nous laisser à nos enfants ?

Nous devons prendre conscience qu'au cours de la décennie à venir, il ne s'agira plus de savoir quel sera notre avenir. peut construire, mais quel avenir nous veulent construire. Il ne s'agira plus seulement d'ingénierie ou d'économie intelligente, mais de valeurs, d'éthique et d'objectifs. Les limites scientifiques et technologiques continueront à s'estomper rapidement, tandis que les implications éthiques et sociétales deviendront le véritable point de mire. Comme l'a dit E.O. Wilson : "Le vrai problème de l'humanité est le suivant : nous avons des émotions paléolithiques, des institutions médiévales et une technologie divine.

De plus, Winston Churchill a proclamé : "On peut toujours compter sur les Américains pour faire ce qu'il faut - après avoir essayé tout le resteJ'adapte souvent cette citation en remplaçant "Américains" par "humains". Mais il y aura inévitablement des choses qui ne devraient jamais être tentées parce qu'elles peuvent avoir des conséquences irréversibles et existentielles pour l'homme et notre planète, et c'est ce qu'il faut faire. la liste s'allonge de jour en jour. En commençant par la recherche de l'intelligence artificielle générale, la géo-ingénierie et l'édition du génome humain, toutes ces technologies pourraient potentiellement être utilisées dans le cadre d'un programme de recherche. le paradis, ou l'enfer. Et qui sera "contrôle de la mission" pour l'humanité ?

En particulier, l'approche bien documentée de la Silicon Valley, qui consiste à expérimenter presque n'importe quoi et à demander la permission plus tard ("Move fast and break things", en français "Bougez vite et cassez les choses"), a permis d'améliorer la qualité de la vie. Le langage de Zuckerberg avant l'introduction en bourse) nous entraînera sur une voie très dangereuse. Cette notion était peut-être tolérable, voire excitante, au début de la courbe exponentielle (où elle ressemble presque à une courbe linéaire), mais à l'avenir, ce paradigme est décidément mal adapté pour contribuer à l'avènement d'un "bon avenir". Demander pardon ne fonctionne tout simplement pas lorsque la technologie peut rapidement engendrer des menaces existentielles qui peuvent dépasser de loin le défi auquel nous sommes confrontés avec les armes nucléaires.

Prenons l'idée de rendre les humains "surhumains" en recherchant une longévité extrême ou en les rendant "surhumains". connecter nos cerveaux à l'internet (oui, Elon Musk semble vouloir devenir le principal pourvoyeur de ces idées). Je crains que nous risquions de nous retrouver avec des solutions à demi-bâties introduites par des sociétés à but lucratif, tandis que le public devra ramasser les morceaux et corriger les externalités - tout cela au nom du progrès.

Nous sommes à la croisée des chemins : L'avenir est notre choix, par l'action ou par l'inaction

Le temps est un facteur essentiel. Nous avons dix petites années de débattre, de convenir et de mettre en œuvre de nouveaux cadres et règles à l'échelle mondiale (ou au moins territoriale) en ce qui concerne la gestion des technologies exponentielles. 

Si nous ne parvenons pas à nous mettre d'accord au moins sur les plus petits dénominateurs communs (comme l'interdiction claire et nette des systèmes d'armes autonomes létaux ou l'interdiction de l'utilisation du génie génétique humain à des fins militaires), je crains que l'Union européenne ne soit pas en mesure de faire face à cette situation. les externalités d'une croissance technologique non maîtrisée et non supervisée dans l'IA, l'édition du génome humain et la géo-ingénierie s'avéreront tout aussi néfastes que celles créées par la croissance presque illimitée de l'économie des combustibles fossiles. Au lieu du changement climatique, c'est le "changement humain" qui nous posera des défis très difficiles à relever si nous n'appliquons pas d'autres mesures de protection de l'environnement. Le principe de précaution ici.

À l'avenir, personne ne devrait être autorisé à externaliser les externalités négatives de son activité, que ce soit dans le domaine de l'énergie, de la publicité, de la recherche, des médias sociaux, de l'informatique en nuage, de l'IdO, de l'IA ou de la réalité virtuelle. 

Lorsqu'une entreprise comme Google, qui appartient à Alphabet, souhaite transformer un quartier entier de Toronto en laboratoire de ville intelligente (Laboratoire des marches latérales), c'est l'entreprise initiatrice - et non la communauté et la société civile - qui doit être tenue responsable des changements sociétaux qui s'ensuivent et que la connectivité et la traçabilité omniprésentes entraînent - qu'ils soient bons ou mauvais. Les entreprises comme Google doivent comprendre qu'en cette ère exponentielle (c'est-à-dire "au-delà de l'ère de l'information"), il est important de prendre en compte les besoins de la société. le point pivot"), ils sont en effet responsables de ce qu'ils inventent et de la manière dont ils le mettent en œuvre. Chaque question technologique est désormais également une question éthique, et le succès dans le domaine de la technologie n'est plus seulement une question de "grande science, d'ingénierie étonnante et de modèles d'entreprise évolutifs" (et peut-être qu'il ne l'a jamais été).

Au lieu de cela, les responsabilités en matière de traitement des problèmes potentiellement graves (et de plus en plus fréquents) ont été confiées à l'Agence européenne pour l'environnement. existentiel) doivent être intégrés dans chaque modèle d'entreprise, dès le début, et tous les effets secondaires possibles doivent être pris en considération tout au long du processus de conception de l'entreprise et de toutes les phases ultérieures de mise en œuvre. Nous devons nous débarrasser de l'idée par défaut d'un "modèle d'entreprise".Le dîner d'abord, la morale ensuiteLa doctrine de la Silicon Valley ou de ses équivalents chinois. Les approches holistiques (c'est-à-dire les modèles qui profitent à la société, à l'industrie, aux entreprises et à l'humanité dans son ensemble) doivent remplacer les approches "agir vite et casser des chosesLes attitudes ", et logique des parties prenantes doit remplacer la primauté de l'actionnaire (*voir Paul Polman, ancien PDG d'Unilever, s'exprimer à ce sujet), ici)  

3 de mes 6 principes pour l'avenir

Au cours des cinq prochaines années, je pense que nous allons assister à l'émergence de nouveaux marchés boursiers (tels que le marché encore balbutiant de l'euro). LTSE à San Francisco) où seront répertoriées les entreprises qui fonctionnent selon le principe "People, Planet, Purpose and Prosperity" (Personnes, Planète, But et Prospérité). L'EUROPE doit saisir cette opportunité et prendre la tête !

Appelez-moi optimiste ou utopiste, mais je suis convaincu que nous pouvons encore définir et façonner un "bon avenir" pour l'ensemble de l'humanité et pour notre planète.

Voici quelques suggestions pour guider ce débat :

  1. Les enjeux éthiques des technologies exponentielles doivent être considérés comme aussi importants que les gains économiques qu'elles peuvent générer. La technologie n'est pas la réponse à tous et nous serions mal avisés d'attendre de la technologie qu'elle "résolve tout". S'il est une chose que j'ai apprise au cours de mes 20 années d'expérience en tant que futurologue, c'est bien celle-ci : La technologie ne résoudra pas les problèmes sociaux, culturels ou humains tels que l'(in)égalité ou l'injustice. Au contraire, elle aggrave souvent les choses, car la technologie favorise l'efficacité sans tenir compte de ses conséquences morales. Facebook est le meilleur exemple de cet effet : un concept vraiment puissant, très intelligemment conçu, fonctionnant incroyablement bien (comme prévu) - et pourtant profondément corrosif pour notre société (voir mes conférences sur ce sujet), ici). Tim Cook, le PDG d'Apple, l'a bien compris : "La technologie peut faire de grandes choses, mais elle ne veut pas faire de grandes choses. Elle ne veut rien." Le "vouloir" est notre travail, et nous ne devons pas nous dérober à cette responsabilité sous prétexte qu'elle est fastidieuse ou qu'elle risque de ralentir la monétisation.
  2. Les humains doivent rester dans la boucle (HITL): Dans un avenir prévisible et jusqu'à ce que nous soyons beaucoup plus avancés dans la compréhension de la situation. nous-mêmes (et pas seulement notre cerveau) et capable de contrôler les technologies qui pourraient potentiellement "être comme nous" (alias AGI ou ASI), je crois fermement que nous devons maintenir les humains dans la boucle, même si c'est moins efficace, plus lent ou plus coûteux. Sinon, nous risquons de nous engager sur la voie de la déshumanisation beaucoup plus vite que nous ne le pensons. Pro-action et précaution doivent être soigneusement étudiées et constamment équilibrées.
  3. Nous devons bannir la pensée à court terme et s'habituer à adopter une vision à la fois exponentielle et à long terme - tout en respectant le fait que les humains sont organiques (c'est-à-dire le contraire d'exponentiel). Comme nous l'avons mentionné plus haut, nous sommes sur le point de franchir la ligne magique où le rythme du changement s'emballe : 1-2-3 peut ressembler à 1-2-4, mais passer de 4 à 8 puis à 16 est très différent de passer de 3 à 4 puis à 5. Nous devons apprendre et nous entraîner à vivre de manière linéaire mais à imaginer de manière exponentielle ; une jambe dans le présent et une jambe dans l'avenir.
  4. Nous avons besoin de nouveaux "traités de non-prolifération". L'intelligence artificielle générale (AGI), la géo-ingénierie ou l'édition du génome humain sont à la fois des opportunités magiques et des menaces existentielles importantes (tout comme l'énergie nucléaire, diront certains), mais nous n'aurons probablement pas les moyens de les exploiter. le luxe de s'essayer à l'AGI et se remettre d'un échec. Un "explosion du renseignement"Le développement de l'intelligence artificielle pourrait bien être un événement irréversible, tout comme les modifications du génome humain dans la lignée germinale. Nous aurons donc besoin de normes collectives, contraignantes et tournées vers l'avenir, en commençant par un mémorandum international sur l'IAG. 
  5. J'ai parlé de la nécessité d'une "Conseil de l'éthique numérique" Ces cinq dernières années, j'ai beaucoup parlé de l'intelligence artificielle, à commencer par mon livre de 2016 intitulé "Technology vs Humanity" (La technologie contre l'humanité). De nombreux pays, États et villes ont commencé à mettre en place des organismes similaires ces derniers temps, comme le Conseil européen de l'intelligence artificielle de l'UE. Nous avons besoin de plus d'organismes de ce type, au niveau régional, national, international et mondial !

Nous voici donc en 2021, à cette bifurcation à la fois fatidique et pleine d'espoir. Il nous appartient à tous de choisir la bonne voie et de commencer à construire le "bon avenir".

Il n'est pas trop tard - gardez l'espoir, ayez du courage et poursuivez la sagesse !

12377

Points de vue


Tags

bulletin d'information

* indique le besoin
dernier livre