Je viens de tomber sur l'écrivain et journaliste californien Scott Allan Morrison (qui vient apparemment de lancer son nouveau livre, intitulé "Terms of Use"), et cette déclaration m'a vraiment touché : "Il n'y aurait rien de mal à cela si nous pouvions être absolument certains que les entreprises qui contrôlent cette technologie n'agissent que dans notre intérêt. Mais si ce n'est pas le cas, nous pourrions tous être manipulés par des systèmes puissants que nous ne pourrions pas comprendre. Certains universitaires ont même brandi le spectre de l'ingénierie techno-sociale et se sont demandé si nous n'étions pas en train d'entrer dans une ère où "les humains deviennent semblables à des machines et programmables de manière omniprésente"
Ce mème a vraiment touché une corde sensible en moi : et si nous faisions deviennent programmables ? Lire la suite : L'ingénierie techno-sociale fait peur aux initiés (via Boing Boing)
Et si l'un des grands réseaux sociaux commençait à proposer des vérifications d'antécédents permettant de prédire et de classer l'aptitude des candidats à l'emploi sur la base de l'ensemble des données de chaque candidat, que ces informations soient "publiques" ou non ? Beaucoup d'entre nous commencent à utiliser des des ordinateurs à notre poignet. Que se passerait-il si votre compagnie d'assurance pouvait combiner vos données biométriques avec vos antécédents médicaux et votre profil génétique et était capable, par exemple, de prédire que vous avez dix fois plus de risques que la moyenne de subir une crise cardiaque ? Votre assureur pourrait-il un jour vous imposer un certain mode de vie afin de minimiser son risque financier ? Un autre contact, qui travaillait pour une agence gouvernementale (il n'a pas pu dire laquelle), a proposé une version différente mais tout aussi effrayante. Tôt ou tard, a-t-il prédit, nous comprendrons tous que nous ne pourrons plus dire, rechercher, parcourir, acheter, aimer, regarder ou écouter quoi que ce soit sans que nos actions et nos pensées ne soient découpées en tranches, en dés et broyées par de puissants systèmes d'analyse. Et que se passera-t-il alors ? Effrayés et peut-être un peu effrayés, commencerons-nous à remettre en question chacun de nos gestes ? Allons-nous autocensurer notre discours et notre comportement pour éviter d'être étiquetés ? Les entreprises à but lucratif qui dominent l'internet insistent sur le fait que la confiance de leurs utilisateurs est d'une importance capitale pour elles. Pourtant, ce sont souvent ces mêmes entreprises qui ne cessent de déplacer les bornes de la vie privée et de réécrire leurs conditions d'utilisation (ou de service) pour s'assurer qu'elles bénéficient d'une grande latitude et d'une protection juridique étendue pour utiliser nos données comme elles l'entendent. Oui, certains de ces scénarios semblent assez farfelus. Mais pas pour certains des initiés de la Silicon Valley que je compte parmi mes amis et mes contacts. Ils comprennent les conséquences - certainement mieux que moi - d'une mauvaise utilisation de ces puissantes technologies. Et je n'aurais pas pu écrire Conditions d'utilisation sans eux.
Et si l'IA devenait exponentiellement meilleure pour comprendre le langage, la visualité et les données non structurées ?
Que se passe-t-il si L'expérience d'informatique quantique de Google deviendra-t-elle réalité dans un avenir proche ?