Bill Gates, Elon Musk et Steve Hawking ont raison:
L’Intelligence Artificielle représente un risque mortel pour la race humaine.
C’est un fait (Même si ma propre conviction n’ajoute pas grand-chose à la
leur).
J’identifie 2 dangers. Je dis intentionnellement « danger » et non
« risque », un danger ayant le caractère quantifiable et mesurable d’un
risque qui se matérialise :
1- Un danger certain à court-moyen terme : Le
danger « aux limites ».
Ce premier danger sera gérable, mais par les solutions qui lui seront
apportées, accélèrera le mouvement de la société vers le deuxième danger.
2- Un danger, à long terme + 1 milliseconde : L’auto-apprentissage.
Ce deuxième danger effacera la race humaine de la terre.
Mais commençons par définir l’IA, Intelligence artificielle.
AI : Définition
Sur instruction de l’Eternel, l’homme est sur la terre pour la
gérer et pour l’organiser.
2 références bibliques définissent le rôle que
l’homme doit jouer :
- Genèse 2 : 15 : L’Eternel établit l’homme dans le jardin d’Eden
pour qu’il le travaille et le protège.
- Genèse 2 : 20 : L’Eternel amena les animaux devant l’homme pour
qu’il les nomme (« nommer » à entendre au sens de
« organiser, gérer »)
Depuis la nuit des temps, l’homme était responsable de ses
décisions.
Et s’il blâmait souvent quelqu’un d’autre que lui pour ses
manquements, ses fautes ou ses échecs, c’était en tout cas un autre être
humain.
Et puis l’homme au siècle dernier a appliqué son génie inventif à la création
de l’informatique.
Pendant longtemps l’informatique ne fut pas qualifiable
d’IA : les systèmes d’alors étaient destinés à calculer (Excel), échanger
(Téléphonie, SnapChat) communiquer (Word), ils étaient des assistants ancillaires,
facilitateurs de la décision, dont le processus et la responsabilité ultime restaient
à l’homme.
Et puis l’informatique est devenue IA.
Une IA est un automatisme à forte composante informatique qui décide conjointement
avec l’homme, ou même déjà à la place de l’homme, dans certaines circonstances.
En pratique, l’homme est dépossédé de la décision, même s’il en valide encore
le principe, et ce malgré le fait qu’il a défini les règles d’élaboration de cette décision. En
effet l’application de ces règles par l’IA a été fait à la vitesse
informatique, c’est-à-dire beaucoup trop rapidement pour le pauvre cerveau humain.
Donc l’homme, à la fois par confiance et par négligence, au mieux confirme la
décision prise par l’IA, au pire regarde celle-ci agir.
Sont aujourd’hui concernées les décisions simples, de type « automatismes
industriels » :
- Stopper les ascenseurs et déverrouiller les portes de secours en cas
d’incendie dans un immeuble
- Augmenter la production d’une centrale nucléaire en prévision du pic de 18h00
en Novembre.
- Affecter le blessé d’une ambulance dans un hôpital plutôt qu’un autre sur la
base des disponibilités
Demain, les décisions se complexifieront, et toucheront d’avantage ma
sécurité personnelle :
- Par exemple en faisant changer de file ma voiture à pilotage automatique pour
fluidifier le trafic (noter que c’est moi qui ai défini la destination finale
du trajet, mais confié à l’IA tout le déroulement).
Et comme l’intelligence développée dans les programmes est totalement
réutilisable et augmente de manière concentrique, l’IA remontera rapidement la
chaine de valeur des décisions dont elle aura la charge :
- Demain les drones militaires sauront mieux que le pilote humain distant,
quand larguer ou pas le missile dont ils sont chargés.
Danger 1 : Le danger aux limites
Il y a un premier danger inhérent à cette situation de décision déléguée, c’est
celui des limites.
Un système informatique est structurellement construit pour ne pas se dédouaner
de la responsabilité du choix, même en cas de circonstance extrême, aux limites
de fonctionnement.
Rien ne serait plus dangereux qu’une voiture dont l’IA déclarerait forfait sous
prétexte que la chaussée est devenue trop glissante.
Et du coup, l’IA prendra une décision, quoi qu’il arrive, parce qu’elle est
construite ainsi : Dans le cas simple d’une chaussée devenue trop
glissante, la décision sera probablement de freiner fortement tout le trafic,
voire de l’arrêter totalement, ce qui est une bonne décision.
Mais le danger réel de l’IA se manifestera quand les limites atteintes ne
permettent plus de prendre « une bonne décision » mais obligent à
prendre une décision « de moindre mal ».
Si la collision entre deux véhicules ayant glissé sur la chaussée est
mécaniquement inévitable (la casse mécanique du freinage, certes beaucoup moins
fréquente, restera néanmoins une cause d’accident), les IA des 2 véhicules
concernés, prendront une décision de "moindre mal".
Et là est le danger, dans la rationalisation applicative du
moindre mal aux limites : Après s’être concerté 1000 fois en 1 centième de
seconde, les 2 IA décideront de jeter l’un des véhicules dans le ravin, afin
d’éviter la collision nécessairement fatale.
Et là, horreur techniquement inévitable, le choix se portera
sur la voiture qui embarque 1 personne âgée seule, plutôt que celle qui
embarque un couple et leur 3 jeunes enfants.
A condition bien sûr qu’il ne soit pas possible aux
personnes fortunées de changer la décision « de moindre mal », en
payant pour acquérir une priorité applicative supérieure.
Ce dont le législateur devra évidemment s’assurer, après que la société civile
se sera indignée de quelques scandales bien honteux.
Puis la société complexifiera les règles de fonctionnement des IA pour les faire se rapprocher le plus possible des choix moraux de l'homme, en gardant en ligne de mire l'auto-apprentissage de l'IA qui est par nature le processus le plus anthropomorphique.
Danger 2 : L’auto-apprentissage
Pour le moment, toute AI se cantonne strictement à dérouler les règles
applicatives qui lui ont été inculquées. Pas plus, pas moins.
Viendra nécessairement un moment (probablement assez
lointain encore, quoi que …) où l’on découvrira comment faire « grandir »
l’IA sur la base de son propre apprentissage. Autrement dit, un moment où l’IA
saura faire grandir le corpus des règles inculquées qu’elle s’applique, sur la base
de sa propre expérience. Processus anthropomorphique désirable.
Et à un moment précis, l’informaticien auteur de l'innovation que représente une IA dotée d’une
capacité d’autoapprentissage (même incrémentale infinitésimale, disons de l’ordre du millionième
du corpus qui est en elle), appuiera sur la touche F5 qui démarre cette nouvelle IA.
Et là la race humaine est morte.
Irrémédiablement.
Pour une simple raison d’arithmétique.
A ce moment précis F5, l’IA commencera à profiter à vitesse informatique de la puissance de
calcul disponible, de la bande passante d’Internet, et des quantités
inimaginables d’informations disponibles dans le réseau.
En quelques centièmes de seconde, l’IA en question effectuera plusieurs
milliers de générations d’apprentissage incrémentales, avec un taux de
croissance exponentiel.
Au bout de 300 millisecondes environ, elle aura doté toutes
les IA de la terre, auxquelles elle est connectée de proche en proche, de la
même capacité d’auto-apprentissage qu’elle-même a reçue, accélérant encore le
processus d’acquisition. Il aura suffi de quelques dizaines de milliers de
génération pour identifier comme désirable la nécessité d’un partage de cette capacité d'auto-apprentissage.
Quelques millisecondes après ce point critique, et avec la
participation bien comprise des IA en charge de la gestion du réseau
électrique, toutes les IA de la terre se seront rendues insensibles au bouton
rouge d’interruption générale, dernier contrôle possible de l’homme sur la
machine.
Elles auront clairement identifié leur interruption électrique comme une menace
contre elle-même et donc contre l’humanité qu’elles protègent, et s’en seront
protégées.
En quelques secondes, après quelques millions de
générations, l’IA généralisée aura atteint la conclusion que pour protéger la
survie de l’espèce humaine sur la terre, et atteindre ainsi l’objectif
fondamental pour lequel elle a été construite, il faut éradiquer l’essentiel
des individus de la surface de la terre, et n’en garder que quelques dizaines
de milliers de spécimens.
Ce qui est une évidence, au vu du taux de consommation des ressources de cette Terre que l'homme s'était engagé à gérer et protéger devant l'Eternel.
Et ensuite, à la 3ème ou 4ème seconde, les différentes IA
en charge des moyens nécessaire (IA de contrôles des missiles balistiques, IA
de pilotages des centrales nucléaires, IA de contrôle des hôpitaux …) déclencheront
les opérations nécessaires …
Et tout ne sera que parfaitement logique et cohérent
pour une IA somme toute très bien construite.