L’effet Dunning-Kruger[1] ou ultracrépidarianisme[2] (mot que l’on doit au critique littéraire anglais William Hazlitt [1778-1830]) est ce que l’on appelle communément, l’excès de confiance en soi !
Ce phénomène, qui n’est pas purement français, je vous rassure, est le comportement de ceux qui s’expriment sur des sujets pour lesquels ils n’ont aucune expertise, et là, je me sens mal tout à coup…
Dunning et Kruger, deux psychologues américains expliquent cette propension à s’exprimer sur tous les sujets par une difficulté métacognitive à sonder sa propre ignorance et donc à connaître ses limites intellectuelles. C’est parce que je n’ai pas conscience que ce que je dis n’est pas un savoir, mais une idée, une perception, un présentiment, voire une connaissance erronée ou hâtive, que je me crois en droit de m’exprimer sur tout et rien.
Inversement, ces chercheurs ont également constaté le phénomène inverse chez les sachants et les savants[3], cette fâcheuse tendance à sous-estimer leur savoir ou à considérer qu’il est un savoir commun !
Ce biais psychologique peut-il concerner l’IA ?
Entendons-nous d’abord sur la notion d’intelligence (je vais devoir être réducteur, désolé !) L’intelligence serait l’ensemble des fonctions mentales ayant pour objet la connaissance conceptuelle et rationnelle ou l’aptitude d’un être humain à s’adapter à une situation, à choisir des moyens d’action en fonction des circonstances.
L’intelligence ne serait donc pas le produit de notre capacité à penser, réfléchir, anticiper, mais les aptitudes de l’outil que nous sollicitons pour aboutir à ce que nous envisageons comme la meilleure solution. Mais que sollicitons nous exactement ?
D’un point de vue purement rationnelle, on se doit de répondre prioritairement : nos sens. C’est notre réseau Internet à nous les humains, nos nerfs notre world wide web, notre cerveau notre ordinateur et nos fonctions cognitives et toutes les autres nos logiciels. Quid de notre système d’exploitation ?
Où se trouve notre humble Big Data ? la question reste posée, malgré les nombreuses avancées des sciences cognitives et des neuro-sciences, la pensée humaine n’a toujours pas livré tous ses secrets.
Nous savons qu’une pensée génère un champ électromagnétique (elle consomme et génère de l’énergie) de type ondes Alpha – Bêta – Gamma – (Delta et Thêta concernant davantage les phases de sommeil ou de méditation). Nous savons qu’une pensée active en général, plusieurs zones ou aires cérébrales. Il en existe 52, désignées comme aires de Brodmann. Nous savons enfin, que nos savoirs mémorisés ne se trouvent pas localisés dans un endroit précis de notre crane, mais qu’ils seraient des réseaux neuronaux qui s’activeraient ou se désactiveraient en fonction de la sollicitation cérébrale. Une pensée serait alors la conjugaison de fonctions cérébrales travaillant ensemble et qui, alimentées par des données qu’elles reçoivent de nos sens et de notre mémoire, activeraient des réseaux neuronaux ad hoc, et les feraient converger pour l’élaborer : notre algorithme ?
La pensée ne serait pas le produit d’une fulgurance cérébrale, mais elle serait un tout sensoriel, une globalité organique et cognitive dont notre conscience ne percevrait que la terminaison.
Reconnaissez que dit comme cela, l’IA nous apparait bien plus familière. Ce qui risque de vous déstabiliser davantage, ce sont les récentes déclarations de scientifiques qui affirment que nos pensées relèvent des mêmes lois que celles qui prévalent au niveau subatomique, nos pensées seraient quantiques[4], intriquées, ubiques, oscillantes et superposées.
« Notre cognition humaine est a priori complètement indéterminée face à certaine situation. Elle ne se détermine qu’au moment où la cognition rencontre une situation particulière. C’est seulement à ce moment-là que quelque chose cristallise [s’imprime] et qu’on exprime une certaine disposition à agir, qui n’était pas actualisée jusque-là. Donc le modèle quantique qui considère qu’on est en superposition d’état, semble plus puissant pour expliquer le fonctionnement de la pensée humaine. C’est un nouveau paradigme de la compréhension de nos comportements humains [5]».
Poursuivons. La société américaine D-Wave[6] commercialise depuis 5 ans le premier ordinateur quantique[7]. Ses premiers clients sont Google, la Nasa, des sociétés de sécurité de haut niveau, etc…
Elle se targue d’avoir créé un « Q’omputer » capable de gérer 5000 Qubits.
Là où l’informatique traditionnelle d’Alan Turing fonctionne avec des bits qui sont soit des 0 ou des 1, l’ordinateur quantique, qui utilise la superposition d’état de l’électron, génère simultanément 2 valeurs, 0 et 1, mais qui ne seront sollicitées ou révélées, que quand on aura besoin d’elles. Donc au lieu d’une seule solution, 0 ou 1, au risque de me répéter, le Qubit offre 4 solutions superposées 00 01 10 et 11.
On comprend mieux l’intérêt de cette technologie quand on arrive à 30 Qubits, ce sont plus d’un milliard de solutions possibles simultanément. Imaginez un peu : Le D-Wave 2X® était un ordinateur de 2000 Qubits, et la toute dernière génération est annoncée à 5000 Qubits ! Incommensurable. Percevez-vous la vitesse et la puissance de calcul ?
D-Wave affirme avoir réalisé en 3 minutes avec ses ordinateurs, des calculs qui prendraient plus de 10 ans aux ordinateurs actuels les plus puissants…
Alors projetons nous encore plus loin. Imaginez la convergence de l’IA et de l’ordinateur quantique. Vitesse de traitement, utilisation simultanée de milliards de données, adaptabilité extrême, que restera-t-il au cerveau humain ? Notre intuition ?
Cette intuition qui semble nous être propre, serait-elle un état superposé, non conscient, de notre pensée ou un état non sélectionné par notre mécanique cérébrale ? Et notre sens commun ?[8] Et les décisions que nous prenons par affect ? L’IA serait-elle capable d’en disposer ou d’agir de façon non rationnelle ?
Yann Lecun[9], scientifique français, prix Turing en 2019, est partagé sur le sujet. Il répond par la positive en ce qui concerne le sens commun, mais doute qu’un jour une IA puisse prendre une décision autre que mesurée et méthodique.
Peut-être est-ce trop tôt pour tenter de répondre à ces questions, mais je crois qu’il n’est pas trop tôt pour y « penser ».
Et l’effet Dunning-Kruger dans tout cela me direz-vous ! Ai-je perdu, dans mes digressions ultracrépidarianiques, le but initial de cet article ? Absolument pas !
L’IA est faite pour apporter une réponse, classer, reconnaître extrapoler, elle doit apporter une réponse, elle est programmée pour cela. Alors que fera-t-elle face à l’inclassable, à l’inconnu, à l’exceptionnel ?
Allons-nous lui apprendre, au-delà d’un pourcentage d’occurrence ou de certitude, à dire : je sais que je ne sais pas !
Derrière cette réflexion qui peut paraître futile aux yeux du plus grand nombre, se cache en réalité une question qui préoccupe l’ensemble des acteurs de l’IA : la responsabilité des fournisseurs de ces solutions en cas d’erreur !
A suivre : Anthropomorphisme et « techno morphisme », des androïdes au transhumanisme
[1] Journal of Personality and Social Psychology vol. 77, n°6 décembre 1999, p. 1121-34
[2] Issu de la locution latine « Sutor, ne supra crepidam » « Cordonnier, pas plus haut que la chaussure »
[3] « C’est la mémoire qui fait les uns, et la philosophie qui fait les autres » Alexandre Dumas
[4] Science et Vie n°1177
[5] http://www.quantum-marketing.io/blog/notre-pensee-est-elle-quantique
[6] https://www.dwavesys.com/quantum-computing
[7] https://www.science-et-vie.com/technos-et-futur/ordinateur-quantique-comment-ca-marche-59112
[8] https://datasciencetoday.net/index.php/fr/deep-learning/173-les-reseaux-de-neurones-convolutifs