voilacestdit

voilacestdit

La révolution de l'IA : un défi. (II) Une Intelligence Autre

Suite...



J’ai brièvement rendu compte dans le billet précédent de la conférence que Yuval Noah Harari a donnée au Centre des congrès de la Villette à l’occasion de la sortie de son dernier livre Nexus, une brève histoire des réseaux d’information, de l’âge de pierre à l’IA.

 

Mon propos ici n’est pas de résumer Nexus, tâche au demeurant fort ardue, tant l’ouvrage, d’une intelligence folle, est riche, complexe et détaillé (cependant d’une lecture assez aisée) :

 

— surprenant récit qui nous fait redécouvrir des pans entiers de l’histoire de l’humanité vue sous l’angle original d’une analyse des réseaux d’information, de l’âge de pierre… à l’IA; envisageant l’information comme un nexus, un vecteur de lien social, qui permet de mieux comprendre certains aspects de cette histoire, la mythologie, la bureaucratie; comment les royaumes de l'Antiquité jusqu'aux régimes actuels, démocratie, totalitarisme se sont construits par les réseaux d'information, conçus d’abord comme des réseaux de coopération, puis des armes de pouvoir; le problème des informations erronées et des fake news; la possibilité de mécanismes d’autocorrection etc. 

 

Mon objectif dans ce billet et les suivants est de reprendre certains des concepts exposés dans Nexus, pour tenter d’éclairer notre compréhension de l’IA et prendre la dimension des défis auxquels nous sommes confrontés.

 

L’une des premières questions que je me pose à propos de l’IA concerne le type d’intelligence que ces machines dites intelligentes développent. On parle couramment d’intelligence artificielle

 

Pour rappel, artifice signifiait jadis :  “art consommé, habileté dans l'exécution”, “moyen habile, ingénieux”;  artificiel : “qui est dû à l'art, qui est fabriqué”; “qui imite la nature, qui n'est pas naturel”. L’intelligence artificielle semble imiter de fait la nature, en l’occurrence l’intelligence humaine, mais n’est pas l’intelligence humaine; c’est une intelligence autre.

 

En quoi est-elle autre ? Rien de mieux, à ce stade (je reviendrai après à mon sujet) que de poser la question à l'IA ChatGPT herself. Voici sa réponse, obtenue instantanément! (moins de 30 secondes pour écrire le texte) :



ChatGPT : «L'intelligence artificielle (IA) et l'intelligence humaine diffèrent en plusieurs points fondamentaux :

 

Origine et fonctionnement :

 

  • IA : Conçue et programmée par des humains, l'IA utilise des algorithmes, des réseaux neuronaux et de l'apprentissage automatique pour traiter de grandes quantités de données, détecter des modèles, et accomplir des tâches précises.
  • Intelligence humaine : Elle est biologique et résulte de l'évolution. Les capacités humaines émergent d'un cerveau complexe, incluant la conscience, l'intuition et une compréhension contextuelle profonde.

 

Capacités d'apprentissage :

 

  • IA : Elle apprend à partir de données préexistantes et d'entraînement. L'IA dépend de la quantité et de la qualité des données pour améliorer ses performances, et elle est limitée dans les types de problèmes qu'elle peut résoudre.
  • Intelligence humaine : Les humains apprennent de diverses manières (expérience, observation, intuition), peuvent apprendre à partir de peu d'exemples et faire face à des situations nouvelles ou ambiguës.

 

Adaptabilité et créativité :

 

  • IA : Elle est efficace pour des tâches spécifiques et répétitives mais manque de vraie créativité. Sa capacité d'innovation est limitée aux modèles qu'elle a appris.
  • Intelligence humaine : Les humains peuvent inventer, créer, imaginer et résoudre des problèmes de manière flexible, même sans informations complètes ou exactes.

 

Conscience et émotions :

 

  • IA : Elle n'a ni conscience ni émotion ; elle peut simuler des réponses émotionnelles, mais sans réelle compréhension. Elle agit sans ressentir.
  • Intelligence humaine : Les humains sont conscients de leur existence, de leurs émotions, de leurs valeurs et de leur subjectivité, ce qui influence leurs décisions et leur compréhension.

 

Jugement éthique et valeurs :

 

  • IA : Elle suit des règles programmées, et toute tentative de prendre en compte des aspects éthiques repose sur la programmation faite par des humains. L'IA manque d'une vraie compréhension morale.
  • Intelligence humaine : Les humains prennent des décisions qui tiennent compte de leurs valeurs, leur morale, leur culture, et ont la capacité de juger la bienveillance ou la malveillance de leurs actes.

 

En résumé, l’IA excelle dans le traitement rapide et efficace d’énormes volumes de données dans des tâches spécifiques, tandis que l’intelligence humaine est complexe, adaptative, créative et consciente, capable de jugements éthiques et de profondes compréhensions contextuelles.»



À couper le souffle! ou plutôt l’intellect! Le texte est concis, synthétique, bien écrit; l’essentiel est dit.

 

[Je me demande comment font les professeurs en classe pour détecter la copie ChatGPT… À leur place, plutôt que de traquer le devoir copié, j’inciterais les élèves à travailler avec ChatGPT comme base de documentation, à partir de laquelle leur apprendre à mener une réflexion personnelle…]

 

Ce qui m'importe ici, c'est de comprendre en quoi l'IA est une intelligence autre, et ce que cela implique. Les machines IA peuvent être supérieurement intelligentes (capables de brasser, ordonner infiniment plus de données que l’intelligence humaine peut faire); mais, et c'est un point essentiel, pour supérieures qu'elles soient, elles n’ont pas de conscience. Chez les humains, l'intelligence va de pair avec la conscience. Il n'est pas besoin de conscience pour prendre des décisions et créer de nouveaux contenus (IA générative type ChatGPT...), — mais hors conscience, pas de connaissance de la valeur morale des actes produits.

 

La caractéristique essentielle de l'IA, c'est la capacité d'une machine à apprendre et à prendre elle-même des décisions, soit; mais quid des conséquences de certaines décisions, si l'humain n'entre pas dans la boucle ? La perspective est terrifiante. Êtes-vous prêts à confier la décision d'appuyer sur le bouton rouge qui déclenche la bombe atomique à une machine, aussi intelligente soit-elle, bien plus intelligente que nous, mais seulement intelligente, —et sans trop savoir comment elle a été entraînée à prendre une décision, sur quelles bases ?

 

Les IA sont des intelligences autres parce qu'elles ne sont pas couplées avec une conscience; et cela pose la question de la responsabilité. Être responsable, c'est être en capacité de répondre de ses actes, d'en assumer les conséquences possibles. Je crains que les machines IA n'aient rien à répondre quant aux conséquences possibles de leurs actes au-delà du champ assigné.

 

Ce problème de l'incidence des décisions des algorithmes est fondamental quand ceux-ci commencent à façonner des secteurs entiers de l'activité humaine (éducation, santé, mobilité, arts etc.), la vie quotidienne même (smartphones, réseaux sociaux etc.), parfois à notre insu. Comment l'humain va-t-il garder le contrôle? Un défi à examiner de près...

 


                                                                                                                                                  À suivre



16/11/2024
3 Poster un commentaire

A découvrir aussi


Inscrivez-vous au blog

Soyez prévenu par email des prochaines mises à jour

Rejoignez les 104 autres membres