La révolution de l'IA : un défi. (III) Comprendre
“Ne pas railler, ne pas déplorer, ne pas maudire, mais comprendre.”
(Spinoza, Éthique)
Les machines IA, on se les représente souvent sous la forme de robots capables d’interagir avec leur environnement, comme par exemple — tout le monde en a entendu parler — les robots humanoïdes qui, au Japon, assistent les personnes âgées; mais les chatbots comme ChatGPT, capables de répondre à des questions et de créer des contenus; les voitures autonomes; les systèmes d’incitation qui suggèrent des contenus basés sur nos préférences etc. sont aussi des machines IA.
L’IA repose sur des algorithmes avancés qui permettent à la machine d’exécuter des tâches incluant des activités comme la compréhension du langage naturel; la prise de décision; la résolution de problèmes; ou encore l'apprentissage à partir de données, sous différentes formes : apprentissage automatique (machine learning), apprentissage par renforcement (la machine apprend par essais et erreurs), apprentissage profond (deep learning), qui utilise des réseaux de neurones artificiels à plusieurs couches pour analyser des données complexes, comme les images ou les textes etc.
On peut considérer que tout cela, finalement, ce n'est pas de l’«intelligence» au sens où on parle d’intelligence humaine (question de vocabulaire) — en attendant, le terme IA est entré dans le langage commun, et surtout, là est le problème, tous ces algorithmes in fine sont en passe de façonner des secteurs entiers de l’activité humaine (santé, transports, finances, commerce etc.), la vie quotidienne même (smartphones, réseaux sociaux etc.) — mieux vaut en être conscient et comprendre les défis que cela représente.
Les publicités ciblées, par exemple, on connaît, ça importune, mais peu importe, on peut s’en garder. D’autres algorithmes sont plus problématiques : je pense, par exemple, aux algorithmes qui font le tri de candidats lors de recrutements : sur quelles données ont-ils été entraînés? quel but leur a-t-on donné? quid pour Parcoursup?
Amazon a ainsi essayé en 2014-2018 (je tire ce cas de Nexus) de développer un algorithme capable de sélectionner les candidats à l’embauche. Tirant les leçons de candidatures antérieures infructueuses, l’algorithme se mit à déclasser systématiquement des demandes pour la simple raison qu’elles contenaient le mot “femme” ou que le candidat avait obtenu ses diplômes dans une université pour femmes. Puisque les données existantes indiquaient que, par le passé, de telles candidatures avaient eu moins de chances d’aboutir — l’algorithme en fit une vérité objective (les candidats qui obtiennent leurs diplômes dans une université pour femmes sont moins qualifiés) et imposa dans la foulée un parti pris misogyne… Amazon abandonna finalement son projet.
(Concernant Parcoursup, le site officiel prend soin de préciser que Parcoursup «n'examine pas les candidatures, ne procède à aucun classement de candidature. Pour l’analyse des vœux des candidats, ce sont les enseignants des établissements du supérieur qui organisent des commissions d’examen des vœux et font très concrètement l’examen des dossiers, établissent les classements et choisissent les candidats à qui des propositions d’admission seront envoyées par l’intermédiaire de Parcoursup.»)
J’en reviens aux algorithmes, — en quoi ils peuvent être problématiques. Il y a la question des données (éventuellement biaisées, ou mal interprétées) qui nourrissent l’algorithme. Mais il y a aussi la question du but qui a été assigné à l’algorithme, et de la manière dont l’algorithme peut lui-même décider de procéder pour atteindre le but fixé — ceci pouvant avoir une influence non contrôlée sur d’autres événements.
Illustration de ce cas (développé aussi dans Nexus), qui donne à réfléchir : la manière dont les algorithmes de Facebook ont contribué à attiser les violences perpétrées contre la minorité musulmane des Rohingyas au Myanmar (Birmanie) en 2016-2017. Ces vagues de violences sectaires ont été en grande partie inspirées par de fausses informations diffusées par des extrémistes sur FB (réseau social qui, en 2016, constituait la principale source d’information de millions de Birmans). Problème : ces fake news ont été répétées, amplifiées à l’infini, un vrai raz-de-marée — cela non du fait des extrémistes, mais du fait des algorithmes de FB qui décidèrent de leur propre chef de recommander à tout-va ces publications haineuses.
Pourquoi ces recommandations? Les algorithmes étaient-ils racistes? Non. Facebook dégagea sa responsabilité. Mais ce sont bien les algorithmes de FB qui ont décidé par eux-mêmes de mettre en avant ces publications incitant à la haine — Pourquoi? Parce que le modèle commercial de FB reposait sur la maximisation de l’«engagement des utilisateurs», c’est-à-dire du temps que ces derniers passaient sur la plateforme, — FB collectant plus de données, vendant davantage d’espaces publicitaires, gagnait plus d’argent en fonction de l’accroissement de ce temps… Via un processus d’essais et d’erreurs, les algorithmes avaient observé que les publications incendiaires généraient de l’engagement; ainsi et, sans le moindre ordre explicite venu d’ailleurs, ils avaient décidé de promouvoir ce type de contenus.
Le point crucial, c’est que les algorithmes ont fait exactement ce qu’on leur demandait : maximiser l’engagement des utilisateurs. Pour atteindre ce but, ils ont décidé par eux-mêmes d’une stratégie (inonder le réseau de fausses informations et de contenus outranciers) — mais cette stratégie s’est révélée lourde de conséquences (propager la haine).
Le problème fondamental qui est posé, c’est celui de l’alignement du but fixé avec le bien ultime (le système de valeurs sociétal). Les machines IA peuvent adopter de manière autonome des stratégies que nous ne sommes pas en mesure de prévoir ni de prédire, donc de réguler. Cela peut entraîner des conséquences aussi dangereuses qu’imprévues, qui ne seront pas alignées avec les buts humains de départ.
À mesure que les algorithmes seront investis d’un pouvoir sans cesse plus grand en matière de santé, d’éducation, de maintien de l’ordre etc., le problème de l’alignement sera de plus en plus crucial. Ce dernier point mérite d'être repris avec attention...
À suivre…
Inscrivez-vous au blog
Soyez prévenu par email des prochaines mises à jour
Rejoignez les 104 autres membres