L’intelligence artificielle générative, telle ChatGPT, et la parole des machines

Dans la série des séminaires ouverts « Innovation et Société » organisés par le pôle Société du Service National Famille et Société de la CEF, une rencontre-débat s’est tenue le 16 juin 2023 avec Alexei Grinbaum [1] sur l’actualité et les enjeux des intelligences artificielles dites « génératives », telles que ChatGPT. Un extrait de l’enregistrement est disponible ici:

En avril 2022, Alexei Grinbaum et Laurence Devillers nous avaient déjà parlé des chatbots et des questions éthiques posées par leur utilisation, suite à l’avis N°3 du CNPEN « Agents conversationnels, enjeux d’éthique », dont ils étaient les rapporteurs. Il s’agissait à ce moment-là des chatbots « déterministes », c’est-à-dire dont les réponses obéissent à des règles précises définies à l’avance (pour renseigner des clients par exemple).

Depuis 2017 environ, les chercheurs travaillaient sur de nouvelles architectures de systèmes basées sur la complétion de phrases en s’appuyant sur les « transformers », méthode consistant à décomposer les textes en groupes élémentaires de signes, appelés « tokens » (jetons), comme par exemple « to », en dehors de toute signification à l’échelle humaine. Cette approche s’est révélée efficace pour produire des mots et des phrases par agrégation statistique de tokens, à partir du moment où on peut calculer un nombre suffisant de corrélations (qui se comptent en centaines de milliards), à partir de tout ce qui a nourri l’algorithme grâce à un « auto-apprentissage » [2] et à une architecture informatique appelée « réseaux de neurones » [3].

Le 30 novembre 2022 le grand public et les entre­prises découvraient cette nouvelle approche, dite IA générative, par un court message de la société OpenIA : « Vous pou­vez maintenant utiliser ChatGPT » (sigle formé de Chatbot et de GPT, Generative Pretrained Transformer). En quelques heures plus d’un million de personnes ont essayé ce nouveau robot conversationnel, et prenaient conscience des potentialités immenses et redou­tables de cette nouvelle application de l’IA [4].

ChatGPT3, comme ses concurrents, a « appris » à « converser » en absorbant des milliards de textes issus de livres ou d’internet. Ce logiciel ne repro­duit pas des phrases, il les construit, sans en comprendre le sens. Le résultat est cependant « bluffant » !

Mais cet outil est une véritable « boite noire » qui peut générer des effets pervers en proposant des informations erronées, appelées « hallucinations », d’où le qualificatif parfois utilisé d’« affabulateur ». Des parades sont progressivement mises au point via des règles de filtrage et de contrôle des réponses pour améliorer leur qualité ou interdire certains propos, violents ou racistes par exemple. Pour autant il est à ce stade impossible de faire totalement confiance aux réponses fournies. La version ChatGPT4 disponible depuis Mars 2023 produit beaucoup moins de fakes grâce au choix d’OpenAi d’augmenter l’apprentissage par « renforcement avec retour humain » pour mieux contrôler les textes que la machine va produire (ce qui peut malgré tout introduire de nouveaux biais). Par ailleurs les développements actuels portent, au-delà des textes et des images, sur la fabrication de séquences vidéo pour disposer d’une version multimodale de GPT.

Les étudiants peuvent avoir recours à GPT pour écrire tout ou partie de leurs mémoires. Les program­meurs peuvent s’en servir pour écrire ou optimiser des codes informatiques (c’est-à-dire des programmes). Les avis juridiques pourraient être rédi­gés en s’appuyant sur la jurisprudence. Le champ d’application est immense, à condition d’appren­dre à formuler les requêtes et de considérer et utiliser les réponses avec un certain esprit critique.

Des questions éthiques

L’utilisation des IA génératives soulève des ques­tions d’éthique, de responsabilité, de tricherie, sans parler des conséquences potentielles sur l’emploi et le marché du travail… Leur généralisation peut concerner tel­lement de domaines d’application, qu’il devient indispensable de fixer des limites et des règles. C’est le cas en médecine par exemple. Autant les systèmes experts à base de règles ou les outils d’IA de reconnaissance de cas typiques et déjà identifiés peuvent aider au diagnostic, autant les IA génératives ne devraient être utilisées que pour préparer les rapports qui seront ensuite relus et signés par les médecins.

Des questions anthropologiques

ChatGPT et ses concurrents permettent de créer un langage non humain. La question fondamentale est celle à terme de pouvoir distinguer les paroles humaines et les paroles générées par des machines. Alexei Grinbaum souligne que « La condition humaine évolue sous l’influence des machines parlantes, il est impossible d’arrêter cette évolution ni de revenir en arrière […] le besoin de maintenir la distinction homme-machine au niveau de la parole est loin d’être une évidence ». Par ailleurs, si c’est bien l’homme qui a créé les machines capables de parler, l’utilisation de ces mêmes machines aura une influence directe sur notre façon de parler. Or elles parlent de manière « lisse», sans profondeur. Jusqu’où nous influenceront-elles ?

Cette boite noire ne connait pas de langue particulière, elle peut parler toutes les langues, en utilisant les textes qu’on lui a présentés. La culture et les valeurs pouvant être véhiculées découle des textes qui lui ont été soumis et de l’apprentissage par renforcement. La machine ne crée pas, elle fabrique des mots et des phrases grammaticalement correctes. Seuls les humains sont capables de leur trouver ou de leur donner un sens.

Bernard Jarry-Lacombe et Thierry Sergent

[1] Physicien et philosophe, Alexei Grinbaum est directeur de recherche au CEA-Saclay. Membre du Comité national pilote d’éthique du numérique (CNPEN), il est aussi expert auprès de la commission européenne et l’auteur de :

Parole de machines – Dialoguer avec une IA, HumenSciences, mai 2023

et de Les robots et le mal – Ne diabolisons pas les machines, Desclée De Brouwer, 2019.

 

[2] Il s’agit d’un apprentissage auto-supervisé par lequel le système s’entraîne lui-même en masquant certains mots ou parties d’image qu’il doit reconstituer, l’apprentissage s’achevant quand la machine retrouve les mots ou les parties d’images qui ont été cachées.

[3] appelés ainsi par une analogie, datant des années 1950, avec le cerveau humain. Il s’agit de « neurones » modélisés sous forme informatique, qui ont vraiment pu être utilisés à partir des années 2000, quand on a disposé d’une puissance de calcul suffisante.

[4] cf l’article Quels enjeux autour des outils conversationnels tels Chat GPT ? publié le 15 février 2023 sur le site Innovation et société https://eglise.catholique.fr/sengager-dans-la-societe/innovation-et-technologies/537556-quels-enjeux-autour-des-outils-conversationnels-tels-chat-gpt/