Quels enjeux autour des outils conversationnels tels Chat GPT ?

De quoi parle-t-on ?

Le 30 novembre 2022, un simple message a annoncé : « Vous pouvez maintenant utiliser ChatGPT ». En quelques heures plus d’un million de personnes de tous pays ont essayé ce nouveau robot conversationnel.

Il a « appris » à « converser » en lisant des milliards de textes venant des livres ou d’internet. Il ne reproduit pas des phrases en direct, mais les construit de façon principalement statistique. Un exemple ci-dessous d’une « conversation » montre combien le langage parait assez naturel … et donc pertinent :

 

Ma question : mon fils de douze ans refuse de faire ses devoirs ce soir. Que faire ?

Réponse ChatGPT : Voici quelques conseils qui peuvent aider à résoudre ce problème :

  1. Établir des attentes claires : Discutez avec votre enfant des attentes en matière de devoirs et de temps de travail. Assurez-vous qu’il comprenne leur importance pour son apprentissage et son avenir.
  2. Écoutez ses préoccupations : Demandez à votre enfant s’il a des préoccupations ou des difficultés avec ses devoirs. Essayez de comprendre ses perspectives et aidez-le à trouver des solutions à ses problèmes.
  3. Établir une routine : Établissez une routine régulière pour les devoirs, en veillant à ce que votre enfant ait suffisamment de temps pour se détendre après l’école.
  4. Offrir de l’aide : Proposez de l’aide ou des ressources supplémentaires si votre enfant a besoin d’aide pour comprendre les tâches à accomplir.
  5. Considérer des conséquences positives et négatives : Discutez avec votre enfant des conséquences positives et négatives de faire ou de ne pas faire ses devoirs. Par exemple, terminer les devoirs peut permettre de se détendre et de jouer plus tard, alors que ne pas les faire peut entraîner des problèmes à l’école.

Ces conseils peuvent vous aider à gérer cette situation, mais il est important de maintenir une communication ouverte et de travailler en étroite collaboration avec votre enfant pour trouver une solution satisfaisante pour toutes les parties impliquées.

 

Ma réponse : pourquoi ne pas le punir en le privant de jeux vidéos ?

Réponse ChatGPT : Le fait de priver un enfant de jeux vidéo en tant que punition peut être un moyen de faire passer un message, mais cela peut également entraîner des conséquences négatives. En effet :

  1. Cela peut renforcer la mauvaise attitude envers les devoirs : Si les jeux vidéo sont considérés comme une récompense pour avoir terminé les devoirs, l’enfant peut considérer les devoirs comme une corvée et se détourner encore plus de ces tâches.
  2. Cela peut affecter négativement la motivation de l’enfant : Si les jeux vidéo sont considérés comme une source importante de plaisir et de distraction pour l’enfant, le fait de les priver peut nuire à sa motivation pour faire ses devoirs et d’autres tâches.
  3. Cela peut altérer la relation entre les parents et l’enfant : Si le fait de priver l’enfant de jeux vidéo est vécu comme une forme de punition sévère, cela peut nuire à la confiance et à la communication entre les parents et l’enfant.

Il est préférable d’utiliser des conséquences positives pour encourager les comportements souhaités, tels que la reconnaissance des efforts et la mise en place de récompenses pour les devoirs accomplis. Il est également important de maintenir une communication ouverte avec l’enfant pour comprendre les difficultés qu’il rencontre avec ses devoirs et pour aider à les résoudre.

Les réponses sont assez stéréotypées mais le robot ne perd pas le fil et répond à chaque sollicitation avec pertinence en conservant le contexte. On voit aussi que les réponses ne sont nullement neutres mais empreintes de valeurs ou d’une idéologie : « la coopération c’est bien, la punition c’est dangereux ». De fait au-delà du traitement purement statistique qui aligne des mots sans en comprendre le sens et qui est généré à partir de ce qui a nourri l’algorithme, une couche de contrôle et d’orientation a été ajoutée.

Les deux principales limitations de ChatGPT à ce jour sont, d’une part, qu’il n’est pas connecté en direct à Internet, ce qui lui interdit de prendre en compte les publications et évènements récents, et d’autre part que l’approche principalement statistique n’exclut pas l’émission d’erreurs manifestes. La première limitation (accès direct à internet) devrait disparaître ou se réduire rapidement, la deuxième (erreurs manifestes) ne sera jamais totalement résolue puisque par nature l’intelligence artificielle garde toujours une zone d’incertitude.

Les applications de ChatGPT seront nombreuses tout comme les effets pervers ou les risques que cela comporte.

Les étudiants pourront (peuvent déjà) lui demander d’écrire tout ou partie de leurs devoirs (Science Po l’a déjà interdit). Les développeurs informatiques peuvent d’ores et déjà faire appel à ce générateur pour écrire ou optimiser les programmes à leur place. Les réponses aux consommateurs pourront être faites automatiquement. Les avis juridiques pourraient être rédigés par l’IA en s’appuyant sur la jurisprudence.

Problèmes de véracité, de responsabilité, de triche, de simulation de l’humain, de disparition de fonctions … les enjeux éthiques ne manquent pas.

Dans quel environnement économique ?

Ce langage a été créé par une société à but non lucratif à l’image de Wikipedia, OpenAI (qui veut dire Intelligence Artificielle Ouverte), largement financée par des investisseurs privés dont Elon Musk, Peter Thiel et Microsoft. Sa charte est depuis 2018 :

« La mission d’OpenAI est de veiller à ce que l’intelligence artificielle générale (IAG), c’est-à-dire des systèmes hautement autonomes qui surpassent les humains dans les travaux les plus utiles sur le plan économique, profite à toute l’humanité. Nous essaierons de construire directement des IAG sûres et bénéfiques, mais nous considérerons également que notre mission est remplie si notre travail aide les autres à atteindre ce résultat. À cette fin, nous nous engageons à respecter les principes suivants :

Nous nous engageons à utiliser toute influence que nous obtenons sur le déploiement de l’IAG pour nous assurer qu’elle est utilisée dans l’intérêt de tous et pour éviter de permettre des utilisations de l’IA ou de l’IAG qui nuisent à l’humanité ou concentrent indûment le pouvoir,

…/…Nous coopérerons activement avec d’autres institutions de recherche et politiques ; nous cherchons à créer une communauté mondiale travaillant ensemble pour relever les défis mondiaux d’IAG. Nous nous engageons à fournir des biens publics qui aident la société à naviguer sur la voie de l’IAG. »

Les enjeux sont clairement exprimés, et les intentions sont, a priori, irréprochables. L’attention est aujourd’hui avant tout portée par OpenAI sur le fait de ne pas nuire. Il s’agit principalement d’éviter tout propos injurieux, haineux, raciste, sexiste, discriminant une communauté… On peut se demander si ces efforts n’amènent pas OpenAI à définir unilatéralement de nouvelles règles morales qui seront directement intégrées à son produit tout en restant non explicites (voit exemple ci-dessus).

Cette société à but non lucratif a néanmoins laissé place à une société commerciale classique compte tenu des moyens financiers colossaux à mettre en œuvre. Microsoft s’est déjà engagé à injecter dix milliards de dollars, moyennant à la fois un retour sur investissement espéré, mais surtout un accord privilégié pour l’utilisation de l’outil. Google a presque aussitôt réagi en promettant son propre outil, Bard. L’enjeu de l’intégration de ce type d’outil aux moteurs de recherche, qui représentent l’immense majorité des revenus de Google, est tel que l’on peut craindre que les belles ambitions éthiques initiales soient rapidement sacrifiées sur l’autel du profit.

Quelles réponses éthiques apporter ?

Le CNPEN (Comité National Pilote d’Ethique du Numérique) avait émis en septembre 2021 un avis sur les agents conversationnels, qui nous avait été commenté par Alexei Birnbaum et insistait déjà sur l’émergence annoncée de Chat GPT. La mise à disposition au grand public de ces outils repose de façon accrue la question de leur contrôle, de la formation à leur usage, de l’évaluation de leur responsabilité.

Doit-on laisser la main aux entreprises créatrices de ces outils, Microsoft puis Google ou encore Baidu, le concurrent chinois avec son produit Ernie. Nous sommes sans doute plus confiants dans Microsoft que dans Baidu car il est plus proche de notre culture, mais est-ce pour autant un bon directeur de conscience ?

Est-ce aux Etats de réagir et réguler ? Mais n’auront-ils pas toujours une longueur de retard et la réglementation, le contrôle, la limitation sauront-ils venir à bout de cette innovation incessante qui apporte de nouveaux services. En revanche il faut espérer que les acteurs politiques et économiques sauront anticiper et accompagner les évolutions sociales que cela va générer.

Enfin, peut-on espérer que l’éducation familiale, scolaire, associative ou religieuse prenne le relais et s’empare de ces outils, non pour les autoriser ou les interdire, mais pour les apprivoiser et en faire un objet de développement et non d’asservissement ?