L’éthique des chatbots

En novembre 2021 le Comité National Pilote Pour l’Ethique du Numérique (CNPEN), créé sous l’égide du Comité Consultatif National d’Ethique, a publié un document relatif aux agents conversationnels aussi appelés « chatbots ».

Le CNPEN a émis treize préconisations, et dix principes de conception pour encadrer le développement et l’usage de ces outils. On y trouve par exemple la préconisation n°2 : Affirmer le statut des agents conversationnels, la recommandation pour le chatbot d’exprimer clairement qu’il n’est pas un humain pour éviter toute confusion chez l’utilisateur. Doit-il le dire au début de la « conversation » ou le rappeler régulièrement ?

On y trouve aussi, de façon plus étonnante, préconisation 11 : mener une réflexion sociétale avant toute réglementation des « deadbots » et préconisation 12 : encadrer techniquement les « dead-bots », des préconisations sur les « deadbots », cette fonctionnalité qui permet de « faire parler les morts ». A partir de conversations passées et de leur analyse il est en effet possible de « simuler » la présence d’un être disparu, en le faisant s’exprimer comme il le faisait du temps de son vivant.

Les préconisations 9 et 10 (Respecter les personnes vulnérables et analyser les effets des agents conversationnels couplés à des mesures physiologiques) ont pour but de mettre en garde contre la puissance excessive de ces outils qui sont non seulement capables de converser sur le fond du sujet, mais seront aussi capables de mesurer les émotions de l’utilisateur et d’adapter les réponses (ou questions) en conséquence. D’abord développées dans un but thérapeutique, ces applications ouvrent la possibilité de manipulation à des fins soit commerciales soit idéologiques.

Les principes de conception

Les « principes de conception » quant à eux seront sûrement utiles mais le premier d’en eux : « Éthique par conception des agents conversationnels » qui dit « Les concepteurs d’un agent conversationnel doivent analyser, en phase de conception, chacun des choix technologiques susceptibles de provoquer des tensions éthiques. Si une tension potentielle est identifiée, ils doivent envisager une solution technique visant à diminuer ou à faire disparaître la tension éthique, puis évaluer cette solution dans des contextes d’usage réalistes. » n’est-il pas un vœu pieux ? Tout nouveau produit ne crée-t-il pas des « tensions éthiques » ? Comment y répondre ?

Ne devrait-on pas préconiser que les entreprises développant ces agents conversationnels se dotent de comité d’éthique faisant appel à des personnes externes à l’entreprise sans lien ni conflit d’intérêt ? Ne serait-ce pas à intégrer dans une démarche de Responsabilité Sociale de l’Entreprise ?

Une autre piste possible serait d’aller plus loin dans la normalisation à l’image de ce qui vient d’être fait par la Commission Européenne, avec la publication des DSA (Digital Service Act) et DMA (Digital Marketing Act) qui visent à réguler les plateformes internet.

Quoiqu’on en pense il convient de s’informer et s’éclairer en lisant l’avis de CNPEN : Avis N°3 agents conversationnels enjeux d’éthique.pdf

retour au dossier technologies

à consulter sur le sujet

ccne
academie pontificale sciences
DSE doctrine sociale