Intelligence artificielle

Données scientifiques et juridiques

Le dernier rapport[1] sur « l’Intelligence artificielle » (IA) de la Commission Nationale Informatique et Li­bertés (CNIL) de décembre 2017 souligne que l’IA est le « grand mythe de notre temps » et que sa défi­nition reste très imprécise. Quand on parle d’IA, on pense aux publicités ciblées sur internet, aux objets connectés et à l’internet des objets, aux traitements de données massives et hétérogènes sorties d’une enquête, aux machines numériques et aux robots humanoïdes capables d’apprentissage et d’évolu­tion, aux véhicules autonomes, aux interfaces cer­veau-machine et aux algorithmes.

Les algorithmes sont en quelque sorte les « sque­lettes de nos outils informatiques ». Ils sont des systèmes d’instructions permettant à la machine numérique de fournir des résultats à partir des don­nées fournies. Ils sont à l’œuvre lorsqu’on utilise sur Internet un moteur de recherche, ou bien lorsqu’on propose un diagnostic médical à partir de données statistiques, mais aussi pour choisir un itinéraire en voiture et sélectionner des informations sur les ré­seaux sociaux en fonction des goûts des réseaux d’amis. Les algorithmes appartiennent au concep­teur et restent très souvent méconnus des utilisa­teurs. Ils deviennent capables de tâches de plus en plus complexes grâce à la puissance de calcul qui s’accroît de manière exponentielle et grâce aux tech­niques d’apprentissage automatique (réglage auto­matique des paramètres d’un algorithme pour qu’il produise les résultats attendus à partir des données fournies). « L’apprentissage profond » rencontre ain­si de nombreux succès. Il permet déjà de reconnaître des images et des objets, d’identifier un visage, de pi­loter un robot dit intelligent …

Les liens entre neurosciences et IA sont à la base du projet européen Human Brain Project dont l’un des objectifs est de simuler le comportement du cer­veau humain. On peut aussi utiliser l’IA pour mieux comprendre des maladies neuronales comme des troubles compulsifs ou des dépressions. Il s’agit donc de construire des machines dites intelligentes à la fois pour piloter des systèmes évolutifs et pour participer à la compréhension du cerveau humain.

La loi Informatique et libertés du 6 janvier 1978, modifiée régulièrement depuis, dit que « l’informa­tique doit être au service de chaque citoyen…ne doit porter atteinte ni à l’identité humaine, ni aux droits de l’homme, ni à la vie privée, ni aux libertés indi­viduelles ou publiques ». Elle définit notamment les principes à respecter pour la collecte, le traitement et la conservation des données personnelles. Elle précise les pouvoirs et capacités de sanction de la CNIL. Le nouveau règlement européen sur la protec­tion des données personnelles (RGDP), adopté le 27 avril 2016, entre en fonction le 25 mai 2018 dans les États membres de l’Union Européenne pour renfor­cer la régulation juridique. C’est pourquoi un projet de loi (n. 490) a été déposé à l’Assemblée nationale le 13 décembre 2017.

Pour beaucoup, l’IA est une formidable occasion à saisir en termes d’économie de la connaissance. Ses apports dans les domaines de la médecine, de la robotique, de l’apprentissage et des sciences notam­ment sont déjà considérables. Mais comment appri­voiser l’IA pour qu’elle soit vraiment au service de tous ?

Questions que cela pose

Parmi les craintes et les risques les plus exprimés, on trouve les problèmes de suppression d’emplois avec les robots. On constate aussi une méfiance, voire une « perte d’humanité » devant la « boite noire » que représentent les algorithmes « qui nous gouvernent », sur Internet, sur les réseaux sociaux, dans le e-commerce et jusque dans notre vie privée. Mais ces algorithmes pourraient aussi gouverner le médecin et l’employeur qui se reposeraient sur eux pour prendre leurs décisions. « Qui contrôle quoi ? », telle est la question souvent soulevée. Ainsi on se demande quels sont les « biais » par lesquels les jugements sont portés pour recruter un em­ployé grâce à l’IA, avec suspicion de discrimination.

Outre la protection des données personnelles, les grandes questions du rapport CNIL sont :

  •  Devant la puissance des machines, comment appréhender les formes de dilution de respon­sabilités dans les décisions ? Jusqu’où peut-on ac­cepter « l’autonomie des machines » qui peuvent décider pour nous ?
  • Comment faire face au manque de transpa­rence des algorithmes quant aux biais qu’ils uti­lisent pour traiter les données et « décider des résultats » ?
  • Comment appréhender cette nouvelle classe d’objets que sont les robots humanoïdes suscep­tibles de conduire

Quel statut donner aux robots dits intelligents, et quelles conséquences au niveau juridique en terme de responsabilité en cas de problème ?

Devant les risques d’une forme possible de « dicta­ture de la technologie numérique » plus ou moins in­visible, le rapport de la CNIL plaide pour deux prin­cipes fondateurs pour l’éthique de l’IA :

  • loyauté collective (pour la transparence et l’utili­sation démocratique des algorithmes par exemple) ;
  • vigilance/réflexivité par rapport à l’autono­mie des machines et aux biais qu’elles propagent ou génèrent, afin que l’homme ne « perde pas la main » sur l’IA.

Visées anthropologiques et étiques

Poser la question du statut des robots est signifiant d’un « trouble » introduit par l’IA concernant le rap­port que l’homme entretient avec ses « machines apprenantes ». Une résolution du Parlement euro­péen encourage les recherches sur l’octroi du sta­tut de « personne électronique » à certains robots[2].

Cette expression juridique relativiserait la notion de personne, qui s’enracine dans la dignité de l’être hu­main[3]. L’expression « robot cognitif », par exemple, serait préférable. Cependant, jusqu’où les capacités des machines pourront-elles se rapprocher de celles des humains, puis les dépasser ? Certains transhu­manistes extrêmes attendent ce moment où l’IA dépassera l’intelligence humaine, sorte de « singu­larité » à partir de laquelle une fusion homme-ma­chine constituera un « cyborg » qui prendra la suite de l’homo sapiens !

Sans entrer dans de tels fantasmes, des célébrités comme Stephen Hawking, Bill Gates et Elon Musk ont plusieurs fois fait part de leurs inquiétudes sur l’IA[4]. Ils expriment leur peur que les machines ap­prenantes nous contrôlent, car elles auront des compétences statistiques et combinatoires bien su­périeures aux nôtres ainsi qu’un accès à des bases de données gigantesques que l’homme ne peut traiter directement. C’est essentiellement sur l’as­pect calculatoire que la puissance des machines nu­mériques est aujourd’hui appréhendée. Seule cette forme d’intelligence est en jeu, alors que l’homme a de nombreuses formes d’intelligence (rationnelle, émotionnelle, artistique, relationnelle, …). Certes, on comprend que les puissants calculateurs per­mettent à la machine de trouver les combinaisons pour battre les champions du jeu de Go. Cepen­dant, l’IA se situe aujourd’hui sur le terrain de la si­mulation. Or, il y a un seuil entre « simuler » une émotion et l’éprouver. L’émotion, avec sa dimension communicationnelle, conduit l’homme qui l’éprouve à attribuer une valeur aux choses à partir de la­quelle il pose des choix de vie quotidienne. L’émo­tion exprime la richesse de l’homme vulnérable. La machine apprenante n’en est pas là ! L’IA huma­nise-t-elle ? Elle est de fait un « pouvoir » qui doit être soumis au discernement face à la fragilité et la vulnérabilité comme sources d’humanisation. De même, il est impossible de comparer la conscience humaine (existentielle, psychologique et morale) avec une éventuelle conscience des machines[5].

À propos de l’IA, l’idée est souvent répandue que « penser, c’est calculer ». Cela entraîne bien des confusions. L’homme, doté d’une intelligence faite pour la vérité et la sagesse, a un autre registre de pensée beaucoup plus varié, vaste et subtil[6]. Notre conscience se situe dans un corps façon­né par des millions d’années d’évolution, avec de belles capacités de raison, de création, de vie psy­chique et de profondeur spirituelle, qui vont bien au-delà des combinatoires les plus sophistiqués.

Certains soulignent qu’au lieu de pointer les risques d’une intelligence calculatoire et combi­natoire des machines, il est plus urgent de rendre publiques les valeurs que les concepteurs d’algo­rithmes introduisent dans leurs logiciels. La trans­parence des algorithmes est une véritable ques­tion de fond. Leur conception a-t-elle toujours pour visée l’amélioration du soin et le service de la dignité humaine?

RÉFÉRENCES BIBLIOGRAPHIQUES POUR CONTINUER LE TRAVAIL

IA, Promesses et péril, Cahier du Monde n. 22696, 31 décembre 2017-2 janvier 2018.

Frédéric Alexandre et Serge Tisseron, « Où sont les vrais dangers de l’IA ? », in Les robots en quête d’humanité, Pour la Science, n. 87, avril-juin 2015, p.102-107.

Milad Doueihi et Frédéric Louzeau, Du matéria­lisme numérique, Hermann, 2017.

Serge Abiteboul et Gilles Dowek, Le temps des algo­rithmes, Le Pommier, 2017.

2 février 2018

———————————————————-

[1] Comment permettre à l’homme de garder la main ?, Rapport de la CNIL, publié le 15 décembre 2017.

[2] http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+TA+P8-TA-2017-0051+0+DOC+PDF+V0//FR

[3] La notion de « personne morale » ne permet pas d’ambiguïté. Par ailleurs, elle n’est pas reconnue par toutes les traditions juridiques.

[4] Voir Alexandre Picard, « L’intelligence artificielle, star inquiétante du web summit à Lisbonne », Le monde économie, 10 novembre 1017.

[5] Voir par exemple Mehdi Khamassi et Raja Chatila, « La conscience d’une machine », in Les robots en quête d’humanité, Pour la Science, n° 87, avril-juin 2015. Cf. Vatican II, constitution Gaudium et spes, n. 16 ; Déclaration Dignitatis humanae, n. 1-3 ; Jean-Paul II, encyclique La splendeur de la vérité, 6 août 1993, n. 31-34.

[6] Cf. Vatican II, constitution Gaudium et spes, n. 15 ; Jean-Paul II, encyclique Foi et raison, 14 septembre 1998, n. 16-33.

Sur le même thème

  • Église et bioéthique (8)

    Don de gamètes

    Fiche proposée par le groupe de travail « bioéthique », de la Conférence des évêques de France. Télécharger la fiche « Don de gamètes », en PDF Téléchargez toutes les fiches « bioéthique » en PDF États des lieux Le « don de gamètes » est l’apport fait à un couple par un tiers de ses propres gamètes de telle […]

  • recherche embryon humain

    Recherche sur l’embryon humain

    Fiche proposée par le groupe de travail « bioéthique », de la Conférence des évêques de France. Télécharger la fiche « Recherche sur l’embryon humain », en PDF Téléchargez toutes les fiches « bioéthique » en PDF Eléments scientifiques et juridiques : La mise en œuvre des techniques de fécondation in vitro conduit à la conception d’embryons hu­mains dont certains […]

  • 19

    Gestation pour autrui

    Fiche proposée par le groupe de travail « bioéthique », de la Conférence des évêques de France. Télécharger la fiche « Gestation pour autrui », en PDF Téléchargez toutes les fiches « bioéthique » en PDF État de la question La Gestation pour autrui (GPA) est le nom donné à la technique dite des « mères porteuses ». Elle […]

  • 16

    Assistance médicale à la procréation ou AMP

    Fiche proposée par le groupe de travail « bioéthique », de la Conférence des évêques de France. Télécharger la fiche « Assistance médicale à la procréation », en PDF Téléchargez toutes les fiches « bioéthique » en PDF Données scientifiques et juridiques :  L’Assistance Médicale à la Procréation ou Pro­création Médicalement Assistée (PMA) désigne les pratiques visant à la […]

  • Église et bioéthique (5)

    Utilisation des biotechnologies sur les cellules embryonnaires et germinales humaines

    Fiche proposée par le groupe de travail « bioéthique », de la Conférence des évêques de France. Télécharger la fiche « utilisation des biotechnologies sur les cellules embryonnaires et germinales humaines », en PDF Téléchargez toutes les fiches « bioéthique » en PDF Les données actuelles aussi bien scientifiques que juridiques L’OCDE définit les biotechnologies comme « l’appli­cation de la science […]

  • 23

    Mégadonnées (Big Data)

    Fiche proposée par le groupe de travail « bioéthique », de la Conférence des évêques de France. Télécharger la fiche « Mégadonnées », en PDF Téléchargez toutes les fiches « bioéthique » en PDF Eléments scientifiques et juridiques Le Comité International de Bioéthique (CIB) de l’UNESCO a adopté un rapport sur les mégadon­nées le 15 septembre 2017, qui constitue une syn­thèse […]

  • Thérapie génique germinale

    Thérapie génique germinale

    Fiche proposée par le groupe de travail « bioéthique », de la Conférence des évêques de France. Télécharger la fiche « Thérapie génique germinale », en PDF Téléchargez toutes les fiches « bioéthique » en PDF Éléments scientifiques et juridiques : Il existe deux types de thérapie génique : somatique et germinale. La thérapie génique somatique consiste à agir sur certaines cellules non reproductives […]

  • Interactions biologie-psychisme

    Interactions biologie-psychisme

    Fiche proposée par le groupe de travail « bioéthique », de la Conférence des évêques de France. Télécharger la fiche « Biologie psychisme », en PDF Téléchargez toutes les fiches « bioéthique » en PDF Données scientifiques et juridiques Dans le monde scientifique, on a l’habitude de pen­ser les états psychiques à partir de leur enracine­ment biologique, parfois même […]

  • 18

    Fin de vie

    Fiche proposée par le groupe de travail « bioéthique », de la Conférence des évêques de France. Télécharger la fiche « Fin de vie », en PDF Téléchargez toutes les fiches « bioéthique » en PDF Éléments scientifiques et juridiques : Depuis 1999, le législateur développe trois axes : l’accès aux soins palliatifs, la coresponsabilité médecin-patient, la prévention de l’acharnement thérapeutique. Les soins palliatifs […]

  • Don d'organes

    Dons d’organes

    Fiche proposée par le groupe de travail « bioéthique », de la Conférence des évêques de France. Télécharger la fiche « Don d’organes », en PDF Téléchargez toutes les fiches « bioéthique » en PDF Éléments scientifiques et juridiques : Les pratiques de greffes d’organes se sont beaucoup développées depuis les années 1950, grâce aux découvertes permettant de remédier au phénomène de rejet […]

  • Comprendre les enjeux des Etats généraux de la bioéthique

    Comprendre les enjeux des États généraux de la bioéthique

    En 2017, l’Assemblée plénière des évêques de France, réunie à Lourdes, a approuvé la mise en place d’un groupe de travail sous la responsabilité de Mgr Pierre d’Ornellas, archevêque de Rennes en vue des États généraux de la bioéthique. Avec Mgr Pierre d’Ornellas travailleront Mgr Hervé Gosselin, évêque d’Angoulême, Mgr Nicolas Brouwet, évêque de Tarbes […]

7mvbtfTa_400x400

Fiches du groupe de travail "bioéthique"

Glossaire

Capture
PMA (procréation médicalement assistée) : pratiques cliniques et biologiques visant à remédier à l’infertilité du couple ou à éviter la transmission d’une maladie d’une particulière gravité.
GPA (gestation pour autrui) : le fait, pour une femme, de porter et de mettre au monde un enfant pour le compte d’un tiers.
CELLULES SOUCHES EMBRYONNAIRES : issues de l’embryon à un stade très précoce et douées de deux capacités : celle de se multiplier à l’infini et celle de donner naissance à tous les types de cellules de l’organisme (pluripotence).
(Source : INSERM)
CRISPR-Cas9 (clustered regularly interspaced short palindromic repeat) : « ciseaux génétiques » permettant d’éditer l’ADN d’une cellule somatique ou germinale. Cet outil cible une zone spécifique de l’ADN et la coupe. Cela permet ensuite de corriger ou modifier la séquence ciblée.
(Source : CNRS)
INTELLIGENCE ARTIFICIELLE : théories et techniques « consistant à faire faire à des machines ce que l’homme ferait moyennant une certaine
intelligence ». On distingue IA faible (IA capable de simuler l’intelligence humaine pour une tâche déterminée) et IA forte (IA générique et autonome qui pourrait appliquer ses capacités à n’importe quel problème).
(Source : CNIL)
BIG DATA (« données massives ») : conjonction entre d’immenses volumes de données et les nouvelles techniques permettant de traiter ces données, voire d’en tirer par le repérage de corrélations des informations inattendues.
(Source : CNIL)