Accueil / Les systèmes d’intelligence artificielle : quelle responsabilité ?

Les systèmes d’intelligence artificielle : quelle responsabilité ?

Publié en ligne le 10 septembre 2020 - Intelligence Artificielle -

Quelles sont les responsabilités lors du recours à l’intelligence artificielle (IA) ? Cette question impose au juriste de faire une plongée dans le monde informatique pour comprendre en quoi consiste l’intelligence artificielle, ce mot-valise qui recouvre, en réalité, de nombreuses sciences et techniques informatiques, tant et si bien qu’il semble difficile d’utiliser ce terme au singulier, de même qu’il semble difficile de tracer une frontière précise entre celui-ci et d’autres mots-valises tels que, par exemple, Internet, algorithmes ou big data. Et faut-il seulement utiliser ce terme, alors que le créateur du très usité assistant vocal Siri vient d’écrire un ouvrage dont le titre, un tantinet provocateur, énonce que l’intelligence artificielle n’existe pas ?… [1]

Assurément, l’intelligence artificielle existe [2, 3], mais elle est fortement protéiforme. Elle est utilisée, par exemple, pour améliorer les soins de santé, rendre l’agriculture plus efficiente, augmenter l’efficacité des systèmes de production par la maintenance prédictive, ainsi que pour la sécurité des citoyens et encore de bien d’autres façons que nous commençons à peine à entrevoir.

Quelle définition de l’intelligence artificielle ?

© PhonlamaiPhoto | Istockphoto
© PhonlamaiPhoto | Istockphoto

Pour le groupe d’experts de haut niveau sur l’intelligence artificielle constitué par la Commission européenne en 2018 (appelé dans ce qui suit « Groupe d’experts »), les systèmes d’intelligence artificielle sont entendus comme « des systèmes logiciels (et éventuellement matériels) conçus par des êtres humains ([qui] peuvent aussi recourir à des techniques relevant de l’IA pour optimiser la conception de ces systèmes) et qui, ayant reçu un objectif complexe, agissent dans le monde réel ou numérique en percevant leur environnement par l’acquisition de données, en interprétant les données structurées ou non structurées collectées, en appliquant un raisonnement aux connaissances, ou en traitant les informations dérivées de ces données et en décidant de la (ou des) meilleure(s) action(s) à prendre pour atteindre l’objectif donné. Les systèmes d’IA peuvent soit utiliser des règles symboliques, soit apprendre un modèle numérique. Ils peuvent également adapter leur comportement en analysant la manière dont l’environnement est affecté par leurs actions antérieures » [4].

Cette définition met ainsi en lumière la diversité des systèmes d’IA et permet de considérer chacune des intelligences artificielles comme un assemblage potentiellement très varié de briques techniques sous-tendues par des présupposés scientifiques eux-mêmes variés.

Tous les systèmes d’IA finissent par être incorporés dans une machine : robot, véhicule, ordinateur, téléphone… et tous peuvent avoir un impact sur l’esprit ou le corps humains, voire sur les droits de la personnalité (par exemple le droit au respect de la vie privée). La question de la responsabilité lors du recours aux systèmes d’IA doit être considérée tout au long de leur cycle de vie : ce n’est pas seulement la sanction a posteriori de la réalisation d’un risque qui doit être prise en compte, mais également la responsabilisation en amont de toute la chaîne complexe des acteurs impliqués lors des phases de conception.

La place de l’humain

L’humain est au centre des systèmes d’intelligence artificielle à double titre : en tant qu’usager bénéficiant de ses services (ou les subissant) et en tant qu’acteur au cœur de leur conception et de leur fonctionnement.

L’humain en interaction avec les IA

© miriam-doerr | Istockphoto

Dans ses « lignes directrices en matière d’éthique pour une IA digne de confiance », le Groupe d’experts rappelle un point fondamental : « Certaines applications d’IA sont certes susceptibles d’apporter des avantages considérables aux individus et à la société, mais [elles] peuvent également avoir des incidences négatives, y compris des incidences pouvant s’avérer difficiles à anticiper, reconnaître ou mesurer (par exemple, en matière de démocratie, d’état de droit et de justice distributive, ou sur l’esprit humain lui-même). » En lisant ces lignes, il nous vient à l’esprit la formule de Yuval Noah Harari [5] : « Puisque nous pourrions être capables sous peu de manipuler nos désirs, la vraie question est non pas : “Que voulons-nous devenir ?”, mais “Que voulons-nous vouloir ?” Si cette question ne vous donne pas le frisson, c’est probablement que vous n’avez pas assez réfléchi. »

Ce faisant, le Groupe d’experts en appelle à « adopter des mesures appropriées pour atténuer ces risques le cas échéant de manière proportionnée à l’ampleur du risque » et, en se fondant sur les articles de la Charte des droits fondamentaux de l’Union européenne, à « accorder une attention particulière aux situations concernant des groupes plus vulnérables tels que les enfants, les personnes handicapées et d’autres groupes historiquement défavorisés, exposés au risque d’exclusion, et/ou aux situations caractérisées par des asymétries de pouvoir ou d’information, par exemple entre les employeurs et les travailleurs, ou entre les entreprises et les consommateurs ».

Prendre les mesures appropriées n’est cependant pas aisé et ce, au-delà même de la tension récurrente entre principe d’innovation et principe de précaution. La raison en est que tant les briques techniques utilisées que les personnes impliquées dans le fonctionnement d’un système d’IA sont nombreuses, variées et en interactions complexes.

L’humain au cœur du fonctionnement des systèmes d’IA

Au fondement des intelligences artificielles fonctionnant sur les techniques d’apprentissage se trouve tout d’abord du calcul statistique sur des grandes quantités de données (big data). Certes, il ne s’agit pas nécessairement que de données personnelles, mais ces dernières occupent une place particulière et font l’objet d’une réglementation de l’Union européenne [6].

L’humain apparaît ensuite au travers de ses rôles de conception, de supervision et de renforcement des systèmes d’IA. Plutôt que sur un véritable « biomimétisme », certains des concepts attachés à l’intelligence artificielle (en particulier les réseaux de neurones ou l’apprentissage automatique ou profond) reposent sur des emprunts terminologiques qui laissent à penser que l’intelligence artificielle est totalement autonome, à l’image de l’intelligence humaine. Ces emprunts terminologiques ont, ce faisant, pour effet de couvrir d’un voile une part de la réalité, à savoir que, tel le Turc mécanique, le célèbre automate joueur d’échec de la fin du XVIIIe siècle, les systèmes d’IA, pour leur fonctionnement, reposent sur une forte intervention humaine. Mais, à la différence du Turc mécanique cachant en réalité un authentique humain dissimulé dans la machine et jouant aux échecs, un certain nombre des systèmes d’IA d’aujourd’hui peuvent être autonomes une fois conçus, mais seulement une fois conçus.

C’est l’humain qui, en toute hypothèse, crée l’infrastructure d’un réseau de « neurones », procède à son « entraînement » en choisissant les jeux de données adaptés ou en orientant la composition des classifications et concourt à l’évolution du système tout au long de son cycle de vie. Ce faisant, ainsi que le rappelle la Commission nationale de l’informatique et des libertés (Cnil), « l’autonomie des systèmes d’IA est souvent surestimée » [7] et il convient plutôt de parler de systèmes « semi-autonomes » impliquant de nombreux acteurs.

Les différents types d’acteurs nécessaires au fonctionnement de chacun de ces systèmes sont très variés : développeurs, statisticiens, salariés, sous-traitants ou partenaires des opérateurs économiques qui déploient commercialement ces systèmes d’IA. Les usagers des systèmes d’IA ont également un rôle central, non seulement au travers des données les concernant qui sont collectées, mais également au travers des comportements divers de validation ou d’invalidation des recommandations algorithmiques formulées par le système (prise de décision opérée sur la base d’une recommandation, notation, captcha 1…).

Il faut également ne pas omettre les micro-travailleurs [8], tantôt travailleurs indépendants et tantôt salariés de l’opérateur qui déploie le système d’IA ou de l’un de ses sous-traitants, chargés de veiller au contrôle et à la correction a posteriori des comportements algorithmiques mis en œuvre et dont l’activité est l’un des prolongements modernes les plus marquants de la figure du Turc mécanique.

L’argument de la « boîte noire »

Le nombre et la variété des briques techniques utilisées ainsi que des personnes impliquées dans le fonctionnement d’un système d’IA entraînent de nombreuses interactions qui ne sont pas aisées à maîtriser et qui créent la tentation de mobiliser l’argument de la « boîte noire ».

© Jay Yuno | Istockphoto

À l’instar de chaque cerveau humain, chaque système d’IA serait une « boîte noire », dont il ne serait pas possible de comprendre le fonctionnement détaillé. D’où la tentation de proposer une déresponsabilisation des personnes juridiques, morales et physiques, ayant permis au système d’IA de fonctionner et la proposition corrélative d’une mise en jeu de la responsabilité du système d’IA lui-même, puisqu’il pourrait justement être assimilé à un cerveau humain éventuellement embarqué dans un corps de robot. C’est ce que suggérait déjà en 1950 l’écrivain Isaac Asimov dans son recueil de nouvelles intitulé I, Robot, traduit en français de manière approximative (au regard de l’intention de l’auteur) sous le titre Les robots. Et c’est ce que propose aujourd’hui l’avocat Alain Bensoussan avec la création d’un droit de la robotique fondée sur une « personnalité robot » analogue à celle de « personnalité morale » [9].

Il convient de constater à cet égard à quel point les propositions du Groupe d’experts prennent le contrepied de cette analyse. Rappelant que l’éthique est souvent tout à la fois une reformulation du droit existant et l’antichambre du droit futur, ce groupe formule un ensemble de propositions, à visées d’éthique et de robustesse technique des systèmes d’IA, repris au sein du Livre blanc sur l’intelligence artificielle de la Commission européenne en date du 19 février 2020 [3]. Ainsi, la confiance en un système d’IA, au regard des risques pour la démocratie, l’état de droit, la justice distributive (ou justice sociale) ou l’esprit humain, se doit de reposer sur une responsabilisation a priori des différents acteurs intervenant tout au long de son cycle de vie, qui passe, entre autre chose, par un objectif d’explicabilité de ses actions. Ainsi, par exemple, la justice distributive sera malmenée si des biais algorithmiques créent des discriminations fondées sur le genre qui entraînent des inégalités de traitement non souhaitables ; et il y aurait atteinte à l’esprit humain suite à l’enfermement de celui-ci dans des recommandations algorithmiques sur Internet de type filter bubble [10] qui le cantonnerait dans un ensemble d’informations sélectionnées en fonction de son profil.

En cas de dysfonctionnement du système, cette responsabilisation a priori est parfaitement complémentaire de la recherche d’une responsabilité a posteriori et s’intègre bien dans l’objectif de surveillance par l’humain du système d’IA.

Le Groupe d’experts formule ainsi sept exigences reprises au sein du Livre blanc. Elles sont relatives au facteur humain et au contrôle humain, à la robustesse technique et la sécurité, au respect de la vie privée et la gouvernance des données, à la transparence, à la diversité, la non-discrimination et l’équité, au bien-être sociétal et environnemental et à la responsabilisation. Et elles devraient avoir vocation à être mise en œuvre tout au long du cycle de vie d’un système d’IA.

© JIPGGutenbergUKLtd | Istockphoto

Ainsi, le Groupe d’experts s’éloigne-t-il de l’idée d’une confiance spontanément accordée à un système d’IA en vertu de la qualité de sa seule conception (confiance by design) et insiste sur une responsabilisation constante de chacun des acteurs tout au long du cycle de vie du système, de sa conception à son fonctionnement effectif et à son abandon définitif.

Cette idée de responsabilisation sur la durée démontre assurément l’influence de la logique du règlement européen sur la protection des données personnelles (RGPD [6]) au travers de la référence notable aux objectifs de respect de la vie privée, de gouvernance des données et, plus encore, au travers de la notion d’« accountability » précisément évoquée à l’article 5 et approximativement traduite par le terme de « responsabilité ». Plus que par le terme de responsabilité, cette notion pourrait être traduite par les notions de reddition de compte ou de responsabilisation. La reddition de compte renvoie à cet égard aux notions de contrat de mandat et plus généralement de représentation et s’impose au représentant à qui une personne représentée a donné pouvoir de faire quelque chose. Le représentant doit tenir le compte de l’ensemble de ses actions et être en mesure de les justifier auprès du représenté. Sa responsabilité suite à un problème n’est engagée que s’il est défaillant dans cette phase-là.

La surveillance par l’humain

Le Groupe d’experts place en premier objectif le contrôle par l’humain du système d’IA afin d’éviter que ce système « ne mette en péril l’autonomie humaine ou ne provoque d’autres effets néfastes ». Il précise à cet égard que « le contrôle peut être assuré en recourant à des mécanismes de gouvernance tels que les approches […] “human-on-the-loop” (l’humain supervise le processus) ou “human-in-command” (l’humain reste aux commandes ». Le premier désigne la capacité d’intervention humaine dans le cycle de conception du système et dans la surveillance de son fonctionnement. Le second désigne la capacité de reprise du contrôle de l’activité du système. Selon le Groupe d’experts, « cette faculté peut comprendre la décision de ne pas utiliser un système d’IA dans une situation donnée, de définir des marges d’appréciation pour les interventions humaines lors de l’utilisation du système ou d’ignorer une décision prise par un système ». Sont incluses dans cette possible reprise de contrôle les incidences économiques, sociétales, juridiques et éthiques au sens large.

Cet objectif semble innerver d’une certaine manière l’article 11 du projet de loi relatif à la bioéthique, tel que voté en première lecture par le Sénat le 4 février 2020, prévoyant d’insérer dans le Code de la santé publique un nouvel article L. 4001-3 ainsi rédigé [11] : « Lorsque, pour des actes à visée préventive, diagnostique ou thérapeutique, le professionnel de santé envisage de recourir à un traitement algorithmique, il en informe préalablement le patient et lui explique sous une forme intelligible la manière dont ce traitement serait mis en œuvre à son égard. Seules l’urgence et l’impossibilité d’informer peuvent y faire obstacle. La saisie d’informations relatives au patient dans le traitement algorithmique se fait sous le contrôle du professionnel de santé qui a recours au dit traitement. Aucune décision médicale ne peut être prise sur le seul fondement d’un traitement algorithmique. Les concepteurs d’un traitement algorithmique mentionné au premier alinéa s’assurent de la transparence du fonctionnement de l’outil pour ses utilisateurs. »

Le projet de loi tente ainsi, tout d’abord, de préserver la place du professionnel de santé lorsqu’il se fait épauler par un système d’IA et énonce clairement qu’aucune décision médicale ne peut être prise sur le seul fondement d’un traitement algorithmique. La rédaction proposée par le Sénat met ensuite en lumière le fait qu’un médecin sans compétence spécifique en informatique ne peut valablement être considéré comme l’humain supervisant le système et qu’il ne doit être considéré que comme un usager du système d’IA, à l’instar du patient.

Conclusion

La responsabilité des systèmes d’IA est une question complexe, s’agissant d’une technologie complexe et en plein développement. Elle ne peut pas être considérée sans prendre en compte l’intervention humaine tout au long du cycle de vie des systèmes. Des questions restent néanmoins non résolues à ce jour. Ainsi, par exemple, on ne sait pas bien assurer la transparence du fonctionnement d’un système d’intelligence artificielle, particulièrement quand il met en œuvre des algorithmes fondés sur l’apprentissage profond. Et, dans le cadre d’une interaction avec un opérateur humain, cette transparence sera-t-elle suffisante pour permettre une prise de décision éclairée sur la base d’une recommandation algorithmique ? //

Références


1 | Julia L, L’intelligence artificielle n’existe pas, First éditions, 2019.
2 | Villani C, « Donner un sens à l’intelligence artificielle : pour une stratégie nationale et européenne », rapport de la mission parlementaire remis le 8 mars 2018 au Premier ministre.
3 | Commission européenne, Intelligence artificielle. Une approche européenne axée sur l’excellence et la confiance, Livre blanc, 19 février 2020, COM(2020) 65.
4 | Groupe d’experts indépendants de haut niveau sur l’intelligence artificielle, « Définition de l’IA », Commission européenne, avril 2019.
5 | Harari YN, Sapiens : une brève histoire de l’humanité, Albin Michel, 2015.
6 | Règlement (UE) 2016/679 du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données.
7 | CNIL, « L’intelligence artificielle, nouvelle étape de la société numérique », Rapport d’activité 2018, p. 29.
8 | Casilli A, En attendant les robots, Enquête sur le travail du clic, postface Méda D, Seuil, La couleur des idées, 2019.
9 | Bensoussan A, « Le droit naturel, fondement juridique de la personne-robot ? », Les blogs du Figaro, 10 juillet 2018. Sur blog.lefigaro.fr
10 | Pariser E, The Filter Bubble : What the Internet Is Hiding from You, Penguin Press, 2011.
11 | Projet de loi relatif à la bioéthique, tel que voté en première lecture par le Sénat le 4 février 2020 de la santé publique. Sur senat.fr

Intelligence artificielle et santé
© Ekkasit919 | Istockphoto

« L’intelligence artificielle (IA) est un domaine de recherche en pleine expansion et promis à un grand avenir. Ses applications, qui concernent toutes les activités humaines, permettent notamment d’améliorer la qualité des soins. L’IA est en effet au cœur de la médecine du futur, avec les opérations assistées, le suivi des patients à distance, les prothèses intelligentes, les traitements personnalisés grâce au recoupement d’un nombre croissant de données (big data), etc.

Les grands domaines d’application de l’IA en médecine sont : médecine prédictive (prédiction d’une maladie ou de son évolution), médecine de précision (recommandation de traitement personnalisé), aide à la décision (diagnostique et thérapeutique), robots compagnons (notamment pour les personnes âgées ou fragiles), chirurgie assistée par ordinateur, prévention en population générale (anticipation d’une épidémie, pharmacovigilance). »

Source
Inserm, « Intelligence artificielle et santé : des algorithmes au service de la médecine ». Sur inserm.fr

Intelligence artificielle et agriculture

© Ekkasit919 | Istockphoto

« Comme dans d’autres domaines, l’intelligence artificielle a le pouvoir de révolutionner le monde de l’agriculture. Les progrès réalisés depuis quelques années en analyse d’images devraient faciliter le diagnostic automatique de maladies sur les végétaux et les animaux, comme c’est le cas en médecine humaine, et permettre la supervision automatique des cultures (stades de croissance, état des sols, carences). Comme la voiture autonome, des robots agricoles, terrestres ou aériens, pourront réaliser ces analyses et des algorithmes

d’IA décider de l’action à mener, en adoptant des traitements à une échelle très locale, minimisant l’utilisation de produits phytosanitaires. L’IA devrait aussi permettre d’optimiser la gestion d’une entreprise agricole pour maximiser les revenus issus de la vente des produits agricoles. Toutes les données de l’agriculture numérique, de la biologie végétale et animale pourront aussi être croisées, comme le fait IBM avec Watson en médecine, pour mieux identifier les facteurs génétiques qui peuvent améliorer les résistances aux stress et à la sécheresse, et guider ainsi la sélection de nouvelles variétés. »

Source
Agri Sud-Ouest Innovation et l’Inra, communiqué de presse, 3 mars 2017

1 Test de Turing automatique ayant pour but de différencier les humains des ordinateurs.

Publié dans le n° 332 de la revue


Partager cet article


L' auteur

Juliette Sénéchal

Juliette Sénéchal est maître de conférences en droit privé à l’université de Lille (CRD&P, équipe René (...)

Plus d'informations

Intelligence Artificielle

L’intelligence artificielle (IA) suscite curiosité, enthousiasme et inquiétude. Elle est présente dans d’innombrables applications, ses prouesses font régulièrement la une des journaux. Dans le même temps, des déclarations médiatisées mettent en garde contre des machines qui pourraient prendre le pouvoir et menacer la place de l’Homme ou, a minima, porter atteinte à certaines de nos libertés. Les performances impressionnantes observées aujourd’hui sont-elles annonciatrices de comportements qui vont vite nous échapper ?