L’intelligence artificielle et la justice

L’intelligence artificielle et la justice

 

L’hiver de l’intelligence artificielle est terminé. Voici venu le moment où la grande capacité de calcul des ordinateurs et un accès inédit à une masse formidable de données (big data) facilitent l’émergence d’outils d’intelligence artificielle (IA) susceptibles de modifier les équilibres socioéconomiques contemporains. L’intelligence artificielle n’est pas un phénomène tout à fait nouveau. Dès après la deuxième guerre mondiale, avec Alan Turing notamment, on évoque cette capacité de la machine à reproduire le raisonnement humain. Les avancées récentes permettent aujourd’hui d’envisager une introduction importante de l’intelligence artificielle dans une multitude de secteurs de l’activité humaine : du robot qui effectue certaines tâches précises au programme de jeu de Go ou d’échec en passant par l’algorithme qui vous propose des lectures ou la voiture autonome. Mais quelle est la définition de l’Intelligence artificielle? Il serait hasardeux de vouloir définir cette expression. À tout le moins, établissons une distinction entre les outils d’IA qui s’articulent exclusivement autour de la gestion et du traitement de l’information, un algorithme haute fréquence dans le domaine de la finance, par exemple, et ceux qui, bien qu’ayant recours à l’information, se matérialisent concrètement sous la forme d’objets, comme la voiture autonome ou le robot qui procède à une chirurgie. Cette distinction élémentaire nous permet d’apprécier les incidences juridiques et les questions de politiques publiques respectives de ces outils.

L’apprentissage machine (machine learning) et l’apprentissage profond (deep learning) sont aujourd’hui au centre de ces importants développements, mais ils ne constituent qu’une facette de l’IA. Comme il est précisé plus haut, la vitesse des ordinateurs et un accès à une masse colossale de données font de ces techniques la pointe avancée de l’IA. L’actualité récente bruisse des effets et incidences de l’IA sur l’emploi, la finance, la santé, le droit etc. Il convient bien entendu de raison garder, mais on pressent des changements importants. Or il importe de s’assurer que ces changements se fassent dans le meilleur intérêt de tous et que les disruptions induites par l’IA n’entraînent pas une dégradation des conditions socioéconomiques pour une fraction de la population ou des atteintes démesurées aux droits. Des politiques publiques doivent être élaborées afin d’assurer que l’IA réponde aux impératifs du bien commun, de l’éthique et puisse servir l’intérêt public. Or les défis posés par l’IA sont fort nombreux. Sans prétendre à l’exhaustivité, examinons rapidement quelques effets ou conséquences induits par celle-ci dans le champ de la seule justice. On comprendra qu’il s’agit là d’un simple survol et que ces questions demandent des développements autrement plus importants.

On peut d’abord affirmer qu’une approche strictement éthique de l’IA apparaît insuffisante en raison du caractère très fluide de l’éthique et de son absence de sanction. Un cadre régulatoire semble nécessaire et il est clair qu’il se fondera sur les principes juridiques existants, quitte à le compléter en raison de la nature inédite de certaines situations posées par l’IA, comme, par exemple, la question de la responsabilité civile de la voiture autonome.

La cyberjustice : la cyberjustice pourrait être défini comme le recours aux technologies de l’information, dans son sens le plus large et comprenant donc l’IA, pour faciliter le traitement, l’organisation et la communication de l’information juridique et judiciaire dans le monde de la justice. Voilà un secteur où l’IA a déjà fait son entrée et on pense au recours à certains outils algorithmiques devant les tribunaux américains pour déterminer la sentence d’une personne trouvée coupable, afin d’aider le juge à décider si une personne doit être détenue ou non durant les procédures ou encore aux outils de justice prédictive qui propose une prédiction statistique du résultat possible d’un litige. Le terme «justice quantitative», tel que proposé par Jérôme Dupré, serait sans doute plus approprié. À la lumière de plusieurs enquêtes journalistiques aux États-Unis, dont celle de Pro Publica, on note que certains de ces outils révèlent des biais discriminatoires envers des populations pauvres, racisées ou autrement marginalisées. Les préjugés et les biais du développeur, mais surtout ceux qui se retrouvent dans les données collectées appelées à nourrir l’algorithme, sont ainsi incorporés dans l’outil. Comment assurer que l’outil algorithmique reflète les principes de la justice fondamentale (due process), comme la présomption d’innocence, la non-discrimination ou l’équité générale du procès?

Il semble difficile à ce stade d’enchâsser dans l’outil les valeurs sous-jacentes aux principes juridiques. Ainsi que plusieurs l’ont souligné, l’apprentissage profond est une technique capable d’établir des corrélations, mais plus difficilement une relation causale susceptible de mieux étayer le résultat final (le cheminement d’un raisonnement). Il existe, au surplus, une tension entre l’efficience et l’efficacité, qualités sous-jacentes de ces outils souvent mises de l’avant, et la nature stricte des principes de justice fondamentale. Ces derniers instituent un processus, souvent lourd, qui se préoccupe peu de l’efficacité entendue dans une perspective managériale de diminution des coûts et d’accroissement de la productivité. Ainsi le temps de la justice n’est pas celui de l’efficacité. Au même temps, une tension entre les principes eux-mêmes se fait parfois jour et on peut citer en exemple le droit à un procès dans un délai raisonnable qui connaît une tension avec le droit à une défense pleine et entière. Ce simple exemple illustre les tensions inhérentes au droit lui-même auxquelles s’ajoutent des tensions entre le droit et certaines exigences managériales ou sociales qui doivent alors être prises en compte par l’algorithme. On pressent la difficulté de l’exercice : instiller un sens des valeurs et une appréciation fine des droits et de leurs tensions dans des contextes factuels multiples qui se déploient eux-mêmes dans des configurations culturelles particulières. Les outils de justice prédictive sont soumis à ces difficultés majeures et ne peuvent, pour l’heure, qu’être des aides à la décision pour le juge, l’avocat ou le justiciable. Une appréciation statistique ou quantitative des chances de «gagner» une affaire constitue certes un outil à manipuler avec prudence, d’autant, encore une fois, qu’il se révèle incapable de présenter le raisonnement à la source du résultat. De même, le recours à un algorithme prédictif peut avoir pour résultat de figer la jurisprudence, puisque l’affaire soumise à l’algorithme puise dans les résultats passés et propose alors un simple écho de ceux-ci faisant alors échec à la capacité inventive et novatrice du juge chargé d’apprécier les particularités d’une affaire. Le juge, auquel un résultat autour d’un point de droit est soumis, risque fort, par «effet moutonnier», de se rallier à celui-ci, même s’il ne s’agit que d’une aide à la décision. Cette pression «prédictive ou quantitative» ne doit pas menotter le juge, même si elle ne constitue qu’une aide.

Les bonnes pratiques : Il importe ainsi d’élaborer des bonnes pratiques de développement algorithmique qui incorporent des dispositifs contre la discrimination, les biais et les préjugés raciaux, ethniques, religieux, sexuels etc., mais intègrent également des dispositifs positifs de protection des droits fondamentaux, des droits des consommateurs et des citoyens dans leurs relations avec l’administration publique. Ces outils doivent aussi révéler le raisonnement qui fonde leurs résultats. Il est beaucoup question de la transparence des algorithmes : donner la capacité aux acteurs de disséquer l’algorithme afin de le contester. Cette capacité se heurte souvent à des intérêts propriétaires. Cette question soulève celle de l’institutionnalisation de l’IA. Comment assurer au plan des politiques publiques une approche cohérente, respectueuse des droits, soucieuse d’assurer un partage équitable des données détenues par les autorités publiques et désireuse de faciliter une introduction harmonieuse de l’IA dans les divers processus de l’activité humaine? Certains ont proposé la création d’une agence des algorithmes à l’image de la Federal Drug Administration aux États-Unis qui examine, teste et approuve des médicaments couverts par des brevets et des droits de propriété intellectuelle. Un tel organisme pourrait aussi exercer des fonctions de certification et de standardisation pour les objets interagissant dans l’environnement humain, fondés sur l’IA (voiture autonome, drone, robot etc.). On commence à peine à percevoir les incidences sociales, économiques et politiques de l’IA et il serait sans doute judicieux que les gouvernements fédéral et provinciaux songent à assurer une veille technologique et encouragent les projets de recherche en sciences sociales qui ont pour ambition de réfléchir aux incidences de l’IA afin de proposer les mécanismes susceptibles d’en assurer un déploiement conforme au bien commun.

Le partage des données : La question de l’accès et du partage des données détenues par les autorités publiques constitue sans doute celle qu’il convient d’aborder le plus rapidement possible. Il existe, à l’heure actuelle, un déséquilibre délétère en ce qui concerne les données, ingrédient essentiel des techniques d’IA. Les données les plus intéressantes au plan de leur contenu et de leur référencement se trouvent dans les mains des géants du Web (Facebook, Google) grâce aux services gratuits qu’ils offrent et qui leur permettent de collecter une masse formidable de données. Ils vendent parfois certains jeux de données (ou y donnent accès), mais les conservent en général à leur seul bénéfice, arguant, comble de l’ironie, que les rendre accessibles constituerait une atteinte au droit à la vie privée des personnes fichées. Les données publiques constituent une autre source de données de qualité, car elles sont en général bien référencées. Un accès incontrôlé et sans condition à ces données peut aggraver ce déséquilibre, puisqu’un tel accès risque fort de déboucher sur une privatisation de facto des données publiques et rendre plus difficile leur utilisation par tous. L’exemple des données judiciaires illustre notre propos : les données publiques sont traitées par un nombre limité d’acteurs qui exercent un monopole de facto sur celles-ci. Afin d’assurer une juste concurrence, une politique publique ne saurait simplement affirmer le libre accès aux données (open data). Cette apparente liberté d’accès constitue une invitation pour le secteur privé à s’emparer de ces données et, à terme, de se poser en source incontestée et indépassable de celles-ci. Il convient alors d’accorder une attention particulière aux politiques d’accès et de traitement des données détenues par les autorités publiques québécoise et canadienne afin d’assurer un accès équitable et juste pour tous et éviter la constitution de monopoles de facto. Les données publiques sont un bien commun non susceptible d’appropriation. À cette question cruciale s’ajoute celle de la protection des données personnelles dans un monde soumis à une logique algorithmique. À cet égard, les cadres législatifs actuels au Québec et au Canada sont complètement dépassés. Une réflexion majeure s’avère nécessaire. Que vaut en effet le consentement dans un écosystème (l’Internet, l’Internet des objets) qui offre des services gratuits en échange d’une collecte de données personnelles et d’un profilage algorithmique de la personne? Que valent les principes individuels de traitement et de gestion des données personnelles dans un écosystème où les données deviennent collectives et dans lequel l’objectif est de recueillir un maximum de données alors que les principes des lois de protection des données s’articulent autour de la notion de minimisation (collecte des seules données nécessaires au but poursuivi), de limitation dans le temps (effacement des données une fois le but poursuivi atteint) ou, encore, de finalité? Les données massives, ingrédient essentiel des techniques d’apprentissage profond, heurtent de plein fouet les fondements des lois de protection des données personnelles. Tant et si bien qu’il est légitime de se demander si le droit à la vie privée, malmené par les géants du Web et par les exigences de sécurité des États, n’est plus qu’une vue de l’esprit.

L’IA apparaît comme une évolution majeure dans le traitement de l’information. Elle est porteuse de grands espoirs et, comme toute technologie, d’aléas et de dangers qu’il convient de circonscrire et de corriger afin d’en assurer un déploiement conforme au droit, à ses valeurs et principes et au bien commun. La réflexion est déjà entamée. Elle doit se poursuivre et permettre à toutes les parties prenantes d’y participer. L’implication des autorités publiques ne doit pas se limiter à financer les technologies d’IA, elles doivent également encourager et financer les recherches socio-juridiques entourant l’IA afin de minimiser ses effets disruptifs et de maximiser ses usages dans une perspective d’intérêt public.

Prof. Karim Benyekhlef ©

Ce texte est une version longue d’un article publié sur le site de Options politiques/Policy Options intitulé «L’IA et nos principes de justice fondamentale».

 

Ce contenu a été mis à jour le 6 mars 2018 à 9 h 55 min.