Depuis plusieurs années, le monde dans lequel on vit a connu une révolution dans le domaine technologique. Le savoir et les compétences des géants informatiques semblent être à la hauteur des enjeux et des défis de cette période. Dans notre société de consommation, le nombre accru des données informatiques et la mécanisation de nombreuses tâches sont nécessaires pour atteindre une efficience et satisfaire les besoins du marché. 

Certains voient l’intelligence artificielle comme une étape primordiale à l’évolution et le progrès. D’autres, réticents, s’aperçoivent qu’il s’agit d’un danger pour l’humanité.1 

Sans être dans aucun clan idéologique, cette nouvelle technologie a un impact sur la vie d’un citoyen et déclenche des conséquences sur le plan juridique. 

De ce postulat, ces quelques lignes visent à définir, d’une manière illustrative, l’intelligence artificielle et sa manifestation dans le cadre juridique, ce qui nous mène à se questionner. Quel est l’impact de l’intelligence artificielle sur les droits fondamentaux et l’application d’une bonne justice ?

Ainsi, nous commencerons par l’élaboration d’une définition de l’intelligence artificielle et son contexte historique pour traiter, ensuite, de la mise en œuvre des certains droits fondamentaux découlant de la Constitution fédérale et de la CEDH dans cette nouvelle justice.

  1. L’intelligence artificielle

Prétendre que l’intelligence artificielle est « un robot » – terme étymologiquement découlant des langues slaves qui signifie le travail ou esclave – est un raisonnement réducteur et simpliste. Contrairement à ce que la majorité de la population croit, l’intelligence artificielle est de plus en plus présente dans notre quotidien au travers de nouveaux produits ou services. 

Selon le CNIL, l’intelligence artificielle n’est pas une technologie à proprement parler mais plutôt un domaine scientifique dans lequel des outils peuvent être classés lorsqu’ils respectent certains critères.2 En ce qui concerne le Parlement européen, il s’agit plutôt de la possibilité pour une machine de reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité3, ce qui est une définition plus élaborée que la précédente. 

Au milieu du 20ème siècle, il s’agissait d’une intelligence artificielle que l’on peut qualifier « de fonctionnaliste dans la mesure où le but n’était pas de reproduire les processus de l’intelligence ». En effet, il s’agissait de créer une machine qui produise des résultats pouvant donner à penser qu’ils étaient issus d’une intelligence, et cela quelle que soit la manière dont ils étaient en réalité produits par la machine4

Le célèbre teste de Turing, qui est une proposition de tester l’intelligence artificielle fondée sur la faculté d’une machine à imiter une conversation humaine, est une illustration de ce qui précède.

En effet, ce test consiste à mettre un humain en confrontation verbale, à l’aveugle, avec un ordinateur et un autre humain. La personne engage une conversation avec l’homme et la machine à son tour.  Si l’humain n’est pas capable de dire lequel de ses interlocuteurs est un ordinateur, on peut considérer que le logiciel de l’ordinateur a passé avec succès le test5.

Autrement dit, une apparence de similitude entre l’humain et la machine est requise pour le succès de l’expérience. Aussi, pour que la machine soit « intelligente », il est primordial qu’aucune distinction existe entre elle et l’humain. En réalité, la question n’est pas tant de savoir si la machine peut penser que de savoir si elle peut faire croire qu’elle pense. En d’autres termes, le test de Turing a été créé sur la base de l’apparence de la pensée plus que sur le processus de pensée lui-même6

Dans la continuité de la qualification juridique de ce qui est une intelligence artificielle, la proposition de règlement sur l’intelligence artificielle adoptée le 21 avril 2021 par la Commission européenne, dans son article 3 qualifie le système d’intelligence artificielle comme « un logiciel qui est développé au moyen d’une ou plusieurs des techniques et approches énumérées à l’annexe I et qui peut, pour un ensemble donné d’objectifs définis par l’homme, générer des résultats tels que des contenus, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels il interagit ».

Parmi les techniques énoncées dans l’annexe I de la proposition, on trouve une place pour l’apprentissage par la machine (machine learning). 

Par l’apprentissage par la machine, la machine se confronte à un très grand nombre d’exemples avec pour objectif d’identifier certaines caractéristiques communes ou divergentes de ces différents objets (patterns), et en permettre, en particulier, la classification (telle la classification de l’image d’un chat, de personnes ayant droit à un remboursement, de celles méritant de se voir accorder un crédit, etc.)7

Cet apprentissage peut se faire sous trois formes : l’apprentissage supervisé (supervised learning) et l’apprentissage non supervisé (unsupervised learning) ; l’apprentissage par renforcement (reinforcement learning) et enfin, l’apprentissage profond (deep learning).

L’apprentissage supervisé permet à une machine d’apprendre une fonction de prédiction à partir d’exemples annotés alors que les données d’entrainement ne sont pas annotées dans le cadre de l’apprentissage non supervisé. Ainsi, la machine devra apprendre par elle-même et créer ses propres réponses, étant donné que les réponses que l’on cherche à prédire ne sont pas disponibles. De ce fait, elle proposera des réponses à partir d’analyses et de groupement de données8

Également, l’apprentissage par renforcement consiste pour un agent autonome (comme un robot ou un drone) à apprendre les actions à entreprendre par l’expérience. Suivant le résultat de l’expérience, l’agent se voit attribuer une récompense. Ainsi, après un nombre important d’actions, la machine adoptera un comportement décisionnel optimal en maximisant la somme des récompenses obtenues9

Enfin, l’apprentissage profond (deep learning) se caractérise par le fait qu’il permet de résoudre des problèmes particulièrement complexes et d’identifier des modèles dans des données non structurées telles que des images, du son, de la vidéo ou du texte.

L’apprentissage est dit « profond » en ce sens que, entre la couche de données d’entrées (input layer) et la couche de données de résultats (output layer), plusieurs couches « profondes » sont insérées (hidden layers).  Ainsi, la machine ne connaît que les données d’entrées et de résultats, sans connaître la manière dont ces données sont traitées ou analysées au niveau des couches profondes10.

Pour en conclure, l’intelligence artificielle est encore un vaste chantier en pleine construction. Une définition générale se résumera à un domaine scientifique en pleine expansion qui créer des conditions pour qu’une machine au sens large – allant d’une simple opération d’achat en ligne à un robot autonome ou une maison connectée – de reproduire des comportements liés aux humains.

Ce domaine scientifique a connu une avancée phénoménale ces dernières années. 

De surcroît, surtout après la crise sanitaire qui a eu des effets conséquents sur les citoyens et a fait émerger un nouveau marché comme le métavers, les professionnels du droit abordent les problématiques et les limites juridiques à la progression de cette nouvelle technologie. 

2. Les droits fondamentaux à l’ère du numérique

Avec la nouvelle Loi fédérale sur la protection des données (LPD), il est désormais possible d’appliquer les résultats fournis, de manière automatisée, en analysant et traitant les données que des algorithmes sont capables de produire et les appliquer directement dans un cas d’espèce à un individu par le biais d’une décision. 

En effet, l’art. 21 LPD fait partie des premières règles juridiques sur l’application du droit par une machine dans un cas individuel et concret11

Cette disposition se limite à indiquer quelles règles doivent être respectées sous l’angle de la protection des données, lorsqu’une autorité rend une telle décision et il revient au législateur, conformément au principe de légalité, de dire dans quels cas et dans quel but une décision peut être rendue de façon automatisée au moyen d’un algorithme12.

Cette loi-cadre ne s’applique qu’à l’égard des décisions qui sont prises exclusivement sur la base d’un traitement de données personnelles automatisé et qui ont des effets juridiques pour la personne ou l’affecte de manière significative. Ainsi selon le Message du Conseil fédéral, il y a décision individuelle automatisée, lorsqu’une exploitation de données a lieu sans intervention humaine et qu’il en résulte une décision, ou un jugement, à l’égard de la personne concernée. De plus, le fait que la décision soit ensuite communiquée par une personne physique ne change en revanche rien à son caractère automatisé, car cette dernière n’a pas d’influence sur le processus décisionnel13

De ce fait, l’influence d’une telle disposition est encore limitée mais aura certainement des conséquences, dans un proche avenir, sur notre ordre juridique d’une manière générale mais aussi sur les droits, au sens subjectifs, des citoyens.

À ce sujet, les droits fondamentaux (Grundrechte) qui sont garantis par l’État, figurant dans la Constitution fédérale et les conventions internationales de protection des droits de l’homme sont, de facto, dirigés contre l’État et apparaissent comme un moyen d’autolimitation de l’action étatique14. Ils sont fondamentaux non pas seulement parce qu’ils sont garantis par la loi fondamentale – à savoir la Constitution – mais parce qu’ils concernent, par leur contenu, une finalité essentielle de l’État15.

En effet, la Constitution helvétique impose, par le biais de son art. 35 al. 1, que les droits fondamentaux soient réalisés « dans l’ensemble de l’ordre juridique ».

De ce fait, le recours à l’intelligence artificielle dans le domaine de la justice pour trancher des situations individuelles peut avoir des répercussions sur les droits fondamentaux des citoyens, ce qui incombe au législateur d’adopter des textes légaux aptes à garantir l’effectivité16.  

Concrètement, en ce qui concerne la dignité humaine, le fait de recourir à des algorithmes pour statuer sur un état de fait et ne permettant pas à une personne d’être jugé par des mortels mais par des machines peut aboutir à une forme de « déshumanisation de la justice »17 où un raisonnement humain autonome, fait de dialogue et d’attention à l’autre, se trouve remplacé par un mécanisme automatisé dépourvu de toute compassion et de préoccupations humaines18.

En ce qui concerne l’interdiction des discriminations qui est une autre manière de concevoir l’idée de l’égalité, en l’affinant en fonction de critères objectifs19, concrétisée dans l’art. 8 al. 2 Cst., est qu’aucune personne ne doit subir de discrimination du fait notamment de son origine, de sa race, de son sexe, de son âge, de sa langue, de sa situation sociale, de son mode de vie, de ses convictions religieuses, philosophiques ou politiques ni du fait d’une déficience corporelle, mentale ou psychique.

En effet, le principe de non-discrimination interdit que l’on traite différemment une personne sur la base de certains critères, lorsque ces critères sont pris comme des motifs pour la déprécier20.

Ce principe, découlant d’une ancienne jurisprudence21, vise à accorder aux membres de certains groupes de la société, qui sont traditionnellement défavorisés ou menacés, une protection particulière contre un désavantage ou une exclusion, qui va au-delà du principe général d’égalité et de l’interdiction de l’arbitraire. 

Ainsi, la mise en place de l’intelligence artificielle dans certaines tâches liées à la justice peut aboutir à des résultats qui sont porteurs de discriminations, notamment en adoptant la technique de profilage, qui consiste à extrapoler certaines caractéristiques propres à un groupe d’individus pour en tirer différentes conclusions susceptibles d’être appliquées à d’autres individus « semblables »22

En l’occurrence, une telle démarche comporte un risque de désigner des « coupables par association »23.

De plus un algorithme développé aux États-Unis ou en Chine ne peut pas être exporté et transposé dans un autre pays étant donné qu’il est inévitablement porteur d’une certaine idéologie, de valeurs ou de spécificités territoriales ou culturelles qui ne sont pas nécessairement transposables dans tous les pays24.

Quant au droit à un procès équitable, garantit par les articles 29 à 32 de la Constitution et par l’art. 6 CEDH, la révolution technologique peut effectivement affecter ce principe. 

En effet, le droit d’être entendu, qui découle de l’art. 29 al. 2 Cst., consiste en ce que toute personne qui est partie à une procédure a le droit de s’exprimer sur les éléments pertinents du dossier avant qu’une décision ne soit prise concernant sa situation juridique, de produire des preuves et de participer à leur administration, lorsque cela est de nature à influer sur la décision à rendre25. Également, de ce principe il découle que l’autorité qui verse au dossier de nouvelles pièces dont elle entend se prévaloir dans sa décision est tenue en principe d’en aviser les parties26

Aussi, le droit de consulter le dossier, composante du droit d’être entendu, prévoit que l’autorité qui instruit une procédure a l’obligation de tenir un dossier dans lequel elle consigne toutes ses opérations et entrepose tous les éléments faisant partie de la cause et pouvant influer sur le contenu de la décision qui sera rendue27.

En l’occurrence, il résulte de ce qui précède, que si une autorité fait usage d’un moyen informatique quelconque, par exemple, d’un outil d’aide à la décision dans le cadre d’une procédure, ce fait devrait logiquement être consigné dans le dossier de l’affaire ainsi que le résultat fourni par l’outil en question28

Dès lors, la possession de ces éléments qui permettent à l’autorité de prendre sa décision fait partie, de jure, du droit de consulter son dossier. 

En ce qui concerne le principe du droit à une décision motivée, d’une manière générale, l’autorité est tenue de traiter une requête qui lui a été adressée. En effet, la Constitution fédérale, dans les art. 29 et suivants, garantit à toute personne qui sollicite une décision, sinon d’obtenir que celle-ci soit effectivement satisfaite, à tout le moins qu’elle soit honorée d’une réponse, par laquelle l’autorité explique et justifie la position qu’elle entend adopter29. Plus concrètement, la jurisprudence considère que toute décision rendue par une autorité doit être justifiée dans le sens qu’il est possible d’en établir la conformité à la loi. Cela porte, d’une part, sur l’état de fait retenu par l’autorité et, d’autre part, sur le raisonnement juridique qu’elle a conduit en vue de prononcer la décision30.

En effet, la motivation doit permettre à la partie de se rendre compte de la portée de ladite décision et d’être capable de vérifier que l’autorité ne s’est pas laissée guider par des considérations erronées ou sans pertinence afin de pouvoir l’accepter ou la contester en connaissance de cause31.

Dans tous les cas, il paraît que l’autorité qui recourt à un outil d’aide à la décision devrait avoir l’obligation de motiver son utilité et la pertinence des conclusions auxquelles l’outil est parvenu dans le cadre de la décision rendue32

In casu, lorsqu’on se trouve dans un cas juridique claire qui requiert une motivation sommaire, notamment s’il s’agit d’une décision de taxation ou d’une amende, l’utilisation d’outil informatique permettant de traiter de telles situations, a priori et de prima facie, ne poserait pas de problème juridique. Néanmoins, attendu que les outils mis en place par certaines administrations sont incapables de construire un raisonnement juridique basé sur une certaine logique et cohérence humaine, en prenant en compte les faits pertinents, l’utilisation de ces derniers est une mesure inadéquate dans des cas contenant des ambiguïtés. 

Dès lors, il semblerait encore irréaliste de permettre à une intelligence artificielle d’interférer dans des situations juridiques dans lesquelles les faits sont d’une complexité accrue notamment dans les affaires pénales ou civiles. 

En ce qui concerne la garantie d’accès au juge, qui découle de l’art. 29a Cst., cette disposition poursuit le but de soumettre les actes de l’administration à un contrôle juridictionnel33. En effet, la Constitution garantit à toute personne le droit d’être jugée par une autorité judiciaire. 

Elle confère à une personne le droit à ce que sa cause soit jugée au moins une fois par une autorité judiciaire indépendante et impartiale34.

Selon la jurisprudence, l’autorité judiciaire qui procède à l’examen de l’affaire doit alors disposer d’un plein pouvoir de cognition, en fait comme en droit35. En d’autres termes, le droit d’accès à un tribunal suppose que celui-ci soit investi d’un pouvoir d’examen entier, qui lui permette d’examiner aussi bien les faits que le droit et si le pouvoir d’examen de ce dernier est insuffisant, il peut donc y avoir violation du droit d’accès à un tribunal36

En l’occurrence, il est évident qu’une décision rendue exclusivement par le biais d’un traitement automatique des données ne devrait pas être rendue en instance unique. 
Pour conclure, les droits fondamentaux dans un État démocratique ont une valeur suprême, garantis par l’État d’une part et limitent son pouvoir en même temps d’autre part. Avec le nombre accru de données et les échanges informatiques entre les citoyens, l’intelligence artificielle pénètre dans toutes les activités économiques et toutes les sphères sociales dans le monde. Dans plusieurs cas, elle facilite la vie, effectue des tâches répétitives ou dangereuses, fournit un travail d’une grande qualité à faible coût et traite des données à grande échelle. Néanmoins, certains abusent de cette technologie pour satisfaire des intérêts politiques ou parfois mercantiles. D’autres sont simplement septiques d’une telle avancée. À ce sujet, l’ancien président d’AVOCATS.BE37, estime que l’intelligence artificielle est un danger pour les avocats étant donné qu’« elle pourrait permettre à des nouveaux acteurs d’envahir leur marché »38.

Ainsi, il est indiscutable que la nouvelle technologie aura une part importante du marché, même des métiers juridiques. Après l’arrivée de chaque nouvelle invention, des conséquences ont lieu sur le marché économique et les droits des citoyens. La création de la machine à vapeur, a causé le licenciement d’ouvriers, mais a aussi permis l’émergence d’une nouvelle classe moyenne, ce qui a entraîné un avancement économique et de ce fait, l’émersion des nouveaux droits sociaux importants. 

Avec l’arrivée d’Internet, les droits fondamentaux ont connu également un bouleversement comme l’exposition d’informations personnelles sur la sphère publique mais aussi a facilité la communication dans le monde entier. 

Enfin, il est évident que nos droits fondamentaux connaîtront probablement une mutation face à la progression continue de l’intelligence artificielle. Toutefois, cette dernière devra s’adapter aux principes juridiques et le législateur joue un rôle primaire dans la mise en place d’un cadre législatif fixant les fondements de l’activité de cette technologie. 

Finalement, il est essentiel de mettre en place un système d’apprentissage des principes juridiques et des valeurs morales de la justice, ce qui est une tâche extrêmement complexe puisqu’il s’agit non pas simplement de transmettre notre savoir mais aussi notre histoire, notre perception de la justice et nos émotions. Pareillement, l’utilisation de l’intelligence artificielle dans des administrations et par la justice doit être limitée à un rôle secondaire notamment à l’émission d’avis, de recommandations, de recherches ou de conseils ou à la mise en place d’une expertise.   

Pour cela, nous devons fixer l’objectif poursuivi derrière ladite technologie, son utilité, son impact sur les droits fondamentaux et notre vision de la justice afin de mettre en place une loi-cadre rapidement en raison de l’urgence.

Par Soubhi BAZERJI

  1. 29% des français perçoivent l’intelligence artificielle comme de la science-fiction et 15% des américains interrogés considèrent celle-ci comme une menace pour les emplois.
  2. https://www.cnil.fr/fr/intelligence-artificielle/intelligence-artificielle-de-quoi-parle-t-on
  3. https://www.europarl.europa.eu/news/fr/headlines/society/20200827STO85804/intelligence-artificielle-definition-et-utilisation
  4. Daniela Cerqui, La révolution 4.0 au travail, Schulthess Éditions romandes, p. 51.
  5. https://fr.wikipedia.org/wiki/Test_de_Turing
  6. Daniela Cerqui, La révolution 4.0 au travail, Schulthess Éditions romandes, p.51.
  7. RSDA 2021, p. 435.
  8. RSDA 2021, p. 435-436.
  9. RSDA 2021, p. 436.
  10. RSDA 2021, p. 437
  11. Michael Montavon, Cyberadministration et protection des données, Schulthess Juristische Medien AG, 2021, p. 652.
  12. Michael Montavon, Cyberadministration et protection des données, Schulthess Juristische Medien AG, 2021, p. 668.
  13. Message du Conseil fédéral relatif à la Loi fédérale sur les protection des données (2020), FF 2017 6674.
  14. Michel Hottelier, Droit constitutionnel suisse, Vol II, N 6-7.
  15. Michel Hottelier, Droit constitutionnel suisse, Vol II, N 11.
  16. Michael Montavon, Cyberadministration et protection des données, Schulthess Juristische Medien AG, 2021, p. 658.
  17. Comité STE 108, Profilage et la Convention STE 108 +, 2019, p. 29.
  18. Michael Montavon, Cyberadministration et protection des données, Schulthess Juristische Medien AG, 2021, p. 659.
  19. Michel Hottelier, Droit constitutionnel suisse, Vol II, N 1080.
  20. Michel Hottelier, Droit constitutionnel suisse, Vol II, N 1082.
  21. ATF 129 I 217 ; ATF 129 I 220.
  22. Michael Montavon, Cyberadministration et protection des données, Schulthess Juristische Medien AG, 2021, p. 660.
  23. Bryce Goodman/ Seth Flaxman, European Union regulations on algorithmic decision-making and a “right to explanation”, p. 53.
  24. Michael Montavon, Cyberadministration et protection des données, Schulthess Juristische Medien AG, 2021, p. 662.
  25. ATF 135 I 279, consid. 2.3.
  26. ATF 128 V 272, consid. 5b ; ATF 114 Ia 97, consid. 2c.
  27. ATF 130 II 473, consid. 4.1 ; ATF 115 Ia 97, consid. 4.c.
  28. Michael Montavon, Cyberadministration et protection des données, Schulthess Juristische Medien AG, 2021, p. 665.
  29. Michel Hottelier, Droit constitutionnel suisse, Vol II, N 1232 et N 1233.
  30. ATF 142 II 152, consid. 4.2; ATF 135 II 145, consid. 8.2.
  31. Jacques Dubey, Droits fondamentaux, Vol II, N 4079.
  32. Michael Montavon, Cyberadministration et protection des données, Schulthess Juristische Medien AG, 2021, p. 666.
  33. ATF 130 I 312 ; ATF 130 I 327.
  34. ATF 134 V 401, consid. 5.3.
  35. ATF 135 II 369, consid. 3.3.
  36. Michel Hottelier, Droit constitutionnel suisse, Vol II, N 1220.
  37. Une association qui réunit 11 barreaux francophones et germanophones de Belgique.
  38. Revue de l’avocat, Stämpfli Verlag AG, 2017, p. 286.