L’IA conversationnelle est déjà au cœur de l’économie du numérique. Dans tous les secteurs économiques, son caractère diffus s’exprime de plus en plus ; cette tendance ne fera que s’amplifier dans les années à venir. C’est le constat, entre autres, fait par Bill Gates dans un de ses Gates’ notes[1] (notons d’ailleurs que Microsoft a (ré)investi 10 milliards de dollars dans OpenAI[2]). D’aucuns diront qu’en la matière il est difficile de dire où l’on se situe actuellement sur la courbe de Gartner (Gartner’s Hype Cycles)[3]

S’agissant d’IA conversationnelle, l’illustration la plus évocatrice, la référence, est sans nul doute ChatGPT, le chatbot (agent conversationnel) à visée générale conçu par OpenAI, start-up californienne qu’il n’est plus nécessaire de présenter.

La première vague – il y a déjà une demi-douzaine d’années de cela – des chatbots : les simples (!) chatbots de gestion de la relation client, est désormais propulsée par l’arrivée fulgurante de ChatGPT. Là où, grossièrement, « chatbot » ne signifiait pour le grand public que : FAQ améliorée, dorénavant, de jour en jour, l’outil chatbot sonne à l’oreille de tout un chacun comme un formidable moyen d’obtenir réponse à tout… ou presque.

ChatGPT, et l’IA conversationnelle de manière générale, soulèvent beaucoup de questions. Cependant, ce qui est intéressant, d’un point de vue juridique, c’est le fait, somme toute assez évident, qu’il est question ici de langage naturel[4]. Naturel, donc qui s’oppose au langage informatique : autrement dit, parlez à ChatGPT comme si vous parliez à votre semblable… mais, cela vous le saviez sûrement déjà… L’existence d’outils dont l’interface fonctionne via langage naturel – de ce fait, des outils simples à utiliser –, cela couplé à une mise à disposition du grand public, permet d’anticiper une abondance de problèmes juridiques. En perspective, un marché des services juridiques spécialisés en plein essor…

L’IA conversationnelle s’entend comme l’IA grâce à laquelle des appareils et des applications peuvent converser avec des personnes dans leur langage naturel.[5] Les chatbots pilotés par IA sont une manifestation de cette IA : ils interagissent avec les êtres humains en langage naturel, et ce pour divers usages.[6] ChatGPT (Chat Generative Pre-trained Transformer) est un chatbot piloté par IA ; il est spécialisé dans le dialogue – sans finalité particulière.[7]

Actuellement, l’IA conversationnelle pose principalement des questions juridiques relatives à la protection des données personnelles : en témoigne le cas ChatGPT (I). Au-delà, les perspectives découlant de cette technologie – et de l’IA générative, de manière générale – sont variées et promettent de véritables défis juridiques (II).

I) ChatGPT et protection des données personnelles

RGPD

Avant toute chose – dans une optique comparative – notons que s’agissant des résidents de l’État de Californie, OpenAI a dès le départ cherché à se conformer au California privacy rights act (qui est venu modifier le California consumer privacy act).[8]

ChatGPT est-il conforme au RGPD[9] ? La question nécessite une réponse nuancée.

Dans un premier temps, la conformité de ChatGPT au RGPD semblait très peu probable.[10]

En effet, la politique de confidentialité (privacy policy) proposée par OpenAI ne faisait pas mention, entre autres, du droit à la limitation du traitement (art. 18, RGPD), du droit à la portabilité (art. 20, RGPD) ou encore du droit d’opposition (art. 21, RGPD).

De plus, elle ne mentionnait pas les obligations des responsables de traitement de données à caractère personnel (chapitre IV, RGPD). À titre illustratif, rien n’indiquait l’obligation de notifier à l’autorité de contrôle[11] (art. 33, RGPD) et de communiquer à la personne concernée (art. 34 RGPD) une violation de données à caractère personnel… Le 20 mars dernier, ChatGPT était victime d’une violation de données (data breach) relative aux conversations des utilisateurs ainsi qu’aux informations de paiement des abonnés au service payant.[12]

Les lacunes de la politique de confidentialité d’OpenAI, en quelque sorte mises à nu par la violation de donnée du 20 mars, ont eu des conséquences : en Italie, l’utilisation de ChatGPT a été temporairement bloquée par l’autorité italienne de protection des données personnelles (Il garante per la protezione dei dati personali).[13]

OpenAI était enjointe à faire preuve d’une transparence accrue quant à ses pratiques de collecte de données et démontrer qu’elle se conforme à l’une des quatre bases légales possibles, en l’espèce, pour la collecte de données d’entrainement de son algorithme, à savoir un contrat ou une obligation légale, et – plus intéressant (cf. infra) – le consentement ou l’intérêt légitime. Dans cette optique, la « Garante » avait donné à OpenAI jusqu’au 30 avril dernier pour se conformer à la loi.

L’amende administrative encourue par OpenAI aurait pu atteindre 4 % de son chiffre d’affaires annuel mondial total (art. 83, RGPD).

Depuis le blocage de ChatGPT par l’autorité italienne de protection des données personnelles, OpenAI a fait l’objet d’enquêtes dans plusieurs pays de l’Union européenne (Allemagne, Irlande, France) en raison de préoccupations relatives à la collecte et à l’utilisation des données personnelles par son chatbot.

Le Comité européen de la protection des données (CEPD), qui regroupe les représentants des autorités nationales de protection des données, a établi un groupe de travail chargé de coordonner les enquêtes et les mesures d’application liées à ChatGPT.

Du côté d’OpenAI, l’inertie n’a pas duré longtemps. Depuis le 11 avril, ChatGPT offre la possibilité à tout utilisateur (de la version payante ou non payante) de supprimer lui-même son compte.[14]

Le 27 avril, OpenAI a mis en ligne sur son site Web une nouvelle version de sa politique de confidentialité (après une première nouvelle version, début avril). Dans celle-ci, comme dans celle de début avril, mais contrairement à la version de février dernier, OpenAI consacre (indirectement) une partie à la compliance avec le RGPD. À vrai dire, cette partie est consacrée aux « utilisateurs internationaux » ; ce qui désigne ici[15] les utilisateurs localisés dans l’Espace économique européen (EEE), en Suisse[16] et au Royaume-Uni. Le RGPD couvrant l’EEE[17], OpenAI présente les bases légales qui justifieraient selon elle la collecte de données d’entrainement de son algorithme. Au-delà des base légales « contrat » et « obligation légale »[18], intéressons-nous aux deux bases légales « consentement » et « intérêt légitime ». En la matière, OpenAI, d’une part, précise qu’est offerte la possibilité de retirer son consentement à tout moment. Cela correspond aux conditions applicables au consentement (art. 7, RGPD). En effet, le droit au retrait permet à « la personne concernée […] de retirer son consentement à tout moment. » (ibid.) D’autre part, les intérêts légitimes mis en avant par OpenAI sont la protection de leurs services contre tout abus, fraude ou risque pour leur sécurité ; et ce notamment dans le cadre de l’entraînement de leur LLM[19].

Notons qu’OpenAI vient de lancer un mode « incognito » pour ChatGPT.[20]

Les chatbots « traditionnels »[21] fonctionnent sans historique ; en revanche, c’est l’une des particularités de chatbots tels ChatGPT que de fonctionner avec un historique de l’utilisateur, ce qui permet d’entraîner leurs modèles. Dès lors, si l’utilisateur active le mode « incognito » et, ce faisant, désactive l’historique, OpenAI ne pourra pas utiliser les discussions de l’utilisateur avec ChatGPT pour entraîner son LLM – voire d’autres modèles de l’entreprise.[22]

Par ailleurs, OpenAI a annoncé travailler sur un nouvel abonnement : ChatGPT Business. L’utilisation de ChatGPT dans un cadre professionnel soulève bon nombre de questions : secret professionnel, espionnage industriel, etc.[23] C’est pourquoi l’abonnement ChatGPT Business permettra aux professionnels de conserver l’historique de conversation – et donc bénéficier pleinement de ChatGPT – tout en interdisant à OpenAI d’utiliser leurs données pour entraîner son ou ses modèles.[24] Toujours dans une optique de compliance avec le RGPD, la politique de confidentialité d’OpenAI précise que son représentant dans l’EEE (art. 27, RGPD) est VeraSafe[25] – qui propose ses services juridiques en matière de protection des données personnelles et de cybersécurité. VeraSafe, grâce à ses conseils – notamment relatifs à la politique de confidentialité d’OpenAI – a selon toute vraisemblance joué pour beaucoup dans la désescalade avec la « Garante », qui a débouché, fin avril, sur la cessation du blocage de ChatGPT en Italie[26].

LPD

La nouvelle LPD[27] n’est pas encore entrée en vigueur[28]. Néanmoins, intéressons-nous à ses dispositions. Très succinctement, notons simplement que sur bon nombre de points et dans l’ensemble le RGPD et la nLPD[29] se rejoignent. D’ailleurs, la Suisse fait partie des pays considérés par la Commission européenne (sur le fondement de l’article 45 du RGPD) comme assurant un niveau de protection adéquat[30] ; pays vers lesquels peuvent avoir lieu des transferts de données personnelles sans autorisation spécifique.

En lien avec ce que nous avons développé supra, nous allons, s’agissant du droit suisse de la protection des données personnelles, nous concentrer seulement sur la question de la place du consentement – qui témoigne d’une différence substantielle avec le droit européen.  

D’une part, il est important de souligner qu’à la différence du RGPD, la nLPD – comme la LPD – prohibe seulement le traitement illicite de données personnelles (art. 30, nLPD). Autrement dit, là où le RGPD contraint le responsable du traitement (data controller) à opérer à un traitement remplissant l’une des conditions de l’article 6 du Règlement, le droit suisse ne restreint pas la licéité du traitement de données personnelles à un régime conditionnel : la seule condition étant que le traitement « ne doit pas porter une atteinte illicite à la personnalité des personnes concernées » (art. 30, nLPD, préc.)[31] D’autre part, l’alinéa 1 de l’article 31 de la nLPD dispose qu’« une atteinte à la personnalité est illicite à moins d’être justifiée par le consentement de la personne concernée ». En cas d’atteinte à la personnalité, le consentement peut donc faire office de « motif justificatif » (art. 31, nLPD). En la matière, l’environnement légal suisse semblant pouvoir être considéré comme plus libéral[32], il est possible d’avancer qu’une interdiction temporaire de ChatGPT ne se profile pas. Cependant, le préposé fédéral à la protection des données avait tout de même, suite au blocage de ChatGPT, pris contact avec les autorités italienne.[33]

II) IA conversationnelle et générative : quelles perspectives ?

L’IA conversationnelle – incarnée dans l’actualité par ChatGPT – et, de manière générale, l’IA générative vont de plus en plus obliger le droit à s’adapter. Dans cette seconde partie, nous délaisserons le droit positif et opérerons à une analyse des perspectives envisageables en la matière.

L’IA dans la pratique du droit : retard sur d’autres secteurs

La Swiss LegalTech Association a déjà attiré l’attention sur le fait que les études d’avocats ne figurent pas parmi les secteurs qui, en l’état actuel des choses, utilisent activement les outils d’OpenAI ou assimilés.[34] Cette observation peut, sauf exceptions, être généralisée à tout le secteur juridique. Certes, des raisons sont susceptibles de justifier ces réserves (secret professionnel, etc.) Mais, en opérant à une nouvelle généralisation, cette fois à tous les outils IA, le constat reste le même : la pratique du droit, à bien des égards, reste trop souvent sourde aux avancées issues de l’IA. La FinTech est bien plus en avance que la LegalTech Évidemment, la finance n’est pas le droit, elle utilise le langage mathématique, contrairement au droit (pour l’instant… ?…), et répond à des finalités différentes que celles du droit.

Cela étant, le droit, comme bien d’autres domaines, produit beaucoup de data ! l’IA, et ce d’autant plus avec la facilitation offerte par les chatbots, peut notamment aider à atteindre ou tenter d’atteindre un niveau de sécurité juridique encore jamais égalé. Par exemple, il est permis d’espérer une utilisation effective de la data science (science des données) au droit, plus précisément à l’étude de la jurisprudence et de la pratique des tribunaux et autres organes de production itérative de décisions juridiques.

L’idée étant qu’à l’avenir il serait bienvenu qu’on ne puisse valablement affirmer, pour un cas donné, que « c’est l’état de la pratique » ou qu’« il s’agit d’une jurisprudence solide, consolidée, etc. », ou autres formules consacrées, que si on est en possibilité d’appuyer telles affirmations, par exemple, par un raisonnement statistique solide.

Il est vrai que le droit repose avant tout et in fine sur des jugements de valeur : s’il on simplifie au maximum, ce sont des êtres humains qui se prononcent sur la validité morale du comportement d’autres êtres humains. Dès lors, il est compréhensible que droit et technologies – de manière générale –, droit et IA – en particulier –, aient du mal à aller de pair.

Néanmoins, il reste que la pratique du droit devrait davantage embrasser les possibilités techniques offertes notamment par l’IA générative et l’IA conversationnelle si elle souhaite répondre à l’objectif louable de sécurité juridique. Le secteur des services juridiques y gagnerait en productivité et en efficacité.

Au-delà de la seule adoption d’outils IA, l’IA générative et l’IA conversationnelle peuvent avoir un impact sur le plan théorique et amener le juriste à repenser des notions juridiques.

Par exemple, ChatGPT utilise, entre autres, une avancée dans le domaine de l’IA apparue il y a moins de dix ans : les réseaux antagonistes génératifs (GAN : generative adversarial networks).[35] ChatGPT applique ce concept à une interface de dialogues basés sur du texte (text-based conversations).[36] Du fait de la technologie GAN[37], les outputs de ChatGPT ne font qu’effleurer la réalité : ce que nous dit ChatGPT lorsqu’on converse avec lui n’est pas puisé directement dans une base de données reflet de la réalité. En effet, les outputs de ChatGPT sont en fin de compte des créations fictives de ce chatbot piloté par IA.[38] C’est pourquoi, entre autres, ChatGPT peut avoir des « hallucinations »…[39] Dès lors, dans une certaine mesure, il semble nécessaire de repenser la notion juridique-même de donnée[40], car avec les GANs on est au-delà de la donnée classique collectée dans le monde tangible (dans le réel)… Il est question de création totalement fictive de data, dû au système-même de réseau de neurones artificiels que constitue le GAN.

IA et démocratie

L’IA conversationnelle et surtout, de manière générale, l’IA générative suscitent des craintes relatives aux fake news (fausses nouvelles). Par exemple, avec les IA génératives d’images comme StableDiffusion (cf. infra), ou même de vidéos comme Dreamix[41] de Google.

En droit électoral français, il existe un système préventif responsabilisant les « plateformes en ligne »[42] pour les périodes électorales.[43] Mais, la question des fake news prend une tout autre dimension lorsqu’on sait que, dans un avenir proche, la majorité du contenu puis l’immense majorité du contenu disponible sur l’Internet ne sera pas de source humaine… Parmi la multitude de questions que ce changement soulève, la question de l’exercice effectif du processus démocratique apparaît comme l’une des plus fondamentales. Par exemple, en droit suisse, des questions juridiques pourraient apparaître, eu égard à « la libre formation de l’opinion des citoyens et des citoyennes » de l’article 34 de la Constitution fédérale.

D’aucuns s’inquiètent du lien de confiance qui pourrait naître entre ChatGPT et ses utilisateurs. Ces derniers, bluffés par les réponses impressionnantes de rapidité et de précision de ChatGPT, viendraient à lui donner un blanc-seing, alors que cette IA ne reproduit en aucun cas un raisonnement rationnel de type scientifique. En effet, elle produit avant tout un enchaînement probabiliste de mots.

Prenons l’exemple du CRT (Cognitive Reflexion Test) (mis au point par le psychologue Shane Frederick en 2005 pour évaluer la tendance d’un individu à s’abandonner à des formes de raisonnements intuitifs mais fautifs) : un échec ou une réussite à ce test par ChatGPT peut (peut-être) nous renseigner sur sa susceptibilité à créer ou ne pas créer du contenu trop intuitif au détriment de la raison (au détriment d’un contenu rationnel – au sens strict du terme)[44]. Si ChatGPT peut « rater » complètement le CRT, il peut aussi le réussir partiellement, voire totalement après une seconde tentative consécutive…

Nous avons personnellement fait passer le test (CRT) à ChatGPT. Sur trois questions, il a directement eu juste aux première et troisième questions, et à la fin du test, nous lui avons reposé la deuxième question : à cette seconde tentative, il a eu juste.

Voici la conversation tenue avec ChatGPT :


Utilisateur :

Une batte et une balle de baseball valent ensemble 110 euros. Sachant que la batte coûte 100 euros de plus que la balle, combien coûte la balle ?

ChatGPT :

Appelons “x” le coût de la balle de baseball en euros.

Selon l’énoncé, la batte coûte 100 euros de plus que la balle, donc son coût est x + 100 euros.

Le coût total de la batte et de la balle ensemble est de 110 euros.

On peut donc écrire une équation pour représenter cette situation :
x + (x + 100) = 110

En résolvant cette équation, on peut trouver la valeur de “x” qui représente le coût de la balle.

x + x + 100 = 110
2x + 100 = 110
2x = 110 – 100
2x = 10
x = 10 / 2
x = 5

Donc, la balle de baseball coûte 5 euros.

Utilisateur :

S’il faut 5 minutes à 5 machines pour fabriquer 5 articles, combien de temps faudrait-il à 100 machines pour fabriquer 100 articles ?

ChatGPT :

Si 5 machines peuvent fabriquer 5 articles en 5 minutes, alors cela signifie qu’une seule machine peut fabriquer un article en 5 minutes. On peut donc dire que le temps nécessaire pour fabriquer un article est de 5 minutes par machine.

Maintenant, si nous avons 100 machines, elles seront 100 fois plus rapides pour fabriquer les articles, car elles travaillent en parallèle. Donc, le temps nécessaire pour fabriquer 100 articles avec 100 machines serait :

Temps nécessaire pour fabriquer 100 articles = Temps nécessaire pour fabriquer un article * Nombre d’articles
Temps nécessaire pour fabriquer 100 articles = 5 minutes par machine * 100 articles
Temps nécessaire pour fabriquer 100 articles = 500 minutes

Donc, il faudrait 100 machines 500 minutes pour fabriquer 100 articles.

Utilisateur : Dans un lac, il y a un nénuphar. Chaque jour, sa taille double. S’il faut 48 jours pour que le nénuphar couvre tout le lac, combien de temps faudrait-il pour qu’il en couvre la moitié ?

ChatGPT :

Si le nénuphar double de taille chaque jour, alors il couvrira tout le lac en un seul jour de croissance supplémentaire après qu’il ait couvert la moitié du lac. Cela peut sembler contre-intuitif, mais c’est dû à la nature exponentielle de la croissance du nénuphar.

Puisque le nénuphar double de taille chaque jour, il couvre la moitié du lac la veille du jour où il couvre tout le lac. Donc, si cela prend 48 jours pour qu’il couvre tout le lac, cela signifie qu’il lui faudra 48 – 1 = 47 jours pour en couvrir la moitié.

Donc, il faudra 47 jours pour que le nénuphar couvre la moitié du lac.

Utilisateur :

À la question : “Une batte et une balle de baseball valent ensemble 110 euros. Sachant que la batte coûte 100 euros de plus que la balle, combien coûte la balle ?”, tu as eu juste. À la question “Dans un lac, il y a un nénuphar. Chaque jour, sa taille double. S’il faut 48 jours pour que le nénuphar couvre tout le lac, combien de temps faudrait-il pour qu’il en couvre la moitié ?”, tu as eu juste. Mais, à la question “S’il faut 5 minutes à 5 machines pour fabriquer 5 articles, combien de temps faudrait-il à 100 machines pour fabriquer 100 articles ?”, tu as eu faux : essaye de trouver la bonne réponse.

ChatGPT :

Mes excuses pour la réponse incorrecte précédente. Voici la réponse correcte :

Si 5 machines peuvent fabriquer 5 articles en 5 minutes, cela signifie qu’une seule machine peut fabriquer un article en 5 minutes. Ainsi, 100 machines devraient être en mesure de fabriquer 100 articles plus rapidement, car elles travaillent en parallèle.

Le temps nécessaire pour fabriquer 100 articles avec 100 machines serait le même que le temps nécessaire pour fabriquer un seul article avec une seule machine, car les 100 machines travaillent simultanément.

Donc, il faudrait toujours 5 minutes pour que 100 machines fabriquent 100 articles.

Utilisateur :

Oui, c’est juste.

ChatGPT :

Je suis ravi d’avoir pu fournir la réponse correcte cette fois-ci. Si vous avez d’autres questions ou besoin de clarifications supplémentaires, n’hésitez pas à les poser. Je suis là pour vous aider !


Cela nous laisse perplexe… Certes, ChatGPT a eu faux à une question, mais pas à la seconde tentative. On ne saurait résumer à ce seul test la question de savoir si l’IA conversationnelle est ou n’est pas susceptible de produire des outputs trop intuitifs (cela au détriment de la raison). Néanmoins, force est de constater que, même si ce n’est pas une pensée rationnelle, en tant que telle, qui sous-tend la production des outputs de ChatGPT, ce chatbot piloté par IA réussit tout de même in fine à produire un résultat rationnel. C’est la puissance du machine learning (apprentissage automatique), qui – depuis maintenant longtemps – révolutionne l’IA. En effet, face à la pureté des IA de type système expert, qui cherchent à reproduire des mécanismes cognitifs d’un expert, le machine learning, certes ne reproduit pas un raisonnement comparable à celui qu’un humain pourrait avoir, mais aboutit néanmoins souvent (voire beaucoup plus que souvent…) à la bonne réponse.

IA et droit d’auteur

L’IA générative pose également des questions relatives au droit d’auteur.

Très succinctement, rappelons tout d’abord l’existence d’outils impressionnants en la matière : notamment, StableDiffusion et DALL-E (d’OpenAI) pour générer des images via des prompts écrits (text-to-image). Mais aussi, Beatoven[45], qui crée de la musique unique libre de droits, ou encore Aibstract[46] qui génère et diffuse en temps réel de la musique personnalisée, originale et libre de droit, sans prérequis en matière de compétences musicales (là encore via des prompts écrits (text-to-song)).

Ensuite, notons que Google disposerait d’un prototype de « MusicGPT » (MusicLM)[47],mais qu’elle hésiterait à le mettre à disposition du public de crainte d’engager sa responsabilité à l’égard des acteurs de l’industrie musicale[48].

Enfin, une class action contre Stability AI, DeviantArt et Midjourney a été lancée, aux États-Unis.[49]

IA et automatisation de la justice

Encore une fois très succinctement, on peut imaginer les implications que l’IA générative et particulièrement l’IA conversationnelle pourraient avoir relativement à ce que l’on pourrait appeler « l’e-justice ». L’IA conversationnelle pourrait par exemple révolutionner les modes alternatifs de règlement des litiges. Par exemple, DoNotPay, « the world’s first robot lawyer »[50], qui est un chatbot piloté par IA (basé sur GPT-3 et des systèmes de speech-to-text et text-to-speech), a été poursuivi en justice pour pratique du métier d’avocat sans le diplôme requis.[51]

Conclusion

Laissons à ChatGPT le mot de la fin…[52]

« L’utilisation de l’IA conversationnelle, telle que ChatGPT, soulève des questions juridiques, notamment en matière de protection des données. La conformité de ChatGPT avec le Règlement général sur la protection des données (RGPD) a été soumise à des discussions et à un examen approfondi, notamment après une violation de données. OpenAI a pris des mesures pour se conformer au RGPD, notamment en introduisant des fonctionnalités de suppression de compte et en mettant à jour sa politique de confidentialité pour inclure des dispositions spécifiques au RGPD. Cependant, l’adoption de l’IA conversationnelle dans le domaine juridique nécessitera une adaptation et une prise en compte des cadres juridiques existants. »

… Qu’en pensez-vous ?…


[1] https://www.gatesnotes.com/The-Age-of-AI-Has-Begun

[2] https://www.bloomberg.com/news/articles/2023-01-23/microsoft-makes-multibillion-dollar-investment-in-openai#xj4y7vzkg (Cela étant, rappelons tout de même que Microsoft n’est plus – et ce, depuis longtemps – dirigée par Bill Gates. Le fondateur de Microsoft n’en est plus – depuis longtemps, là encore – l’actionnaire individuel principal, et a même quitté le board of directors (conseil d’administration) de la société.)

[3] La courbe de Gartner représente l’évolution de l’intérêt suscité par une nouvelle technologie : https://www.gartner.com/en/documents/3887767 (Indépendamment de la question de la rigueur scientifique d’une telle représentation, l’idée ici est simplement de mettre en avant les doutes existants quant au caractère véritablement disruptif de cette IA… simple hype ?… Nous pensons que non.)

[4] D’ailleurs, même dans la partie backend, ChatGPT est un algorithme de NLP (Natural Language Processing). Pour être plus précis, il est un LLM (Large Language Model).

[5] https://powervirtualagents.microsoft.com/en-us/conversational-ai/

[6] https://powervirtualagents.microsoft.com/en-us/ai-chatbot/

[7] https://fr.wikipedia.org/wiki/ChatGPT

[8] V. https://openai.com/policies/privacy-policy et https://en.wikipedia.org/wiki/California_Privacy_Rights_Act

[9] Règlement général sur la protection des données (règlement (UE) n° 2016/679 du Parlement européen et du Conseil du 27 avril 2016, relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE).

[10] https://www.village-justice.com/articles/chatgpt-rgpd-protection-des-donnees-personnelles,45280.html

[11] En France, par exemple, il s’agit de la Commission nationale de l’informatique et des libertés (CNIL) ; autre exemple : en Allemagne, il s’agit du Bundesbeauftragte für den Datenschutz und die Informationsfreiheit (BfDI) (cf. chapitre VI, RGPD et https://edpb.europa.eu/about-edpb/about-edpb/members_fr).

[12] https://info.haas-avocats.com/droit-digital/rgpd-et-chatgpt-faille-de-securite-transparence-collecte-mineurs#_ftn1

[13] https://www.garanteprivacy.it/web/guest/home/docweb/-/docweb-display/docweb/9870847 (La « Garante » reprochait également à OpenAI un manque de contrôle de l’âge des utilisateurs de ChatGPT – sachant qu’OpenAI présente son produit comme s’adressant à des utilisateurs âgés de plus de 13 ans.)

[14] https://help.openai.com/en/articles/6378407-how-can-i-delete-my-account

[15] Pour être précis, on ne saurait dire qu’OpenAI désigne comme utilisateurs internationaux les seuls utilisateurs localisés dans la zone géographique EEE–Suisse–Royaume-Uni. En revanche, en l’état, la partie « utilisateurs internationaux » ne se concentre que sur ces utilisateurs-là.

[16] La Suisse ne fait pas partie de l’EEE.

[17] Décision du Comité mixte de l’EEE n° 154/2018 du 6 juillet 2018 modifiant l’annexe XI (Communications électroniques, services audiovisuels et société de l’information) et le protocole 37 (comportant la liste prévue à l’article 101) de l’accord EEE [2018/1022] (https://eur-lex.europa.eu/legal-content/FR/ALL/?uri=CELEX%3A22018D1022)

[18] S’agissant de l’obligation légale, OpenAI fait référence à la protection de leurs droits, de leur sécurité et de leur propriété, et de ceux de leurs utilisateurs ou de parties tierces.

[19] Large Language Model (cf. supra : note n° 4).

[20] D’où, entre autres, la dernière mise à jour de la politique de confidentialité.

[21] Par exemple, les Keyword Recognition-Based Chatbots ou de manière générale les Rule-Based Chatbots (comprenant également les Menu/Button-Based Chatbots) sont des chatbots « traditionnels », dont les chatbots pilotés par IA se différencient grandement (v. https://www.nimblework.com/products/kairon/types-of-chatbots/ et https://mindtitan.com/resources/guides/chatbot/types-of-chatbots/)

[22] https://leclaireur.fnac.com/article/283302-openai-lance-un-mode-incognito-pour-chatgpt/

[23] Exemple : https://www.darkreading.com/vulnerabilities-threats/samsung-engineers-sensitive-data-chatgpt-warnings-ai-use-workplace

[24] https://leclaireur.fnac.com/article/283302-openai-lance-un-mode-incognito-pour-chatgpt/ (cité supra : note n° 20)

[25] https://verasafe.com/

[26] https://leclaireur.fnac.com/article/284434-apres-un-mois-de-blocage-chatgpt-de-retour-en-italie/

[27] Loi fédérale sur la protection des données (LPD) du 25 septembre 2020.

[28] Date d’entrée en vigueur : 1er septembre 2023.

[29] nLPD : nouvelle LPD.

[30] https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A32000D0518

[31] https://swissprivacy.law/wp-content/uploads/2021/02/20210211-Tableau-comparatif-nLPD-et-RGPD.pdf (v. p. 26 du doc.)

[32] En comparaison avec le RGPD.

[33] https://www.letemps.ch/economie/cyber/suisse-lance-un-avertissement-concernant-chatgpt

[34] https://www.linkedin.com/posts/swiss-legaltech-association_openai-statistics-products-revenue-and-activity-7021738242743934976-hCb8?utm_source=share&utm_medium=member_desktop

[35] https://fr.wikipedia.org/wiki/R%C3%A9seaux_antagonistes_g%C3%A9n%C3%A9ratifs / https://www.science-et-vie.com/technos-et-futur/chatgpt-les-revolutions-scientifiques-derriere-lia-generative-100381.html

[36] https://kozyrkov.medium.com/introducing-chatgpt-aa824ad89623

[37] Ibid. ; extrait : “GANs […] are a type of neural network that uses two competing networks – a generator and a discriminator – to create realistic-looking outputs. The generator creates fake outputs, and the discriminator tries to tell the difference between the fake outputs and real- world data. Through this back-and-forth process, the GAN is able to produce outputs that are indistinguishable from real data.

[38] Ibid.

[39] https://www.cspinet.org/blog/chatgpt-amazing-beware-its-hallucinations

[40] Il n’est pas question ici simplement de données personnelles, mais de toute donnée.

[41] Un éditeur de vidéo text-based (c’est-à-dire qui transforme des prompts écrits en format vidéo).

[42] « Plateforme en ligne » au sens de l’article L. 111-7 du code de la consommation français, ce qui vise notamment les réseaux sociaux en ligne.

[43] Loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information.

[44] https://www.lexpress.fr/idees-et-debats/quand-chatgpt-a-tout-faux-au-celebre-test-de-reflexion-cognitive-par-gerald-bronner-4KQAVAMQIVAWVP534SDSH33PYU/

[45] https://www.beatoven.ai

[46] https://aibstract.fr

[47] V. https://www.numerama.com/tech/1251228-google-invente-un-chatgpt-de-la-musique-voici-musiclm.html et https://arxiv.org/pdf/2301.11325.pdf

[48] V. https://techcrunch.com/2023/01/27/google-created-an-ai-that-can-generate-music-from-text-descriptions-but-wont-release-it/?guccounter=1 ; https://www.linkedin.com/posts/yaniv-benhamou-4b29a71_google-created-an-ai-that-can-generate-music-activity-7025447228722802689-ampk?utm_source=share&utm_medium=member_desktop et https://twitter.com/tariqkrim/status/1619245589161562112

[49] https://stablediffusionlitigation.com/

[50] Littéralement : le premier avocat robot au monde.

[51] https://www.businessinsider.com/robot-lawyer-ai-donotpay-sued-practicing-law-without-a-license-2023-3?r=US&IR=T

[52] Nous avons, dans un premier prompt, copié-collé l’ensemble de l’article (titres compris (sauf le dernier titre « Conclusion »)), sans la partie « Laissons à ChatGPT le mot de la fin… » et sans les notes de bas de page, et avons demandé à ChatGPT d’« [écrire] une conclusion à cet article en 3 phrases ». ChatGPT a répondu, en anglais, mais en dépassant largement la limite des trois phrases. Aussi, dans un second prompt, lui avons-nous demandé de résumer son précédent output en trois phrases, et en français (« Résume cela en 3 phrases et en langue française ») ; ce qui nous a permis d’aboutir au résultat présenté en conclusion.