Partout IA d’la joie, ou quand l’intelligence artificielle court à toute vapeur

septembre 11th, 2023 | Posted by Claude-Etienne Armingaud in Données Personnelles | Intelligence Artificielle | Propriété Intellectuelle

Depuis l’ouverture au grand public de ChatGPT en 2022, l’intelligence artificielle générative (ou « GenAI » pour Generative Artificial Intelligence) ne cesse d’occuper les sommaires des publications, qu’elles soient expertes ou grand public.

Cette technologie émergente qui permet de créer des contenus textuels, audio, visuels ou autres (« Contenus ») de manière autonome, sur la base de Contenus préexistants polarise l’opinion. D’un côté, des technophiles idéalistes qui voient dans ces développements l’avènement d’une productivité décuplée, et de l’autre, des technophobes qui anticipent un futur dystopien et que d’aucuns taxeraient de luddisme.

Au milieu du vacarme médiatique et de l’explosion cambrienne des nouvelles applications dévoilées chaque jour, il est nécessaire de prendre du recul pour appréhender, à tête froide, les opportunités et les risques de ces évolutions technologiques.

I. La résilience des cadres juridiques existants

En premier lieu, il conviendrait de commencer par enfoncer une porte grande ouverte : le droit a horreur du vide et les principaux usages de la GenAI ont vocation, par nature, à être couverts par le droit actuel. Qu’il s’agisse des traitements de données à caractère personnel (« Données Personnelles ») –soit mis en œuvre par l’éditeur de la solution de la GenAI, soit sur lesquels la GenAI se fonde dans le cadre de son apprentissage sur des données existantes–, de la propriété intellectuelle –là encore, sur ce que la GenAI ingurgite pour se former ou sur les contenus générés par la suite– ou des principes de responsabilité civile générale, le droit (notamment, mais pas exclusivement, français) dispose d’instruments à même de réguler les abus. Ici, ce ne sont pas tant les usages qui innovent que les échelles d’usagers et de données engagées.

A. Sur les aspects de propriété intellectuelle

La GenAI fonde son apprentissage sur des bases de données massives de Contenus existants pour ensuite proposer un enchainement le plus logique possible d’opérations (qu’il s’agisse de textes, d’éléments graphiques, de sons…) sur une base probabiliste. Dès lors, si ces Contenus existants sont déjà protégés au titre de droit de propriété intellectuelle, et n’ont pas fait l’objet d’une autorisation d’usage, leur inclusion par l’algorithme de GenAI pourrait constituer un acte de contrefaçon des droits de tiers. Partant, toute utilisation ultérieure du fruit de cette contrefaçon pourrait également être qualifiée de recel de contrefaçon. Par exemple, si un « Prompt » (le texte saisi par l’utilisateur valant instruction pour la GenAI) sur MidJourney, Dall-E ou Stable Diffusion demande une image dans le style de Mark Rothko, Picasso ou Dali, le simple fait que l’image ainsi « créée » se rapproche des styles respectifs de ces artistes peut laisser supposer à la fois (i) une reproduction pour analyse dans l’apprentissage machine ainsi (ii) qu’une imitation de ces mêmes œuvres sous-jacentes. De telles utilisations d’œuvres protégées peuvent caractériser une contrefaçon.

En outre, même si les Contenus originels sont libres de droit, ou leur utilisation autorisée, les Contenus générés soulèvent des questions relatives à leur « auteur » susceptible de prétendre à des droits de propriété intellectuelle. À date et dans les pays civilistes, le droit d’auteur se focalise sur… l’auteur. Ce dernier doit impérativement être une personne physique et démontrer l’implication de son « esprit » dans le processus créatif. La tendance jurisprudentielle, notamment en matière photographique, tend à restreindre cette protection lorsque la supposée « œuvre » est banale, quand bien même un humain s’en trouve à son origine. L’on peut alors anticiper que, sauf à démontrer une véritable démarche artistique et une originalité dans les Contenus générés par la GenAI, une majorité d’entre eux ne passerait pas le seuil de la protectabilité.

Enfin, le Prompt lui-même, sous réserve là-encore d’originalité, pourrait également bénéficier d’une protection au titre du droit d’auteur. Si tel était le cas, la transcription, par la GenAI, du Prompt protégé sous une autre forme (graphique, audio ou même un autre texte) pourrait en faire une œuvre dérivée, dont l’exploitation serait conditionnée à l’accord de l’auteur du Prompt d’origine.

À cela s’ajoutent également les conditions d’utilisation des éditeurs des solutions de GenAI qui peuvent, le cas échéant, ajouter des conditions contractuelles d’utilisation des Contenus générés, supplétives ou cumulatives du droit commun.

B. Sur la protection des Données Personnelles

Les premières levées de bouclier lors de l’ouverture au public de ChatGPT 3.5 furent initiées par les autorités de protection des Données Personnelles, ayant entrainé jusqu’à l’interdiction pure et simple de l’outil en Italie au printemps 20231)Garante per la Protezione dei Dati Personali, “Intelligenza artificiale: il Garante blocca ChatGPT”, 31 mars 2023 (lien – en italien).. En dépit de l’harmonisation attendue par le règlement de 2018, les autorités du bloc RGPD ont fait feu de bois divers et variés à l’encontre d’OpenAI : défaut d’information des utilisateurs sur les traitements de leurs données, défaut de base légale, difficulté dans l’exercice de leurs droits par les personnes (utilisatrices ou non), défaut d’analyse d’impact préalable au traitement ou encore manquement à l’obligation d’exactitude des données dans les « hallucinations » générées dans les Contenus2)Voir notamment : Autorité hongroise de protection des données, Budapest Bank Zrt, NAIH-85-3/2022, 8 février 2022 (lien – en hongrois) dans … Continue reading. Mais c’est sans nul doute l’absence d’information des personnes dont les données sont collectées indirectement au travers des bases de données d’apprentissage qui promet d’être le fer de lance des manquements quasi-insolubles de la GenAI. Dans l’attente des résultats du groupe de travail du Comité Européen sur la Protection des Données 3)« Le comité européen de la protection des données crée une task force consacrée à ChatGPT », CEPD, communiqué, 13 avril 2023qui réfléchit actuellement à une approche consolidée, le foisonnement de griefs souligne la pertinence du RGPD pour adresser les innovations technologiques.

II. Les limites des cadres actuels

En second lieu, les progrès dans la technologie viennent également souligner certains aspects pour lesquels le droit pourrait avoir peine à fournir une solution simple ou élégante. Au final, ces nouvelles applications soulèvent des questions sociétales d’acceptabilité :

A. Sur la protection des Données Personnelles

La protection offerte par le RGPD n’est offerte qu’aux seules personnes vivantes. Dès lors, le traitement de Contenus incluant des Données Personnelles de personnes décédées ne caractériserait pas un manquement quelconque aux règles de protection des données. Alors que ChatGPT et les GenAI textuelles et d’images sont les plus répandues auprès du grand public, le clonage de voix assisté par l’IA s’améliore de jour en jour et permet d’échanger en direct avec un clone de Steve Jobs d’une manière qui peut légitimement inquiéter sur les usages post-mortem de telles données. La France est actuellement l’un des rares pays à offrir aux personnes la possibilité de laisser des directives post-mortem quant à leur testament numérique, mais l’absence de protection par le RGPD pourrait priver les successeurs d’un levier réglementaire sur ces utilisations.

B. Sur la responsabilité civile ou pénale

Certains auteurs n’hésitent pas à considérer qu’il faudrait donner à l’IA et aux autres robots une personnalité morale distincte de leur éditeur. Si une telle approche ne nous apparaît pas la plus pertinente, elle a cependant eu le mérite de mettre en lumière la complexité des leviers en cas de dommage causé par une IA. Entre propos diffamatoires générés comme Contenus au travers d’hallucinations de ChatGPT aux États-Unis4)OpenAI sued for defamation after ChatGPT fabricates legal accusations against radio host”, The Verge, 9 juin 2023 et recettes de cuisine mortelles créées par GenAI en Nouvelle-Zélande5)New Zealand supermarket’s recipe-generating AI takes toxic output to a new level”, The Register, 11 août 2023, la question se pose d’une responsabilité (i) de l’éditeur de la solution, (ii) de l’utilisateur professionnel qui intégrerait cette solution dans un nouveau service et/ou (iii) de l’utilisateur final dans sa manière de formuler un Prompt.

Sur cette dernière question, le projet de directive sur la responsabilité en matière d’IA proposé par le Parlement européen en septembre 20226)Parlement européen, « Adaptation des règles en matière de responsabilité civile extracontractuelle au domaine de l’intelligence … Continue reading dans une certaine confidentialité pourrait venir apporter des réponses, qui, à défaut d’être satisfaisantes ou harmonisées au travers de l’Union, auraient l’avantage d’offrir une prévisibilité sur le régime de responsabilité applicable. Sur les autres aspects, c’est le règlement IA7)Parlement européen, amendements du Parlement européen à la proposition de règlement du Parlement européen et du Conseil établissant des règles … Continue reading, voté par le Parlement le 14 juin 2023 et actuellement en discussion en trilogue pour adoption probable au printemps prochain qui fixera les premières limites à l’acceptabilité sociétale de l’intelligence artificielle en général, et de la GenAI en particulier.

Alors que les utilisateurs se plaignent de la dégradation dans la pertinence des Contenus générés par les outils de GenAI8)« How Is ChatGPT’s Behavior Changing over Time? », Lingjiao Chen, Matei Zaharia, James Zou, Stanford University, UC Berkley, 18 juillet … Continue reading, l’adoption par le grand public de ces nouvelles technologies, qui fut la plus rapide de l’histoire, reflète les angoisses profondes de notre société – du soulèvement des machines à un grand remplacement dans le marché du travail – et nous interroge sur ce qu’est véritablement l’intelligence.

Si la prolifération des publications vantant l’incorporation de mécanismes d’intelligence artificielle dans les produits nous fait surtout penser à une intelligence marketing, l’intelligence du droit demeure dans sa généralité, son impersonnalité et son adaptabilité.

Première publication: Journal du Net

References

References
1 Garante per la Protezione dei Dati Personali, “Intelligenza artificiale: il Garante blocca ChatGPT”, 31 mars 2023 (lien – en italien).
2 Voir notamment : Autorité hongroise de protection des données, Budapest Bank Zrt, NAIH-85-3/2022, 8 février 2022 (lien – en hongrois) dans le cadre de l’utilisation d’intelligence artificielle pour l’aide à la décision automatisé dans le secteur bancaire
3 « Le comité européen de la protection des données crée une task force consacrée à ChatGPT », CEPD, communiqué, 13 avril 2023
4 OpenAI sued for defamation after ChatGPT fabricates legal accusations against radio host”, The Verge, 9 juin 2023
5 New Zealand supermarket’s recipe-generating AI takes toxic output to a new level”, The Register, 11 août 2023
6 Parlement européen, « Adaptation des règles en matière de responsabilité civile extracontractuelle au domaine de l’intelligence artificielle (Directive sur la responsabilité en matière d’IA) », 2022/0303(COD), 28 septembre 2022 – date de la publication de la proposition législative (lien).
7 Parlement européen, amendements du Parlement européen à la proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union, COM(2021)0206 – C9-0146/2021 – 2021/0106(COD))(1), 14 juin 2023 (lien)
8 « How Is ChatGPT’s Behavior Changing over Time? », Lingjiao Chen, Matei Zaharia, James Zou, Stanford University, UC Berkley, 18 juillet 2023.

You can follow any responses to this entry through the RSS 2.0 Responses are currently closed, but you can trackback.