En mai 2024, l’actrice Scarlett Johansson a accusé OpenAI d’avoir sciemment copié sa voix, à son insu, pour être l’une des tonalités (« Sky »), qui interagit vocalement avec les internautes dans la nouvelle version de ChatGPT. L’actrice dénonce : « A une époque où nous sommes tous aux prises avec les deepfakes et la protection de notre propre image, de notre propre travail, de notre propre identité, je pense que ces questions méritent une clarté absolue (article Le Monde, mai 2024). L’artiste Taylor Swift a été, elle aussi, la victime de deepfake, par la diffusion de fausses images d’elle sexuellement explicites. Des faits graves, qui imposent de s’interroger sur les règles qui s’appliquent à cette nouvelle évolution technologique.
Le développement de l’intelligence artificielle (IA) permet de reproduire de manière convaincante la voix ou l’image d’une personne, sans son consentement, pour générer du contenu. Il s’agit de « deepfake », traduit par hypertrucage en français. Cela désigne « une image ou un contenu audio ou vidéo généré ou manipulé par l’intelligence artificielle, présentant une ressemblance avec des personnes, des objets, des lieux, des entités ou événements existants et pouvant être perçu à tort par une personne comme authentiques ou véridiques » (art. 3, 60) du Règlement européen sur l’IA mentionné ci-dessous).
En principe, les hypertrucages sont autorisés en vertu de la liberté d’expression s’ils copient des éléments du domaine public ou non soumis aux droits des tiers. Néanmoins, ceux-ci peuvent porter atteinte aux droits des tiers, et notamment aux droits de la personnalité des individus. Les droits de la personnalité correspondent aux « [d]roits inhérents à la personne humaine qui appartiennent de droit à toute personne physique (innés et inaliénables) pour la protection de ses intérêts primordiaux » (G. CORNU, Vocabulaire juridique, PUF, 1987). Parmi, les « droits inhérents à la personne humaine », figurent notamment le droit au respect de la vie privée ou encore le droit à l’image. Ces droits permettent à un individu de contrôler, dans une certaine mesure, l’utilisation de son nom, de son apparence ou de son image publique.
La création d’hypertrucages doit donc être encadrée. En ce sens, il est possible d’insérer des clauses sur l’intelligence artificielle dans les contrats. A titre d’exemple, le contrat d’un artiste-interprète avec sa maison de disque peut contenir des limites à l’amélioration numérique de sa voix où à la modification de son apparence. Néanmoins, à l’heure actuelle de nombreux contrats sont muets sur la question et ne posent aucune limite.
Il est donc nécessaire d’établir un cadre législatif. A l’échelle nationale, l’utilisation abusive de l’IA peut être sanctionnée pénalement par l’infraction d’atteinte à la vie privée (art. 226-1 CP), ou l’infraction d’usurpation d’identité (art. 226-4-1 CP). Le législateur est intervenu pour cibler plus spécifiquement les hypertrucages. La loi SREN du 21 mai 2024 modifie l’infraction de montage, qui sanctionne le fait de porter à la connaissance du public ou d’un tiers le « contenu visuel ou sonore généré par un traitement algorithmique et représentant l’image ou les paroles d’une personne » sans l’autorisation de la personne concernée et qui n’apparait pas à l’évidence comme un contenu généré par IA ou sur lequel l’utilisation de l’IA n’est pas expressément mentionnée, afin de l’adapter aux hypertrucages (art. 226-8 CP). De plus, la loi SREN crée une infraction sanctionnant les hypertrucages à caractère sexuel (art. 226-8-1 CP).
Si l’infraction pénale n’est pas retenue, le recours à l’hypertrucage peut néanmoins être poursuivi sur le terrain du droit civil. Dans ce cas, l’article 9 du Code civil peut être utilisé comme fondement juridique. Il garantit le droit au respect de la vie privée et la protection des autres aspects de la personnalité, notamment l’image et la voix.
Le législateur européen est également intervenu récemment pour mettre en place une obligation de transparence permettant notamment de s’assurer que les utilisateurs finaux ont conscience qu’ils interagissent avec l’IA. Le Règlement européen sur l’intelligence artificielle du 13 juin 2024 ne classe pas l’IA générative comme étant à haut risque mais comme un type d’« IA à usage général ». Ainsi, le déployeur qui génère ou manipule des images ou des contenus audio ou vidéo constituant un hypertrucage est responsable d’étiqueter les produits de l’IA générative comme étant « générés ou manipulés par une IA » (art. 50, §4 du Règlement). Le fournisseur est quant à lui, responsable de la documentation et de sa conformité. Cela exige qu’il mette à disposition « un résumé suffisamment détaillé du contenu utilisé pour entraîner le modèle d’IA à usage général » (art. 53, §1-d du Règlement).
Le premier traité international juridiquement contraignant portant sur l’IA a été adopté le 17 mai 2024. La Convention-cadre du Conseil de l’Europe sur l’intelligence artificielle et les droits de l’homme, la démocratie et l’État de droit reconnaît notamment les principes de transparence, dignité humaine, respect de la vie privée et autonomie individuelle comme garanties contre l’utilisation abusive des hypertrucages, qui doivent donc être mis en place lors de l’usage de l’IA.
Pour bien appréhender la mise en œuvre du cadre juridique que nous avons développé ci-dessus, il est vivement conseillé de consulter un avocat spécialisé, qui pourra vous aider à défendre vos droits.
PARTAGER CET ARTICLE
sl@avocatl.com
+33.1.83.92.11.67
11 rue Sédillot
75007 Paris
Renseignez votre e-mail :