top of page
article rose.jpg

L'art du faux: vers une réglementation du
« deepfake »

Rédigé par Rose Marcotte

Le visage d’une personnalité publique sur le corps d’une autre pour une parodie insolite, le président américain qui chante la chanson du moment ou encore la Reine qui livre un discours absurde sous un air sérieux : voilà des formes divertissantes sous lesquelles le « deepfake » peut se présenter. Toutefois, cette manifestation a aussi un côté sinistre notamment lorsqu’elle est exploitée aux fins de production de contenu pornographique ou dans le but de manipuler ou d’escroquer.

 

En effet, l’hypertrucage, qui est considéré comme l’évolution des « fake news », comporte son lot d’enjeux que ce soit en matière d’atteinte aux droits à la vie privée et à la dignité de la personne, du risque de propagation de la désinformation ou de la décrédibilisation de la preuve vidéo et audio [1]. D’un autre côté, cette technologie présente un potentiel d’exploitation commerciale intéressant, particulièrement pour les grands studios d’effets spéciaux hollywoodiens qui s’y intéressent déjà fortement [2].

 

Que l’on soit favorable ou non à l’utilisation de cette technologie, on ne peut nier que celle-ci connait présentement un essor fulgurant. En effet, une étude démontre une augmentation de 550% du nombre de vidéos trouvées en ligne utilisant le « deepfake » entre 2019 et 2023 [3]. Ainsi, il est grand temps que le droit réagisse en réglementant cette innovation pour minimiser les risques qui y sont inévitablement reliés. Voyons donc, d’abord, comment se définit l’hypertrucage et quels sont ses bénéfices et inconvénients. Par la suite, nous étudierons la réponse législative de certains États relativement à ces enjeux qui, eux, sont particulièrement réels.

 

Qu’est-ce qu’un « deepfake »?

Selon les informaticien.ne.s, les « deepfakes » représentent le produit d’un apprentissage par des réseaux informatiques complexes permettant d’analyser de larges échantillons d’expressions vocales, faciales et corporelles d’une personne dans le but de les imiter [4]. Cela se matérialise de trois façons : la synchronisation du mouvement des lèvres avec le discours d’une autre personne, l’application des expressions du visage d’une personne sur le visage d’une autre ainsi que la production d’images entièrement artificielles [5].

 

Tirer profit de cette technologie

Comme nous l’avons brièvement annoncé précédemment, bien qu’elle soit inquiétante sur plusieurs abords, la technologie du « deepfake » peut aussi comporter certains avantages. D’ailleurs, dans le milieu du cinéma, le « deepfake » permet d’améliorer du contenu vidéographique au lieu de le refilmer, d’innover les effets spéciaux grâce à des avancées impressionnantes en retouche de visages en postproduction et d’optimiser le professionnalisme des vidéos amateurs [6]. De plus, l’hypertrucage donne lieu à la traduction automatique et réaliste de la voix des acteurs et actrices dans toutes les langues ce qui favorise l’accès au contenu cinématographique et éducatif à de plus vastes audiences [7].

 

Sur les plans scientifique et médical, cette technologie promet des avancées importantes en contribuant, par exemple, à la création digitale de membres amputés ou en aidant des personnes victimes d’Alzheimer à interagir avec des visages plus jeunes qu’elles pourraient ainsi mieux reconnaitre [8].

 

Dans le monde des affaires, le « deepfake » peut être utilisé pour donner la possibilité aux consommateurs et consommatrices d’essayer des vêtements en ligne par le biais d’un clone digital [9]. Il peut aussi être employé afin de briser la barrière de la langue dans le cadre de conférences téléphoniques internationales. La technologie permet de traduire, en temps réel, le discours d’une personne dans la langue de chacun.e des auditeurs et auditrices tout en ajustant les expressions faciales et les mouvements de la bouche [10].

 

Le revers de la médaille

L’un des plus grands dangers associés à la technologie du « deepfake » est son utilisation dans le but de créer du contenu pornographique. Ces vidéos constituent 98% de tout le contenu trouvé en ligne créé par l’hypertrucage et 99% des victimes sont des femmes [11]. De la même façon, cette technologie menace d’être utilisée pour la production de pornographie juvénile. Dans une décision récente de la Cour du Québec, l’honorable juge Gagnon s’exprime à ce sujet :

 

L’utilisation par des mains criminelles de la technologie de l’hypertrucage donne froid dans le dos. Ce type de logiciel permet de commettre des crimes qui pourraient mettre en cause virtuellement tous les enfants de nos communautés. Un simple extrait vidéo d’enfant disponible sur les réseaux sociaux, ou une capture vidéo subreptice d’enfants dans un lieu public pourraient les transformer en victimes potentielles de pornographie juvénile [12].  

 

Sur le plan juridique, on peut également se questionner sur l’impact de l’apparition des « deepfakes » dans le contexte de la preuve, notamment en ce qui a trait à l’administration et l’authentification de celle-ci [13]. Imaginez si une pièce audio ou vidéo truquée introduite en preuve était suffisamment réaliste pour convaincre un jury de condamner à tort un accusé [14]. Un autre des risques importants attribué à l’hypertrucage est la menace à la sécurité nationale par la propagande politique et l’interférence qu’il pourrait occasionner dans les élections [15]. Les créateurs et créatrices de contenu truqué peuvent diffuser des vidéos mettant en scène des dirigeant.e.s politiques affirmant des propos fabriqués, ce qui risque de causer des inquiétudes, des révoltes et même d’influencer le vote des électeurs et électrices [16].

 

Par ailleurs, l’étendue de la désinformation liée à l’hypertrucage est telle que la confiance du public envers l’information transmise par les médias et même par les autorités en sera inévitablement compromise [17]. À quoi peut-on se fier quand le flux de contenu que l’on consomme sur nos médias sociaux confond le vrai et le faux? Ainsi, le plus grand danger n’est même plus la désinformation en tant que telle, mais le risque d’une perte totale de confiance de la population envers l’information qui leur est transmise [18]. Finalement, l’hypertrucage a, en outre, des conséquences importantes sur la cybersécurité en facilitant l’escroquerie grâce à la manipulation vidéo et audio, l’hameçonnage vocal, ainsi que l’usurpation d’identité [19]. Face aux inquiétudes exposées ci-dessus, il en résulte un consensus que le potentiel qu’a cette technologie de causer des conséquences sérieuses justifie l’adoption d’une régulation [20]. À ce stade, plusieurs propositions ont été faites dans différents États, mais comme nous le savons, le processus de législation peut être complexe et prendre du temps.

 

La réponse législative

De manière générale, les avancées technologiques, en raison de leur nature complexe et changeante, constituent un véritable obstacle pour les juristes. De ce fait, il peut être facile pour le législateur de se trouver dépassé par les innovations constantes dans ce domaine. La première apparition du terme « deepfake » remonte à 2017, mais le phénomène a pris, dans les dernières années, une ampleur telle qu’il est impératif qu’on le légifère [21].

 

Chine

À ce jour, la Chine est l’État ayant adopté la législation la plus spécifique, complète et stricte sur l’hypertrucage [22]. À la suite de la popularisation d’applications permettant aux usagers et usagères de créer leurs propres « deepfakes » en 2019, la Chine a rapidement réagi en adoptant des règlements visant à responsabiliser les utilisateurs et utilisatrices ainsi que les fournisseurs de ces services [23]. Notamment, ce pays a qualifié d’offense criminelle le fait de publier du contenu truqué sans l’identifier clairement comme tel [24]. La législation met un accent particulier sur le rôle qu’ont les plateformes de contrôler le contenu qu’elles rendent accessible, soit par la prévention, la détection et la dénonciation [25]. Cette année, la Chine a également adopté une réglementation imposant aux entreprises qui offrent des services d’hypertrucage d’obtenir l’identité réelle de leurs client.e.s et prohibant le partage de contenu « deepfake » révélant un individu n’y ayant pas donné son consentement [26].

 

 

États-Unis

Aux États-Unis, bien qu’il n’y ait pas encore de législation fédérale portant spécifiquement sur l’hypertrucage, on sent que ce phénomène commence à préoccuper les politicien.ne.s [27]. C’est pourquoi les grand.e.s dirigant.e.s technologiques et les sénateurs et sénatrices américain.e.s se sont dernièrement rencontré.e.s pour discuter la possibilité d’une réglementation gouvernementale [28]. De plus, la politicienne américaine Yvette Clarke a déposé son projet de loi intitulé Deepfakes Accountability Act qui vise à obliger les créateurs et créatrices à révéler les altérations faites à leur contenu publié en ligne [29]. Ceux et celles qui manqueraient à leur devoir d’indiquer publiquement la nature truquée de leur contenu de nature sexuelle, criminelle, violente ou visant à interférer dans les élections feraient face à des accusations criminelles prévoyant des amendes et parfois même des peines d’emprisonnement [30]. Pour les autres types de « deepfakes », un recours au civil serait possible dans le cadre d’une poursuite privée pour les dommages causés [31]. Selon l’expert Henry Ajder, bien que le projet soit un pas dans la bonne direction, il est critiqué pour être trop restreint et ne pas inclure un type de contenu, qui même sans mettre en scène des individus, est dommageable [32]. À tire d’exemple, il rappelle la fausse image du Pentagone enflammé circulant plus tôt cette année qui avait causé une brève chute des marchés financiers [33].

 

Canada

Maintenant, que se passe-t-il de notre côté? Au Canada, le ministre des Transports Pablo Rodriguez, accompagné d’un groupe d’expert.e.s, a annoncé son intention de déposer un projet de loi sur les préjudices en ligne afin de légiférer les abus en ligne, ce qui comprend notamment les « deepfakes » [34]. Toutefois, il est dans la préoccupation des expert.e.s que la loi soit soigneusement formulée de manière à empêcher les excès par les gouvernements cherchant à justifier une atteinte à la liberté d’expression [35]. En 2022, la Loi sur l’intelligence artificielle et les données a également été proposée [36]. Celle-ci vise à réguler les systèmes d’intelligence artificielle utilisés au Canada afin de veiller à ce qu’ils soient sécuritaires et non discriminatoires. Elle cherche aussi à responsabiliser les entreprises qui font usage de ces technologies. [37] Dans le droit canadien actuel, certaines mesures peuvent être prises, dans des situations particulières, pour réparer les torts causés par l’hypertrucage. Par exemple, des recours peuvent être entamés, le cas échéant, sur un fondement de violation du droit d’auteur, de diffamation, d’atteinte à la vie privée ou d’usurpation d’identité. Aussi, certaines dispositions du Code criminel peuvent être invoquées lorsqu’il est question de contenu truqué exposant de la pornographie juvénile ou de la pornographie dite « de vengeance », de même qu’en présence d’extorsion, de fraude ou de harcèlement criminel [38].

 

Conclusion

Pour conclure, l’émergence de la technologie du « deepfake » promet certes des avancées intéressantes dans plusieurs domaines, mais ce sont surtout les dangers que l’on attribue à son utilisation malveillante qui sont inquiétants. En terminant, voici certains indices qui vous permettront de détecter ce type de contenu : la présence de détails étranges, un manque de réalisme dans l’éclairage, des traits floutés, des erreurs dans l’arrière-plan ou dans l’écriture, un manque de coordination entre la voix et la bouche et un mouvement anormal des yeux [39]. Restez vigilant.e.s, et surtout, n’oubliez pas que de le voir ne veut plus nécessairement dire de le croire.

 

 

Sources

 

  1. Vincent CARON, « Deepfake : quels impacts pour l’industrie des médias et du divertissement? », Fonds des médias du Canada, 26 juin 2019, en ligne :  <https://cmf-fmc.ca/fr/futur-et-medias/articles/deepfake-quels-impacts-pour-lindustrie-des-medias-et-du-divertissement/> (consulté le 25 octobre 2023).

  2. Id.

  3. Luke HURST, « Generative AI fueling spread of deepfake pornography across the internet », Euronews, 20 octobre 2023, en ligne :  <https://www.euronews.com/next/2023/10/20/generative-ai-fueling-spread-of-deepfake-pornography-across-the-internet> (consulté le 25 octobre 2023).

  4. Vivien LLOVERIA, « Le deepfake et son métadiscours : l’art de montrer que l’on ment », (2022) 11-2 Interfaces numériques, en ligne : <https://www.unilim.fr/interfaces-numeriques/4876> (consulté le 29 octobre 2023).

  5. Id.

  6. Mika WESTERLUND, « The emergence of deepfake technology : A review », (2019) 9-11  Technology Innovation Management Review, en ligne : <https://timreview.ca/sites/default/files/article_PDF/TIMReview_November2019%20-%20D%20-%20Final.pdf> (consulté le 29 octobre 2023).

  7. Id.

  8. Id.

  9. Id.

  10. Id.

  11. L. HURST, préc., note 3.

  12. R. c. Larouche, 2023 QCCQ 1853, par. 70.

  13. Riana PFEFFERKORN, « Deepfakes in the courtroom », (2020) 29-2 Boston University Public Interest Law Journal, en ligne : <https://heinonline-org.ezproxy.usherbrooke.ca/HOL/Page?handle=hein.journals/bupi29&id=229&collection=usjournals&index=> (consulté le 2 novembre 2023).

  14. Anna YAMAOKA-ENKERLIN, « Disrupting Disinformation : Deepfakes and the Law Comment », (2020) 22 New York University Journal of Legislation and Public Policy, en ligne : <https://heinonline-org.ezproxy.usherbrooke.ca/HOL/Page?collection=usjournals&handle=hein.journals/nyulpp22&id=742&men_tab=srchresults> (consulté le 2 novembre 2023).

  15. Jack LANGA, « Deepfakes, real consequences : crafting legislation to combat threats posed by deepfakes », (2021) 101-1 Boston University Law Review, en ligne : <https://heinonline-org.ezproxy.usherbrooke.ca/HOL/Page?handle=hein.journals/bulr101&id=1&collection=usjournals&index=> (consulté le 2 novembre 2023).

  16. M. WESTERLUND, préc., note 6.

  17. Id.

  18. A. YAMAOKA-ENKERLIN, préc., note 14.

  19. TERRANOVA SECURITY, « L’hypertrucage ou deepfake : Tout ce que vous devez savoir pour vous protéger », Fortra, 22 juin 2023, en ligne : <https://terranovasecurity.com/fr/hypertrucage/#> (consulté le 29 octobre 2023).

  20. J. LANGA, préc., note 15.

  21. Meredith SOMERS, « Deepfakes, explained », MIT Management, 21 juillet 2020, en ligne : <https://mitsloan.mit.edu/ideas-made-to-matter/deepfakes-explained> (consulté le 30 octobre 2023).

  22. Afiq FITRI, « China has just implemented one of the world’s strictest laws on deepfakes », TechMonitor, 10 janvier 2023, en ligne : <https://techmonitor.ai/technology/emerging-technology/china-is-about-to-pass-the-worlds-most-comprehensive-law-on-deepfakes> (consulté le 5 novembre 2023).

  23. Yinuo GENG, « Comparing deepfake regulatory regimes un the United States, the European Union and China », (2023) 7-1 Georgetown Law Technology Review, en ligne : <https://heinonline-org.ezproxy.usherbrooke.ca/HOL/Page?handle=hein.journals/gtltr7&id=158&collection=usjournals&index=> (consulté le 2 novembre 2023).

  24. Id.

  25. Id.

  26. Arjun KHARPAL, « China is about to get tougher on deepfakes in an unprecedented way. Here’s what the rules mean » CNBC, 22 décembre 2022, en ligne : <https://www.cnbc.com/2022/12/23/china-is-bringing-in-first-of-its-kind-regulation-on-deepfakes.html> (consulté le 2 novembre 2023).

  27. Caroline QUIRK, « The High Stakes of Deepfakes: The Growing Necessity of Federal Legislation to Regulate This Rapidly Evolving Technology », Princeton Legal Journal, 19 juin 2023, en ligne : <https://legaljournal.princeton.edu/the-high-stakes-of-deepfakes-the-growing-necessity-of-federal-legislation-to-regulate-this-rapidly-evolving-technology/> (consulté le 5 novembre 2023).

  28. Emmanuelle SALIBA, « Bill would criminalize ‘extremely harmful’ online ‘deepfakes’ », ABC News, 25 septembre 2023, en ligne : <https://abcnews.go.com/Politics/bill-criminalize-extremely-harmful-online-deepfakes/story?id=103286802#:~:text=If%20passed%2C%20the%20legislation%20would,including%20prison%20time%20and%20fines> (consulté le 30 octobre 2023).

  29. Amanda LAWSON, « A look at global deepfake regulation approaches », Responsible Artificial Intelligence Institute, 25 avril 2023, en ligne : <https://www.responsible.ai/post/a-look-at-global-deepfake-regulation-approaches> (consulté le 2 novembre 2023).

  30. Id.

  31. E. SALIBA, préc., note 28.

  32. Id.

  33. Id.

  34. Marie WOOLFE, « Futur projet de loi sur les préjudices en lignes - La désinformation devrait être incluse, selon un groupe d’expert », La Presse, 19 juin 2022, en ligne : <https://www.lapresse.ca/affaires/medias/2022-06-19/futur-projet-de-loi-sur-les-prejudices-en-ligne/la-desinformation-devrait-etre-incluse-selon-un-groupe-d-expert.php> (consulté le 30 octobre 2023).

  35. Id.

  36. GOUVERNEMENT DU CANADA, « Loi sur l’intelligence artificielle et les données », Innovation, Sciences et Développement économique Canada, 2023, en ligne : <https://ised-isde.canada.ca/site/innover-meilleur-canada/fr/loi-lintelligence-artificielle-donnees> (consulté le 2 novembre 2023).

  37. Id.

  38. B.J. SIEKIERSKI, Hypertrucage : Que peut-on faire à propos du contenu eudio et vidéo de synthèse?, Ottawa, Bibliothèque du Parlement, 2019, en ligne: <https://bdp.parl.ca/staticfiles/PublicWebsite/Home/ResearchPublications/InBriefs/PDF/2019-11-f.pdf> (consulté le 20 octobre 2023); À titre d’exemples : Code criminel, LRC 1985, c. C-46, art. 162.1, 163.1, 346 (1), 380 (1), 246 (1).

  39. Imane EL ATILLAH, « How to spot a deepfake: 5 things to watch out for to identify AI-generated content online », Euronews, 1er mai 2023, en ligne : <https://www.euronews.com/next/2023/05/01/how-to-spot-an-ai-deepfake-midjourney-from-trump-arrest-to-the-pope-puffer-coat> (consulté le 30 octobre 2023).

Ancre 1
bottom of page