Le contenu haineux à l’ère numérique : une étude comparée
Rédacteur: Maxime Leblanc
Le monde virtuel et les différentes plateformes qu’on y retrouve occupent de plus en plus de place et de temps dans la vie de tous. En moyenne, le propriétaire d’un téléphone intelligent passe près de 3h30 par jour devant celui-ci et près de 8 heures devant tous les écrans confondus (1). Ces gens passent leur temps notamment sur Facebook, qui est l’un des médias sociaux les plus consultés, comptant près de 3 milliards d’utilisateurs actifs mensuellement (2). Cependant, cette possibilité de diffuser des messages à un large public de façon plus ou moins anonyme vient aussi avec son lot de problèmes. Par exemple, les algorithmes de recommandation de contenu présents sur les différentes plateformes comme Facebook, Instagram et Twitter ont pour conséquence de polariser les idées et d’entrainer une détérioration du débat public. Bien que les usagers soient libres de s’exprimer sur le web, l’encadrement du contenu haineux constitue une limite à cette liberté. Cet encadrement s’applique à tous types de « propos virulents et extrêmes donnant à entendre qu’une personne est dépourvue d’une quelconque qualité qui puisse l’élever au rang d’être humain en raison de son appartenance à une race, un sexe, une religion ou un autre groupe protégé » (3). La diffamation, l’incitation à la haine ou encore la cyberintimidation peuvent donc tous être restreints lorsque suffisamment extrêmes. Nous décrirons d’abord comment fonctionne l’encadrement de ce contenu au Canada et, par une approche de droit comparé, nous tenterons de nous inspirer des remparts législatifs qui existent à l’internationale.
La gestion du monde virtuel au Canada
Au Canada, il existe actuellement deux mécanismes prévus afin d’encadrer le contenu publié sur les réseaux sociaux. Il y a d’abord les paragraphes 318 à 320.1 du Code criminel, qui prévoient une infraction pour quiconque qui incite à la haine ou au génocide contre un groupe identifiable ou au génocide, et le paragraphe 718.2a)(i), qui fait de la propagande haineuse un facteur aggravant au moment de déterminer la peine (4). Bien que ces dispositions ne prévoient pas explicitement s’appliquer au monde virtuel, la décision R. c. William Patrick Nicholson a confirmé le tout en 2002 (5). Cette décision fut la première en matière de propagande haineuse virtuelle, ainsi qu’en matière d’applicabilité du paragraphe 319(2) C.cr. sur le web (6). Dans cette affaire, la Cour provinciale de la Colombie-Britannique a jugé que l’accusé a contrevenu à la disposition mentionnée, puisqu’il possédait une adresse courriel pour recevoir et transmettre du contenu haineux (7). La constitutionnalité de cette disposition a aussi été mise en jeu dans l’arrêt Keegstra de la Cour suprême (8). Dans cette décision, les juges ont déterminé que le paragraphe 319(2) C.cr. violait la liberté d’expression prévue par la Charte canadienne des droits et libertés, mais que cette restriction était justifiable au sens de son article premier (9). La Cour a aussi défini la haine comme désignant « une émotion à la fois intense et extrême qui est clairement associée à la calomnie et à la détestation » (10). Les statistiques démontrent cependant que très peu de plaintes ont été déposées en lien avec les dispositions précitées, ce qui pourrait avoir incité le législateur à adopter, en 1985, les dispositions anti-haine de la Loi canadienne sur les droits de la personne (ci-après « L.C.D.P. ») (11).
De ce fait, le deuxième mécanisme prévu par le droit canadien est la L.C.D.P., ou plus précisément son article 13, qui prévoit que la haine et le mépris envers un groupe identifiable sont des actes discriminatoires (12). L’arrêt Taylor a confirmé la constitutionnalité de l’article, mais a restreint son application aux formes les plus extrêmes d’expression (13). La L.C.D.P. n’interdit pas les propos offensants, mais ne permet pas ceux qui incitent à la haine ou la violence (14). Comme pour les dispositions du Code criminel, les juges ont affirmé ici aussi que l’article 13 de la L.C.D.P. portait atteinte à la liberté d’expression, mais que cette atteinte passait avec succès le test de l’arrêt Oakes (15). En 2001, afin de clarifier l’applicabilité de l’article au monde virtuel, le législateur fédéral a modifié celui-ci pour y ajouter un second alinéa, qui prévoit qu’il « s’applique à l’utilisation d’un ordinateur, d’un ensemble d’ordinateurs connectés ou reliés les uns aux autres, notamment d’Internet, ou de tout autre moyen de communication semblable » (16). Cette modification fait suite à l’arrêt Zundel, dans lequel le Tribunal canadien des droits de la personne se penchait sur l’application de l’article 13 de la L.C.D.P. à des publications faites sur un site web (17). Cependant, cette disposition est rapidement devenue l’objet de controverse et a été abrogée en 2014 à la suite du dépôt de deux rapports en 2008 et 2009 (18). Les principaux arguments soulevés étaient que le contenu haineux ne devrait être encadré que par le Code criminel et que la liberté d’expression devrait être restreinte le moins possible (19). Un nouveau projet de loi visant à réintroduire l’article a récemment été déposé, mais est bloqué au stade de la première lecture depuis l’été 2021 (20). Il faudra donc suivre l’évolution des travaux parlementaires de la Chambre des communes pour connaître l’issue de ce projet de loi.
La cyber-haine sur la scène internationale
Afin de comprendre les divergences qui existent entre les pays quant à la gestion du contenu haineux, il est nécessaire de regarder leur culture politique. La Chine, très autoritaire, adopte une approche paternaliste et encadre énormément ce qui est publié sur Internet (21). La définition du discours haineux est très large et les fournisseurs de services et autres entreprises sont soumis à des contraintes très strictes face au contenu qu’ils peuvent émettre. Les sanctions sont aussi extrêmement sévères pour les entreprises, qui risquent de perdre leur licence ou encore de se voir imposer des amendes salées (22).
Aux États-Unis, plutôt libertarien, c’est le cyberlibéralisme qui est mis de l’avant. Le Premier Amendement protège la liberté d’expression contre toute ingérence possible (23). Une tentative de réguler la conduite en ligne avait été mise en place par le congrès en 1996, mais a depuis été déclarée inconstitutionnelle (24). La décision R.A.V. v. City of Saint Paulest un bon exemple de la protection accordée à la liberté d’expression aux États-Unis (25). Dans cette affaire, les juges ont établi qu’une ordonnance visant à criminaliser le placement de symboles nazis sur une propriété privée ou publique violait le Premier Amendement, et était donc inconstitutionnelle. Nous remarquons donc que même les conduites les plus extrêmes se voient protégées par la Constitution américaine.
En Europe, les dirigeants interventionnistes ont opté pour une approche collaborative avec les grandes entreprises de technologie (Facebook, Microsoft, Twitter et Youtube) (26). En 2016, un code de conduite a été adopté en partenariat avec les quatre plateformes (27). Ce code de conduite ne contient aucune sanction, mais plutôt des mécanismes de surveillance visant à déterminer l’évolution des plateformes face au traitement des signalements et à la suppression du contenu haineux (28). Ainsi, les rapports produits par la Commission européenne entre 2016 et 2020 démontrent que le volume de contenu haineux supprimé des plateformes a augmenté de 40% et que les signalements traités dans un délai de 24 heures ont augmenté de près de 50% (29). Cependant, cette approche n’est pas sans risque. En effet, bien que les résultats démontrent que les entreprises respectent le code, il faut aussi constater que ce dernier donne beaucoup de liberté aux géants du web quant à la détermination de ce que signifie « contenu haineux » (30). Ceux-ci peuvent donc brimer la liberté d’expression, droit fondamental selon l’Union européenne, sans réelle contrainte ou sanction.
Au-delà de la législation
Pour conclure, nous avons pu constater les écarts qui existent entre les différentes façons de réguler la haine en ligne. En effet, nous avons remarqué que la Chine et les États-Unis se trouvent à l’opposé du spectre sur le contrôle du monde virtuel, alors que le Canada et l’Europe se situent plutôt au centre. Il existe cependant d’autres alternatives à la régulation afin de mettre fin à la propagation haineuse sur les réseaux sociaux. La population a notamment son rôle à jouer, par le biais du contre-discours et par la dénonciation des utilisateurs qui propagent la haine (31). Cette conscientisation des citoyens passe notamment par des campagnes de sensibilisation et par l’éducation dès un jeune âge. Ceci permettrait de donner aux générations actuelles et futures les outils nécessaires afin qu’ils développent un esprit critique face aux discours qu’ils retrouvent sur les différentes plateformes, et cela empêcherait ainsi la désinformation qui est souvent à la base de la haine retrouvée sur le web. En effet, il vaut mieux prévenir le mal que le guérir.
Sources
(1) Radio-Canada, « On passe de plus en plus de temps sur nos téléphones mobiles », Radio-Canada, 7 janvier 2020, en ligne : <https://ici.radio-canada.ca/nouvelle/1460864/etude-temps-decran-telephone-cellulaire-2019-zenith> (Consulté le 20 février 2022); La Presse canadienne, « Près de huit heures par jour rivé à un écran », Radio-Canada, 7 janvier 2014, en ligne : https://ici.radio-canada.ca/nouvelle/648507/canadiens-disent-passer-pres-de-90-pour-cent-temps-libre-devant-un-ecran-selon-sondage> (Consulté le 20 février 2022).
(2) Statista, « Facebook: number of monthly active users worldwide 2008-2021 » en ligne : <https://www.statista.com/topics/751/facebook/> (Consulté le 20 février 2022).
(3) commission canadienne des droits de la personne, Rapport spécial au Parlement – liberté d’expression et droit à la protection contre la haine à l’ère de l’Internet, Ottawa, 2009, p. 36.
(4) Code criminel, L.R.C. 1985, c. C-46, art. 318-320.1 et 718.2a)(i).
(5) R. c. William Patrick Nicholson, B.C.P.C. Merritt, n° 10621, 11 juillet 2002.
(6) Myron Claridge, « Une démarche axée sur le droit pénal pour combattre la haine », (2006) C.I.T.C. 102, 105.
(7) R. c. William Patrick Nicholson, préc., note 4; M. Claridge, préc., note 5.
(8) R. c. Keegstra, [1990] 3 R.C.S. 697.
(9) Id. ; Charte canadienne des droits et libertés.
(10) Id., p. 777.
(11) commission canadienne des droits de la personne, préc., note 3, p. 28; Enquête sur les tribunaux de juridiction criminelle pour adultes, Centre canadien de la statistique juridique, Statistique Canada, 2009; Loi canadienne sur les droits de la personne, L.R.C. 1985, c. H-6.
(12) Loi canadienne sur les droits de la personne, préc., note 10, art. 13.
(13) Canada (Commission canadienne des droits de la personne) c. Taylor, [1990] 3 R.C.S. 892.
(14) commission canadienne des droits de la personne, préc., note 3, p. 2.
(15) Canada (Commission canadienne des droits de la personne) c. Taylor, préc., note 13.
(16) Loi antiterroriste, L.C. 2001, c. 41, art. 88.
(17) Citron c. Zundel, dossier T.D. 1/02, 18 janvier 2002 (Tribunal canadien des droits de la personne), en ligne : < https://decisions.chrt-tcdp.gc.ca >.
(18) Loi modifiant la Loi canadienne sur les droits de la personne (protection des libertés), L.C. 2013, c. 37; Richard moon, Rapport présenté à la Commission canadienne des droits de la personne concernant l’article 13 de la Loi canadienne sur les droits de la personne et la réglementation de la propagande haineuse sur Internet, 2008 ; commission canadienne des droits de la personne, préc., note 3.
(19) Julian walker, Discours haineux et liberté d’expression : balises légales au Canada, Ottawa, Bibliothèque du Parlement, 2018, p. 11.
(20) Loi modifiant le Code criminel, la Loi canadienne sur les droits de la personne et apportant des modifications connexes à une autre loi (propagande haineuse, crimes haineux et discours haineux), projet de loi n° C-36 (première lecture – 23 juin 2021), 2e sess., 43e légis. (Can.).
(21) Yu wenguang, « Internet Intermediaries' Liability for Online Illegal Hate Speech, (2018) 13 Frontiers L. China 342, 344 et s.
(22) Id.
(23) Jane bailey, « Private Regulation and Public Policy : Toward Effective Restriction of Internet Hate Propaganda », (2003) 49 McGill L.J. 59, 76.
(24) Michael L. siegel, « Hate Speech, Civil Rights, and the Internet: The Jurisdictional and Human Rights Nightmare », (1999) 9 Alb. L.J. Sci. & Tech. 375, 388.
(25) R.A.V. v. City of St. Paul, 505 U.S. 377 (1992).
(26) Commission européenne, Le code de conduite visant à combattre les discours de haine illégaux en ligne, 2020, 4 p.
(27) Id.
(28) Dorian Mouketou, La lutte contre les contenus haineux sur les plateformes de médias sociaux : une analyse comparative d’approches de régulation, note de recherche, Montréal, Centre d’études sur l’intégration et la mondialisation, U.Q.A.M., 2021, p. 21.
(29) Id., p. 22.
(30) Hui Zhen gan, « Corporations: The Regulated or the Regulators - The Role of IT Companies in Tackling Online Hate Speech in the EU », (2017) 24 Colum. J. Eur. L. 111, 117.
(31) commission canadienne sur l’expression démocratique, Les aspects juridique du discours haineux au Canada, Ottawa, 2020, p. 22.