
Une intelligence artificielle difficile à encadrer
Rédigé par Nathaniël Charland
L’intelligence artificielle (ci-après « IA ») connaît une évolution rapide, transformant et optimisant les sphères corporative, personnelle et administrative. Elle constitue un outil performant, capable d’améliorer l’efficacité et la productivité, notamment dans l’exécution de procédés de base chez les entreprises. Il en va de même dans le traitement de certains dossiers au sein de l’administration publique. Toutefois, elle représente aussi une source de risques émergents, tels que le vol de données sans intervention humaine, la création de deepfakes (« hypertrucages ») par des algorithmes, sans oublier l’instauration d’une confiance sociale excessive envers son « jugement », ce qui peut entraîner des erreurs dans le traitement, la production ou la communication de l’information [1].
Compte tenu de la place désormais centrale de l’IA dans la société, les législateurs, tant canadiens que québécois, sont appelés à intervenir. Malgré les efforts déjà déployés pour encadrer juridiquement l’IA et sanctionner les délits commis, il demeure essentiel de préciser les contextes et conditions de leur utilisation, tout en adaptant le droit aux nouvelles formes d’atteintes que ces agents peuvent engendrer. Ces technologies soulèvent ainsi d’importantes questions chez les juristes, entre autres quant aux fondements mêmes de la responsabilité civile au Québec [2].
Questionnements pendants
Trois questionnements essentiels peuvent se dégager de l’analyse de l’écosystème juridique actuel en lien avec ces nouvelles formes d’intelligence artificielle.
D’abord, comment définir ce qu’est une IA? Le législateur est face à un double défi. D’un côté, il doit éviter d’élaborer une définition trop restrictive de ce qu’est l’intelligence artificielle. En effet, cela permettrait à certaines formes d’IA d’échapper à la régulation. D’un autre côté, le législateur doit éviter de proposer une définition trop large, risquant de diluer les concepts mêmes de ce que sont une IA ainsi qu’une action posée par celle-ci. [3].
Ensuite, comment autoriser et réguler légalement l’utilisation de l’IA dans les contextes professionnel, académique et administratif? L’IA peut agir comme un sous-exécutant, voire un exécutant, d’une efficacité quasi inégalable, entre autres dans les tâches d’association. Il ne faut pas non plus oublier de considérer que l’usage de l’IA doit se faire de façon limitée dans l’optique de prévenir la déshumanisation des services et d’éviter un relâchement dans la vérification, la véracité et la mise en contexte de faits [4].
Enfin, se posent les questions du dédommagement et de l’imputabilité des actes commis par une IA : dépendamment du contexte, qui est responsable des fautes de l’IA, et, en présence d’IA autonomes, pouvons-nous vraiment imputer la faute à quelqu’un d’autre que celles-ci? Il est possible de soulever deux approches principales face aux dommages causés par l’IA qui émergent parmi les communautés de juristes québécois [5].
La première s’appuie sur le régime de responsabilité civile québécois, soit d’une part, les articles 1457 alinéa 3 et 1465 du Code civil du Québec (ci-après « C.c.Q. ») [6], qui pourraient permettre d’engager la responsabilité de la personne ayant la « garde » de l’IA fautive. Cette personne serait alors tenue de réparer le préjudice causé. Cependant, dans le cas des IA autonomes et génératives, la notion de « gardien » demeure floue : pourrait-il s’agir de l’utilisateur, du concepteur, de l’entreprise exploitante – ou encore des trois à la fois [7]? D’autre part, un recours pourrait être intenté en vertu des articles 1468 et 1469 C.c.Q., qui permettraient d’engager la responsabilité du concepteur et du fournisseur de l’IA en cas de défaut de sécurité de celle-ci, notamment en cas de fuite de donnés [8.
La seconde approche envisage un modèle public d’indemnisation s’apparentant à celui de la Société de l’assurance automobile du Québec. Selon ce modèle, les victimes d’un dommage causé par une IA pourraient être indemnisées, sur demande, par un fonds public, sans qu’il soit nécessaire d’intenter un recours contre une entité précise. Ce système aurait l’avantage de simplifier les démarches de réclamation et d’assurer une certaine équité. Toutefois, sa mise en œuvre soulèverait d’importantes questions de financement [9].
Ce qui est en place
Ces questionnements, ainsi que l’évolution de cette technologie dans son ensemble, ont incité les législateurs à ne pas demeurer passifs. Cependant, ne pas rester passif ne signifie pas pour autant être pleinement proactif. Il importe donc d’examiner les mesures déjà adoptées – ou actuellement envisagées – qui visent à encadrer l’usage de l’IA au Canada, et plus particulièrement au Québec.
Actuellement, deux lois provinciales, soit la Loi concernant le cadre juridique des technologies de l’information (ci-après « LCCJTI ») [10] et la Loi modernisant des dispositions législatives en matière de protection des renseignements personnels (ci-après « Loi 25 ») [11], constituent le principal cadre juridique applicable à l’IA au Québec. Par ailleurs, le projet de loi fédéral C-27, déposé en juin 2022, n’a jamais été sanctionné. Il visait à instaurer la Loi sur l’intelligence artificielle et les données (ci-après « LIAD ») [12]. Bien que ce projet soit mort au feuilleton à l’occasion de la prorogation du Parlement canadien du 6 janvier au 24 mars 2025, s’il venait à revoir le jour, la loi en découlant correspondrait à la première loi au Canada visant à encadrer directement l’IA [13].
La LCCJTI
Cette loi ne vise pas directement l’IA, mais encadre plutôt l’utilisation et la conservation sécuritaire des données sur toutes les plateformes technologiques. Son article 25 impose à la personne responsable d’une telle plateforme de s’assurer de sa sécurité, de la protection des données qui y sont hébergées et du contrôle des accès à cette dite plateforme [14]. Cet article s’applique tant à la protection des données contre les IA cherchant à y accéder qu’à la protection des informations contenues dans ces intelligences elles-mêmes [15].
L’article 3 de cette même loi inclut d’ailleurs l’IA, techniquement, dans la définition de « document technologique », puisque cette dernière pourrait être considérée comme un document « constitué d’informations portées par un support […] faisant appel aux technologies de l’information [16] ». En bref, le créateur d’une IA doit s’assurer de limiter l’accès aux données recueillies par celle-ci à des tiers, sous peine de possiblement être tenu responsable des dommages causés par une fuite de données [17].
En se fondant sur le C.c.Q. et la LCCJTI, il pourrait être possible d’engager la responsabilité de plusieurs parties en cas de fuite de données. Cela inclut la personne ayant conçu l’IA et un prestataire de services utilisant l’IA contenant des données confidentielles. Si ces données contenues dans l’IA sont ou deviennent accessibles à un tiers en raison d’un défaut de sécurité, ces acteurs pourraient être tenus responsables des préjudices subis. Cette possibilité de recours s’appuie sur les dispositions de l’article 1468 C.c.Q. [18], mentionné précédemment, relatif au défaut de sécurité d’un bien, ainsi que sur les articles 25 et 26 de la LCCJTI [19], qui encadrent la protection et la confidentialité des renseignements traités par des systèmes technologiques [20].
La Loi 25
La Loi 25, bien qu’elle ne fasse pas non plus directement référence à l’IA, constitue un autre effort du gouvernement québécois dans l’optique de renforcer la protection de la vie privée des citoyens et de limiter l’utilisation de leurs renseignements personnels. Cette loi peut être pertinente afin d'agir à titre de cadre de protection contre les traitements automatisés abusifs pouvant survenir, notamment au sein de la fonction publique [21].
En effet, cette loi prévoit que, désormais, les personnes concernées doivent être informées lorsque leurs renseignements personnels sont utilisés dans le cadre d’un traitement automatisé [22]. Sur demande, elles peuvent obtenir des précisions sur les renseignements ayant servi à la décision, sur les motifs de celle-ci et sur les facteurs déterminants [23]. Elles doivent également être informées de leur droit de faire rectifier les renseignements personnels utilisés dans ce processus et de la possibilité de présenter leurs observations à un membre du personnel habilité à réviser la décision [24].
La LIAD
Déposé en juin 2022 devant la Chambre des communes, le projet de loi instaurant la LIAD n’a pas été sanctionné. Bien qu’il ait été renvoyé au Comité permanent de l'industrie et de la technologie pour étude en 2024, il est mort au feuilleton en 2025. Toutefois, s’il venait à revoir le jour et être adopté, il serait à l’origine de la première loi canadienne servant à réguler directement les activités liées à l’intelligence artificielle.
Ce projet de loi prévoyait plusieurs dispositions imposant des sanctions pénales, selon les circonstances, aux concepteurs et utilisateurs d’IA – que ceux-ci soient des personnes morales ou physiques – afin de protéger le public, tant dans la sphère privée que dans la sphère publique. Parmi les nouvelles infractions envisagées figurait notamment l’utilisation illégale de renseignements personnels pour développer une IA. En cas de contravention, des amendes pouvant atteindre 10 à 25 millions de dollars, ou des peines d’emprisonnement d’une durée maximale de cinq ans moins un jour assorties d’amendes discrétionnaires auraient pu être imposées [25].
Comparatif européen
Comparativement au Canada, les pays de l’Union européenne ont adopté, en date du 21 mai 2024, le règlement européen sur l’intelligence artificielle, en vigueur depuis le 1er août 2024. Ce règlement, qui commencera à s’appliquer, pour la majorité de ses dispositions, à compter du 1er août 2026, est le premier acte d’encadrement, d’un point de vue global, de l’IA dans le monde [26].
Cet acte de la part de l’Union européenne a pour objectif d’encadrer et d’encourager la création et le développement d’IA « sûres, dignes de confiance et éthiques ». On compte entre autres des dispositions encadrant les contextes d’utilisation de l’IA dans le milieu professionnel, la procédure et les composantes de création d’une IA ainsi que l’instauration, sur le plan de la gouvernance et de la sanction aux contraventions du règlement en Europe, du Bureau de l’IA et du Comité de l’IA [27].
Face au vide juridique
Malgré les mesures déjà mises en place, peut-on réellement considérer que le cadre juridique actuel est suffisant pour réguler adéquatement l’interaction des IA avec les différents acteurs sociaux? Même si, dans certains cas, il est possible d’imputer la responsabilité d’une fuite de données à son concepteur ou à son utilisateur, qu’en est-il des IA qui agissent de manière entièrement autonome, apprennent par elles-mêmes et collectent des renseignements de manière illégale, sans que leur concepteur ou leur gardien en ait connaissance? Par ailleurs, la définition même de l’IA reste floue, le législateur n’en ayant pas encore fixé une précise.
Face aux enjeux sociaux croissants liés à l’IA et à sa présence de plus en plus marquée dans la vie quotidienne, il est évident que l’IA – et en particulier les systèmes autonomes et génératifs – évolue actuellement à travers un quasi-vide juridique, en raison du manque d’encadrement législatif. Non seulement la législation est lacunaire sur le plan de la responsabilité civile et des normes d’utilisation professionnelle de l’IA, mais elle l’est aussi sur les plans du droit de la propriété intellectuelle et du droit de la personne. Le Québec doit donc agir rapidement, mais avec prudence, car le véritable enjeu demeure : comment légiférer sans freiner l’innovation?
Sources
[1] Antoine RANCOURT, « Encadrement légal de l’intelligence artificielle : où en sommes-nous au Canada et au Québec? », Langlois, 10 novembre 2023, en ligne : <https://langlois.ca/ressources/encadrement-legal-de-lintelligence-artificielle-ou-en-sommes-nous-au-canada-et-au-quebec/> (consulté le 10 novembre 2025) ; COUR SUPÉRIEURE DU QUÉBEC, Cadre de gouvernance en matière d’intelligence artificielle, en ligne : <2025-09_Cadre_gouvernance_IA_Cour_superieure_Quebec.pdf> (consulté le 10 novembre 2025).
[2] Juliette POWELL et Art KLEINER, The Ai Dilemma. 7 Principles for Responsible Technology, San Francisco, Berrett-Koehler, 2023.
[3] Magalie BOUTEILLE-BRIGANT, « Intelligence artificielle et droit : entre tentation d’une personne juridique du troisième type et avènement d’un "transjuridisme" », (2018) 62 LPA 7 ; Jair RIBEIRO, « These are the Best Definitions of Articial Intelligence You Can Read Today », Medium, 3 mars 2021, en ligne : <https://medium.com/swlh/these-are-the-best-defintions -of-artificial-intelligence-you-can-read-today-7c53c0e38584> (consulté le 10 novembre 2025).
[4] COUR SUPÉRIEURE DU QUÉBEC, préc., note 1.
[5] Id.
[6] Code civil du Québec, RLRQ, c. CCQ-1991, art. 1457 al. 3 et 1465.
[7] Mariève LACROIX et Nicolas VERMEYS, Responsabilité.ia, Montréal, Éditions Yvon Blais, 2023, p. 11-85.
[8] Code civil du Québec, préc., note 6, art. 1468 et 1469.
[9] Mariève LACROIX et Nicolas VERMEYS, préc., note 7.
[10] Loi concernant le cadre juridique des technologies de l’information, L.R.Q., c. C-1.1.
[11] Loi modernisant des dispositions législatives en matière de protection des renseignements personnels, L.Q. 2021, c. 25.
[12] Loi sur l’intelligence artificielle et les données, projet de loi C-27 (2e lecture et renvoi à un comité), 1re sess., 44e légis. (Can).
[13] Mariève LACROIX et Nicolas VERMEYS, préc., note 7, p. 108-113.
[14] Loi concernant le cadre juridique des technologies de l’information, préc., note 10, art. 25.
[15] Mariève LACROIX et Nicolas VERMEYS, préc., note 13.
[16] Loi concernant le cadre juridique des technologies de l’information, préc., note 10, art. 3.
[17] Mariève LACROIX et Nicolas VERMEYS, préc., note 13.
[18] Code civil du Québec, préc., note 6, art. 1468.
[19] Loi concernant le cadre juridique des technologies de l’information, préc., note 10, art. 25 et 26.
[20] Mariève LACROIX et Nicolas VERMEYS, préc., note 13.
[21] Antoine RANCOURT, préc., note 1.
[22] Id.
[23] Id.
[24] Id.
[25]Id.
[26] SPF ÉCONOMIE, « Règlement sur l’intelligence artificielle », 11 mars 2025, en ligne : <https://economie.fgov.be/fr/themes/line/intelligence-artificielle/reglement-sur-lintelligence> (consulté le 18 novembre 2025).
[27] Id.



