Le 26 février 2024, le gouvernement fédéral a présenté le projet de loi C-63 (le « projet de loi »), qui édicterait la Loi sur les préjudices en ligne (la « Loi ») et établirait le premier régime fédéral visant à modérer le contenu en ligne au Canada.
Cette Loi vise notamment à atténuer les risques posés par le contenu préjudiciable en ligne, à protéger la santé physique et mentale des enfants, à veiller à ce que les plateformes en ligne soient tenues de rendre des comptes et à rendre inaccessibles certaines formes odieuses de contenu préjudiciable. Pour atteindre ces objectifs, la Loi mettrait en place un nouvel organisme de réglementation à l’égard des préjudices en ligne, soit la Commission canadienne de la sécurité numérique (la « Commission »), lequel serait doté de vastes pouvoirs de perquisition et de saisie et aurait la capacité d’imposer des amendes pouvant atteindre 6 % des revenus globaux en cas de non-conformité.
Afin de respecter les obligations qui leur incomberaient en vertu de la Loi, les plateformes en ligne seraient tenues de mettre en place des mécanismes pour détecter le contenu préjudiciable, d’élaborer un plan de sécurité numérique et de se conformer aux exigences relatives au retrait de certains contenus préjudiciables.
Il convient de noter que cette Loi est conçue à une époque où l’équilibre entre la modération du contenu et la liberté d’expression évolue constamment. Parallèlement, les législateurs partout dans le monde s’efforcent de trouver la réponse appropriée aux questions de politique numérique de façon à s’attaquer à des problèmes comme la désinformation, le harcèlement en ligne, l’hypertrucage et la censure.
À une extrémité du spectre, on trouve la législation sur les services numériques adoptée par l’Union européenne et la loi du Royaume-Uni intitulée Online Safety Act, lesquelles imposent des obligations comparables à celles prévues dans la Loi, mais encore plus vastes, aux services de médias sociaux et aux moteurs de recherche. Aux termes de ces obligations, les services de médias sociaux et les moteurs de recherche sont tenus de prendre les mesures qui s’imposent pour supprimer le contenu préjudiciable et protéger les enfants. À l’autre extrémité du spectre, on trouve les lois de deux États américains, soit la Floride et le Texas, interdisant aux plateformes en ligne de censurer du contenu ou des utilisateurs, au motif qu’une telle censure viole le droit à la liberté d’expression protégé par la Constitution. À noter que la Cour suprême des États-Unis examine actuellement deux affaires relatives à la contestation de ces lois.
Dans un tel contexte, il sera d’autant plus important pour les services de médias sociaux qui exercent des activités sur le marché canadien de bien réfléchir à la façon dont ils arriveront à se conformer aux lois canadiennes, tout en respectant les exigences d’autres territoires.
Champ d’application
Plus particulièrement, la Loi imposerait des obligations aux exploitants de « services réglementés » à l’égard du contenu préjudiciable rendu accessible aux Canadiens.
Par « services réglementés », la Loi entendrait les services de médias sociaux qui respecteraient le seuil relatif au nombre d’utilisateurs éventuellement prescrit dans la réglementation ou désigné par règlement. La Loi introduirait d’ailleurs la toute première définition législative fédérale de « services de médias sociaux », soit « [un] site Web ou [une] application accessible au Canada dont le but principal est de faciliter la communication en ligne à l’échelle interprovinciale ou internationale entre les utilisateurs du site Web ou de l’application en leur permettant d’avoir accès à du contenu et d’en partager ». En vertu de la Loi, les services de contenu pour adultes qui permettent aux utilisateurs d’avoir accès à du contenu pornographique et d’en partager, ainsi que les services de diffusion en direct, seraient des services de médias sociaux. La Loi ne s’appliquerait pas à l’égard des fonctions de messages privés des services réglementés.
En vertu de la Loi, sept catégories de contenu préjudiciable entraîneraient des obligations réglementaires :
- le contenu intime communiqué de façon non consensuelle, comme des photos ou des enregistrements vidéo (y compris les hypertrucages) représentant une personne nue ou se livrant à une activité sexuelle;
- le contenu représentant de la victimisation sexuelle d’enfants ou perpétuant la victimisation de survivants;
- le contenu poussant un enfant à se porter préjudice, par exemple, du contenu qui promeut l’automutilation, les troubles d’alimentation ou le suicide;
- le contenu visant à intimider un enfant, y compris le contenu qui pourrait causer un préjudice grave à la santé physique ou mentale d’un enfant, par l’intimidation, les menaces ou l’humiliation;
- le contenu fomentant la haine;
- le contenu incitant à la violence;
- le contenu incitant à l’extrémisme violent ou au terrorisme.
Obligations imposées aux services de médias sociaux
Les services de médias sociaux réglementés auraient les trois principales obligations décrites ci-après concernant le contenu préjudiciable sur leur plateforme.
- Obligation d’agir de manière responsable : Les services de médias sociaux seraient tenus, entre autres, a) de mettre en œuvre des mesures adéquates pour atténuer le risque que des utilisateurs soient exposés à du contenu préjudiciable; b) de mettre en place des outils pour bloquer des utilisateurs et pour signaler le contenu préjudiciable; c) d’établir des lignes directrices à l’intention des utilisateurs, qui devraient inclure des normes de conduite et une description des mesures mises en œuvre pour minimiser le contenu préjudiciable pouvant être accessible au public sur leur plateforme; d) de désigner une personne-ressource pour traiter les plaintes des utilisateurs et de veiller à ce que les coordonnées de cette personne soient faciles d’accès aux utilisateurs du service; et e) d’élaborer un plan de sécurité numérique qui serait soumis à la Commission et rendu public, lequel comprendrait une évaluation détaillée de leur programme de conformité, comme il serait prévu dans la Loi.
- Obligation de protéger les enfants : Les services de médias sociaux seraient tenus d’intégrer toute caractéristique de conception relative à la protection des enfants prescrite par règlement, comme des caractéristiques de conception adaptées à l’âge.
- Obligation de rendre certains contenus inaccessibles. Les services de médias sociaux seraient tenus de respecter certaines obligations concernant le contenu qui représente de la victimisation sexuelle d’enfants ou qui perpétue la victimisation de survivants ainsi que le contenu intime communiqué de façon non consensuelle. Si un tel contenu était détecté par les services, ce contenu devrait être supprimé dans les 24 heures suivant la détection. Si un tel contenu était signalé par un autre utilisateur, les services devraient examiner le contenu dans les 24 heures et le bloquer dans les 24 heures suivantes lorsque le signalement serait fondé. Dans le cadre de leur examen, les services de médias sociaux devraient permettre à l’utilisateur qui a publié le contenu visé ou à l’utilisateur qui a signalé le contenu en question de présenter des observations sur la nature du contenu.
Nouvel organisme de réglementation à l’égard des préjudices en ligne
La Loi établirait un nouveau cadre réglementaire qui serait appuyé par la constitution de la Commission, la création du poste d’ombudsman canadien de la sécurité numérique (l’« ombudsman ») et la mise sur pied du Bureau canadien de la sécurité numérique (le « Bureau »).
La Commission serait donc un nouvel organisme de réglementation qui aurait pour mission d’administrer et de faire appliquer la Loi, d’élaborer des normes en matière de sécurité en ligne et de procéder à l’examen des plaintes relatives au contenu qui représente de la victimisation sexuelle d’enfants, qui perpétue la victimisation de survivants ou qui constitue du contenu intime communiqué de façon non consensuelle. La Commission pourrait tenir des audiences (dans certaines circonstances, à huis clos) concernant toute plainte du public déposée à l’égard d’un contenu ou de toute autre question se rapportant au respect de la Loi par un service de média social.
La Commission aurait de vastes pouvoirs lui permettant d’exiger la production de renseignements, d’entrer dans tout lieu, d’accéder à des documents par moyens de télécommunications et de saisir des documents afin de vérifier leur conformité à la Loi. Les dénonciateurs de contenu, notamment un employé d’un service de média social qui fournirait des observations à la Commission, seraient protégés en vertu de la Loi. En cas de violation de la Loi, par exemple en omettant de supprimer du contenu préjudiciable ou en ne respectant pas le plan de sécurité numérique présenté à la Commission, les services de médias sociaux pourraient être tenus de payer des sanctions administratives pécuniaires pouvant atteindre 6 % de leurs revenus bruts globaux ou 10 M$ CA, selon le montant le plus élevé.
Étant donné les pouvoirs qui seraient conférés à la Commission quant à l’établissement de normes en matière de sécurité en ligne, à l’examen des plaintes et à la tenue d’audiences publiques ou à huis clos, la constitution de ce nouvel organisme pourrait avoir une incidence importante sur le fonctionnement des plateformes de médias sociaux au Canada.
Le rôle de l’ombudsman serait de fournir du soutien aux utilisateurs des services de médias sociaux en lien avec le nouveau cadre réglementaire et de défendre l’intérêt public en ce qui concerne les enjeux systémiques relatifs à la sécurité en ligne.
Enfin, le rôle du Bureau serait de soutenir le travail de la Commission et celui de l’ombudsman.
Prochaines étapes
Avant de devenir loi, le projet de loi devra franchir les étapes de deux autres lectures à la Chambre des communes et être lu trois fois au Sénat. Il faudra par ailleurs un décret du gouverneur en conseil pour que les droits et les obligations prévus dans le projet de loi, s’il est adopté, entrent en vigueur. Pour le reste, comme nous l’avons mentionné précédemment, de nombreux éléments clés de la Loi seront précisés dans la réglementation que prendra le gouverneur en conseil, le cas échéant. Les types de services de médias sociaux assujettis à la Loi, le nombre d’utilisateurs requis pour déclencher l’application de la Loi et la méthode prescrite pour le calcul du nombre d’utilisateurs sont de bons exemples des précisions à venir.
Pour en savoir davantage, communiquez avec :
ou un autre membre de nos groupes Technologie ou Communications.
Ressources connexes
Les communications de Blakes et de Classes affaires de Blakes sont publiées à titre informatif uniquement et ne constituent pas un avis juridique ni une opinion sur un quelconque sujet. Nous serons heureux de vous fournir d’autres renseignements ou des conseils sur des situations particulières si vous le souhaitez.
Pour obtenir l'autorisation de reproduire les articles, veuillez communiquer avec le service Marketing et relations avec les clients de Blakes par courriel à l'adresse [email protected].
© 2024 Blake, Cassels & Graydon S.E.N.C.R.L./s.r.l.