Un groupe d’experts soutient l’approche libérale des préjudices en ligne, mais pas les suppressions de contenu

Un groupe consultatif d’experts de 12 personnes divisé sur l’obligation pour les plates-formes de surveiller de manière proactive le contenu et de supprimer les messages signalés dans les 24 heures, selon des documents

Contenu de l’article

Un panel nommé par le gouvernement libéral pour aider à retravailler sa proposition controversée de réglementation des préjudices en ligne est en faveur d’une nouvelle approche visant à responsabiliser les plateformes – bien qu’ils ne soient pas d’accord sur la question de savoir si cela devrait inclure des mesures litigieuses telles que le retrait de contenu.

Publicité 2

Contenu de l’article

Le groupe a également averti de ne pas s’attendre à ce que le problème soit entièrement résolu. « Les experts ont souligné que le cadre législatif et réglementaire devrait viser une amélioration significative, et non la perfection », indique un résumé de la réunion finale du groupe en juin. Le modèle ne résoudrait pas tous les incidents de contenu préjudiciable en ligne, mais « améliorerait les pratiques globales des services en ligne en matière de gestion des risques ».

Le groupe consultatif d’experts de 12 membres a été nommé par le ministre du Patrimoine, Pablo Rodriguez, pour lui donner des conseils sur la façon de repenser la proposition initiale du gouvernement, qui, selon diverses organisations et experts, entraînerait le blocage de contenu légitime et la censure, et violerait les Canadiens. ‘ droits constitutionnels et à la vie privée.

Publicité 3

Contenu de l’article

Le gouvernement libéral a ensuite présenté une approche révisée au groupe consultatif ce printemps, a rapporté le National Post le mois dernier. Le groupe n’a pas publié de recommandations officielles au gouvernement, mais Patrimoine canadien a publié des résumés des opinions exprimées lors de leurs réunions.

« Les experts ont indiqué qu’une approche de la réglementation basée sur les risques, ancrée dans le devoir d’agir de manière responsable, serait la plus appropriée », indique le résumé. Le processus en trois étapes verrait d’abord les plates-formes identifier et évaluer les risques posés par leur service, atténuer ces risques, puis rendre compte de ce qu’elles font.

Publicité 4

Contenu de l’article

L’idée est que « l’approche devrait impliquer des services réglementés testant en permanence l’efficacité de certains outils et les adaptant en fonction de leurs conclusions ».

Rodriguez rencontrera des intervenants à travers le pays cet été pour discuter de la proposition et des commentaires du groupe consultatif, y compris des réunions à l’Île-du-Prince-Édouard et au Nouveau-Brunswick vendredi. À Charlottetown, les groupes participant à la table ronde comprennent les Noirs, les Autochtones, les personnes de couleur unies pour la force, les relations à domicile (BIPOC USHR), PRIDE PEI ainsi que la chambre de commerce et la police de la ville. À Moncton, il rencontre, entre autres, l’Association indo-canadienne de Moncton, la Moncton Muslim Association et la synagogue de Moncton, ainsi que le YWCA local et le Regroupement féministe du Nouveau-Brunswick.

Publicité 5

Contenu de l’article

« Tout au long de l’été, nous allons parler et écouter plus de Canadiens. Tout cela éclairera notre cadre législatif et réglementaire », a déclaré Rodriguez dans un communiqué envoyé par courrier électronique.

« La liberté d’expression est au cœur de tout ce que nous faisons, et les Canadiens devraient pouvoir s’exprimer librement et ouvertement sans crainte de préjudice en ligne. « 

Alors que le groupe d’experts était d’accord sur l’approche générale retravaillée proposée par le gouvernement, il y avait peu de consensus sur certains des aspects les plus controversés de la proposition initiale du gouvernement. Cela impliquait de forcer les plateformes à surveiller de manière proactive le contenu et à supprimer les publications signalées dans les 24 heures.

« Certains experts ont exprimé leur inquiétude quant à l’obligation de supprimer toute forme de contenu, à l’exception peut-être du contenu qui appelle explicitement à la violence et au contenu d’exploitation sexuelle des enfants », indique le résumé.

Publicité 6

Contenu de l’article

« D’autres experts ont exprimé leur préférence pour l’obligation de supprimer un plus large éventail de contenus. Ils ont expliqué qu’il valait mieux pécher par excès de prudence. Ils ont exprimé une préférence pour la sur-suppression du contenu, plutôt que sur sa sous-suppression. »

Une partie du groupe a mis en garde contre le fait de forcer ou même d’encourager les plateformes à surveiller les publications sur leurs plateformes. « Ils ont déclaré qu’il est très difficile de justifier un tel système car il présente des risques pour les droits et libertés fondamentaux en vertu de la Charte », indique le document.

Mais d’autres membres des groupes consultatifs ont déclaré que « les services devraient être contraints de surveiller de manière proactive leurs plateformes, car une telle surveillance, dans de nombreux cas, pourrait efficacement empêcher une attaque violente ».

Publicité 7

Contenu de l’article

La nouvelle approche réglementerait actuellement les cinq mêmes catégories de contenu et couvrirait «les services que les Canadiens associent intuitivement au terme plateforme de médias sociaux» – en nommant spécifiquement Facebook, YouTube, Instagram, Twitter et TikTok.
La nouvelle approche réglementerait actuellement les cinq mêmes catégories de contenu et couvrirait «les services que les Canadiens associent intuitivement au terme plateforme de médias sociaux» – en nommant spécifiquement Facebook, YouTube, Instagram, Twitter et TikTok. Photo de Dado Ruvic/Illustration/Reuters/File

Les experts se sont demandé si la création d’un organisme pouvant ordonner aux plateformes de retirer du contenu serait une bonne idée. Certains d’entre eux «ont souligné que la création d’un organe indépendant pour prendre des décisions de retrait serait une entreprise massive semblable à la création d’un système quasi judiciaire entièrement nouveau avec des problèmes constitutionnels majeurs liés à la fois au fédéralisme et aux préoccupations de la Charte», tandis que d’autres ont déclaré que les utilisateurs «ont besoin de plus de sens. recours et un accès suffisant à la justice », et qu’« il doit y avoir un organe pour prendre des décisions de retrait afin d’aider efficacement les victimes ».

Il y avait aussi des désaccords autour de l’idée de réglementer les communications privées. La nouvelle proposition que le gouvernement a présentée au groupe stipule que des services comme Facebook, YouTube, Instagram, Twitter et TikTok seraient couverts, mais les messages envoyés à l’aide des fonctions de messagerie privée des plateformes, comme Facebook Messenger, ne seraient pas capturés.

Publicité 8

Contenu de l’article

« Certains experts ont précisé que les services de communication privés qui nuisent aux enfants devraient être réglementés et devraient, à tout le moins, être obligés de prendre des mesures pour empêcher la diffusion de contenus connus (matériel pédopornographique) via la messagerie privée », indique le rapport. « D’autres experts ont souligné les préoccupations concernant les droits à la vie privée des utilisateurs en expliquant pourquoi la réglementation des services de communication privés serait difficile à justifier du point de vue de la Charte. »

La proposition avancée par le gouvernement comprendrait cinq catégories de contenus : les contenus terroristes, les contenus incitant à la violence, les discours de haine, les images intimes partagées sans consentement et l’exploitation sexuelle des enfants.

Lors de discussions antérieures, les experts ont suggéré que les catégories de préjudices ciblés soient élargies pour inclure, entre autres, les « communications politiques trompeuses », la « propagande » et le contenu en ligne qui promeut une « image corporelle irréaliste ».

Le résumé de la réunion finale du groupe n’a pas précisé ces propositions. Il a déclaré que certains préjudices sont difficiles à définir mais devraient être pris en compte de toute façon. « Certains experts ont évoqué le concept de » violence lente « – un contenu qui, lorsqu’il est placé dans un certain contexte social, comme les théories du complot, devient dangereux avec le temps », et certains ont souligné que les préjudices en ligne ne doivent pas nécessairement provenir du contenu, mais peuvent provenir de sources telles que des algorithmes biaisés et des bots.

Publicité

commentaires

Postmedia s’engage à maintenir un forum de discussion animé mais civil et encourage tous les lecteurs à partager leurs points de vue sur nos articles. Les commentaires peuvent prendre jusqu’à une heure pour être modérés avant d’apparaître sur le site. Nous vous demandons de garder vos commentaires pertinents et respectueux. Nous avons activé les notifications par e-mail. Vous recevrez désormais un e-mail si vous recevez une réponse à votre commentaire, s’il y a une mise à jour d’un fil de commentaires que vous suivez ou si un utilisateur vous suivez des commentaires. Visitez notre Règles de la communauté pour plus d’informations et de détails sur la façon d’ajuster votre e-mail réglages.

Source link-46