Avant le FIC, la lutte contre les violences numériques fédère autant les entreprises que les institutions

Pour leur premier petit déjeuner thématique de 2023, les organisateurs du Forum International de la Cybersécurité (5-7 avril à Lille) ont dressé le bilan de l’état de la lutte contre les violences numériques, deux ans après l’Appel de Christchurch. Un combat important pour un numérique plus responsable.

lutte contre les violences numériquesEn mai 2019, le président français Emmanuel Macron et son alter-ego néo-zélandaise d’alors, Jacinda Ardern ont lancé depuis Paris une initiative collective pour la lutte contre l’extrémisme en ligne et le terrorisme. Cet « Appel de Christchurch » était notamment une réponse aux attentats racistes menés quelques semaines plus tôt contre deux mosquées de la ville de Christchurch en Nouvelle-Zélande.

Depuis, le Forum de Paris sur la Paix réunit chaque année des chefs d’Etat et de gouvernement, ainsi que des acteurs de la société civile et des entreprises, pour muscler les actions, synergies et législations permettant de lutter de façon globale contre la violence en ligne. Au-delà des faits à caractère terroristes, ces préoccupations concernent aussi la lutte contre la pédopornographie ou encore le harcèlement. La dimension internationale des sujets et la place croissante du numérique dans nos sociétés élargissent chaque année un peu plus les thématiques discutées.

« Pour cette 5e édition de ce qui est au final un Davos des politiques publiques multi-acteurs, nous avons aussi discuté de sujets comme l’impact des satellites en orbite basse, du type de la constellation Starlink d’Elon Musk » a ainsi décrit Henri Verdier, ambassadeur pour le numérique de la France, lors d’une rencontre animée en janvier par les organisateurs du Forum International de la Cybersécurité, qui se tiendra du 5 au 7 avril prochain. « Une question clé du Paris Peace Forum est de voir comment l’Europe peut financer et préserver les grands « communs » numériques qui assurent notre souveraineté ».

L’autorégulation des acteurs ne suffit pas

Pour l’ambassadeur, également co-auteur en 2021 d’un ouvrage intitulé « Le Business de la Haine », il s’agit d’un sujet fondamental pour un numérique plus responsable : « L’Internet des origines, neutre, ouvert, décentralisé, a fait beaucoup de bien mais il est menacé par des Etats et des entreprises. De plus, il faut aussi prendre acte des sévères dérives qui existent. Les contenus illicites, les violences, le harcèlement, la désinformation… se multiplient. Les démocraties libérales doivent apporter des solutions démocratiques à ces problèmes. L’autorégulation des acteurs ne suffit pas, mais les Etats ne peuvent pas non plus décider d’écrire toutes les normes et les algorithmes concernés eux-mêmes ! ».

Un focus particulier a été fait cette année sur la question de l’enfance, notamment par l’association Point de Contact, spécialisée dans la détection et le signalement de contenus illégaux. « En France, la thématique des violences numériques faites aux enfants est déjà traitée, mais jusqu’à présent, la coordination internationale n’était pas forcément au rendez-vous, sauf autour d’institution comme (le portail officiel de signalement) Pharos. La France manquait d’intégration avec l’Europe. » a détaillé Jean-Christophe Le Toquin, qui préside l’association.

La création d’un nouvel élan collectif sur le sujet lui parait essentiel aujourd’hui, du fait de l’ampleur prise par différents phénomènes : sextorsion, revenge porn, harcèlement… « Sur les violences à base de contenus intimes, on voit qu’elles peuvent commencer aussitôt qu’à l’âge de 7 ans dans certains pays. Il y a eu ces cinq dernières années une appropriation sociale tout à fait différente du numérique. Ce n’est pas seulement une exploitation criminelle par des adultes contre laquelle il faut lutter. Les jeunes créent aujourd’hui leurs propres contenus et en perdent le contrôle. C’est un phénomène profond dans notre société ».

Contenus légaux mais nocifs

La démocratisation des usages entraine également l’apparition de zones grises. Au-delà des contenus clairement illicites, il existe dorénavant une masse extrêmement importante de contenus qualifiés par les locuteurs anglais de « Lawful but harmful » (légaux mais nocifs, NDLR), qui sont utilisés par exemple à des fins de harcèlement, de chantage, d’exclusion sociale… et dont les enfants sont les victimes régulières. Des contenus et usages qui dépassent de loin le périmètre d’intervention de l’Office central de lutte contre les crimes contre l’humanité, les génocides et les crimes de guerre (OCLCH) de la Gendarmerie Nationale, dont l’équipe est pourtant en première ligne contre les violences en ligne. « L’Office s’occupe des cas les plus complexes, qui ont souvent une dimension internationale. Elle lutte en particulier contre l’action d’idéologues de la haine en ligne qui cherchent à faire passer à l’acte indirectement des individus dans tous les pays. » a précisé la Lieutenant-Colonel Aurélie, commandante de la division de lutte contre les crimes de haine, créée en 2020.

Ces faits très différents ont pourtant souvent un point commun qui les réunit : le rôle prépondérant des plateformes (Youtube, Facebook, Instagram, Tik-Tok et tant d’autres…), dans la diffusion des contenus et l’influence qu’ils ont sur la société et les individus. Le Digital Services Act (DSA) européen qui entrera en vigueur en 2024, entend à ce titre bien mieux réguler ces grands acteurs. Il comprend par exemple un acte important sur la transparence des algorithmes utilisés et la nature éthique des paramètres qui permettent la diffusion des contenus.

« Vous devez devenir responsable de ce qui se passe chez vous »

« Il y a eu des études récentes sur la façon dont les utilisateurs d’Instagram étaient soumis à des biais provoquant de la dépendance, dans la conception même de la plateforme » illustre par exemple Henri Verdier.  Le DSA définira par exemple des « Trusted Flaggers », c’est-à-dire des acteurs de confiance issu notamment de la société civile, qui pourront lancer plus facile des alertes auprès des plateformes, autrement difficile à toucher. « Le DSA met à plat les fonctionnements organiques dont nous avions pris l’habitude dans les années 2000 » estime l’ambassadeur, en expliquant qu’un objectif global est de faire comprendre qu’il ne peut y avoir d’anonymat et d’impunité face à des comportements dangereux, y compris quand il est question des « effets de bulle » provoqués par les réseaux sociaux, par exemple dans leurs recommandations.

« Nous avons mis 10 ans à comprendre que les plateformes n’étaient pas seulement des acteurs techniques, mais qu’elles avaient bien une responsabilité éditoriale. Depuis, nous réagissons. Le DSA revient à leur dire : c’est difficile, mais vous devez devenir responsable de ce qui se passe chez vous, en construisant un chemin d’amélioration continu exigeant ». Une partie des plateformes est disposée à se remettre en question. « Certaines sont demandeuses d’un cadre réglementaire plus précis pour pouvoir agir de façon transparente » témoigne ainsi Etienne Defossez, responsable de la politique des contenus de Dailymotion.

Mais au-delà des plateformes elles-mêmes, les entreprises ont-elles un rôle à jouer dans cet effort global de lutte contre les violences en ligne ? « Les entreprises privées peuvent peser » répond Henri Verdier. « Un exemple qui vient en tête c’est la façon dont Mastercard et Visa ont fait retirer des millions de contenus de sites pornographiques en quelques jours seulement, en agissant sur les sources de revenus d’une plateforme comme Pornhub » illustre-t-il.

Un appel direct à 1500 entreprises pour agir au FIC

« Les entreprises privées peuvent largement faciliter les signalements de contenus illicites, notamment à plus grande échelle. Nous travaillons par exemple avec l’INA sur des techniques de fingerprinting pour identifier les contenus illicites, au-delà des questions traditionnelles de droit d’auteurs. » détaille de son côté Etienne Defossez.

« Globalement, nous sentons clairement une prise de conscience des entreprises sur ces sujets, autant du côté des fournisseurs de technologies, que des entreprises plus traditionnelle, utilisatrices du numérique » estime Guillaume Tissier, directeur du Forum International de la Cybersécurité. Une mobilisation qui a convaincu les organisateurs de mettre en place au sein du FIC, le forum « Trust en Safety », consacré à ces enjeux, y compris sur les contenus « Lawful but harmful », afin de créer un espace de discussion actif entre acteurs publics et privés de tout horizon.

« En 2023, le FIC lance également « FIC Impact », qui est un appel direct aux 1500 entreprises partenaires de l’évènement, pour soutenir activement, financièrement ou technologiquement, des associations » annonce le directeur. Ce sont pour l’heure 15 associations qui ont été retenues pour canaliser cet effort, autour de trois grands thèmes : l’éthique numérique, la protection de l’enfance, et le soutien aux démunis numériques.