L’intelligence artificielle apparaît comme un outil puissant pour lutter contre la maltraitance des enfants en ligne, qui est de plus en plus préoccupante par rapport à la période prépandémique. Le monde numérique offre en effet de nombreuses possibilités d’apprentissage, de divertissement et de communication, mais il présente également de sérieux risques pour la sécurité des jeunes. Parmi celles-ci, les plus préoccupantes sont la diffusion d’images résultant d’abus sexuels sur des enfants (matériel d’abus sexuel sur des enfants, CSAM) et les comportements prédateurs qui anticipent leur réalisation.
Abus en ligne
Selon l’UNICEF, une fille sur cinq et un garçon sur treize sont victimes d’abus ou d’exploitation sexuels, et les interactions en ligne sont désormais au cœur de presque tous les incidents rencontrés[1].
En fait, le phénomène des abus en ligne prend une ampleur triste et effrayante, avec un pic de 32 millions de signalements de cas suspects pour la seule année 2022[2]. Il s’agit à la fois de la diffusion de matériel sur des mineurs (comme des photos et des vidéos) et de ce que l’on appelle le ” grooming”, c’est-à-dire des pratiques de manipulation visant à exploiter et à abuser des personnes. Ces derniers ont connu une augmentation de 82 % des cas au cours de l’année écoulée, la sextortion en étant la principale manifestation.
Ce phénomène présente un grand intérêt pour l’Union européenne, d’où proviennent 68 % des 2022 rapports. Face à ces chiffres effrayants, des initiatives importantes sont déjà prises pour lutter contre le phénomène : la Commission européenne, notamment, a présenté en 2022 une proposition de règlement[3] visant à introduire des obligations de prévention et de lutte contre tous les abus d’enfants en ligne.
Plus précisément, les objectifs seraient de garantir la détection, le signalement et la suppression des abus pédosexuels en ligne, d’améliorer la sécurité juridique, la transparence et la responsabilité et de garantir la protection des droits fondamentaux, et de réduire la prolifération et les effets des abus pédosexuels grâce à l’harmonisation des normes et à une coordination accrue des efforts. Cette dernière serait assurée par la création d’une nouvelle agence spécialisée : lecentre européensur les abus sexuels concernant les enfants (EUCSA).
L’approbation récente de la loi sur les services numériques est une preuve supplémentaire de la sensibilité accrue de la question[4] et la loi sur l’IA[5] par le Parlement européen, ainsi que le projet de loi sur la sécurité en ligne actuellement en discussion au Royaume-Uni.[6]les initiatives législatives découlant d’un souci commun d’assurer la sécurité de plus en plus incertaine des utilisateurs en ligne et qui pourraient bientôt être suivies par l’approbation de la proposition de règlement européen sur la prévention et la lutte contre les abus sexuels et l’exploitation sexuelle des enfants.[7].
La décision récente de la Cour suprême des États-Unis de ne pas trancher le débat de longue date sur l’immunité des plateformes à l’égard des contenus publiés par les utilisateurs, sur lequel le Congrès est susceptible d’intervenir dans les années à venir, est également emblématique de cette incertitude.
Cependant, l’étendue évidente du matériel à surveiller dans l’immensité du réseau ne permet pas un contrôle manuel efficace (ni efficient), que ce soit par les plates-formes ou par les services répressifs. Par exemple, le matériel abusif “autoproduit”, c’est-à-dire les photos et vidéos explicites prises par les mineurs eux-mêmes, a augmenté de 374 % en 2021 par rapport aux niveaux antérieurs à la pandémie, ce qui rend l’intervention et le contrôle non automatisés encore plus difficiles[8].
La contribution de l’intelligence artificielle
Au contraire, l’IA offre un large éventail de possibilités pour identifier et contrer les abus sexuels commis sur des enfants sur l’internet. En analysant le contenu numérique, il peut identifier les images et les vidéos suspectes, en détectant automatiquement les signes et les caractéristiques qui indiquent la présence d’abus sexuels. Cette capacité d’analyse rapide et efficace permettrait d’identifier et de supprimer les contenus illicites en temps utile, réduisant ainsi l’exposition des mineurs à des images préjudiciables ou la diffusion de matériel les concernant.
En fait, un autre domaine d’application de l’IA est la prévention des abus sexuels en ligne. Grâce à l’analyse en temps réel du comportement des utilisateurs en ligne, il peut identifier des modèles et des signaux susceptibles d’indiquer l’interaction d’un enfant avec d’éventuels abuseurs. En surveillant les chats, les messages et les activités en ligne, l’IA peut en effet détecter des comportements suspects et même alerter automatiquement les parents, les tuteurs ou les responsables de la sécurité afin que des mesures soient prises en temps utile pour protéger l’enfant concerné.
La collaboration entre les entreprises technologiques et les services répressifs est également essentielle pour garantir l’efficacité de l’IA dans la protection en ligne des mineurs. Les entreprises peuvent en effet développer et déployer des outils d’IA qui analysent automatiquement les contenus téléchargés sur leurs plateformes, signalant immédiatement les contenus illégaux ou suspects aux modérateurs et aux autorités compétentes.
Les Nations unies et le projet AI4SC
Un exemple de l’application de l’IA pour lutter efficacement contre la maltraitance des enfants en ligne est fourni par les Nations unies : en 2020, la Centre pour l’IA et la robotique de l’Institut interrégional de recherche des Nations unies sur la criminalité et la justice (UNICRI) et le ministère de l’intérieur des Émirats arabes unis ont lancé le projet L’IA pour des enfants plus sûrs(AI4SC)[9].
Dans le cadre de cette initiative, la AI for Safer Children Global Hub, une plateforme centralisée destinée aux forces de police du monde entier et conçue pour lutter contre la maltraitance des enfants, avec l’ambition de l’utiliser comme modèle pour résoudre d’autres problèmes liés aux contenus à risque, des “fake news” à la propagande extrémiste.[10].
Le Global Hub fournit donc aux forces de police un catalogue d’outils d’intelligence artificielle pouvant être utilisés dans le cadre d’enquêtes, ce qui permet de les sélectionner en fonction des besoins spécifiques de l’enquête ; il offre une formation spécialisée sur la maltraitance des enfants et les aspects liés à la santé mentale des victimes ; il permet la mise en réseau d’agences de différents pays afin de créer une communauté internationale plus forte de spécialistes de la maltraitance des enfants et de la santé mentale. l’application de la loi en partageant leur expérience en matière d’intelligence artificielle (le projet compte 270 enquêteurs de 72 pays).
La nécessité d’une approche intégrée
Cependant, l’utilisation de l’IA pour la protection des enfants en ligne soulève également d’importantes questions éthiques ; il est essentiel de veiller à ce que l’IA soit utilisée de manière responsable et à ce que les droits individuels des utilisateurs soient respectés.[11]. L’analyse automatisée du contenu peut impliquer la collecte et le traitement de grandes quantités de données à caractère personnel, ce qui nécessite une protection et une sécurité adéquates de l’information.
Le projet AI4SC lui-même repose sur une stratégie juridique et éthique spécifique, basée sur des principes fondamentaux[12] y compris une approche responsable de l’acquisition, du développement et du déploiement des technologies d’intelligence artificielle, de manière à ne pas restreindre les libertés fondamentales des individus[13]. De même, le travail des enquêteurs[14] et les entreprises technologiques[15] La collaboration au projet est guidée par les principes de la Convention relative aux droits de l’enfant de 1989.[16].
En outre, l’IA ne peut pas être le seul outil de protection des enfants en ligne. Une combinaison d’efforts entre les parents, les éducateurs, les praticiens de la sécurité en ligne et les législateurs est nécessaire pour créer un environnement sûr pour les enfants sur l’internet. La sensibilisation aux menaces en ligne, l’éducation numérique et la promotion d’un comportement sûr en ligne sont tout aussi importantes pour assurer la protection des enfants.
Les documents d’information tels que ceux diffusés par des entreprises comme Thorn[17] – également dans le contexte des nombreux phénomènes de pornographie non consensuelle – peut permettre une approche plus sûre pour les mineurs (et leurs parents) de leur inévitable vie en ligne. Ceux-ci peuvent être utilement complétés par des outils d’identification et de prévention des phénomènes CSAM facilement accessibles aux plateformes privées ou aux forces de police et qui ont déjà eu un impact significatif.
Le logiciel privé Safer, par exemple, se targue d’avoir identifié un million de cas et met à la disposition de ses utilisateurs une base de données de 32 millions de hash codes
[18] identifiant les contenus abusifs déjà identifiés sur le réseau par d’autres programmes [19].
L’utilisation de l’intelligence artificielle pour la protection en ligne des mineurs et la lutte contre la diffusion d’images issues d’abus sexuels s’avère donc déjà être une évolution importante dans le domaine de la sécurité numérique.
Toutefois, il est essentiel de rappeler la nécessité d’une utilisation éthique, qui garantisse la protection des personnes soumises aux contrôles et la sécurité des données personnelles traitées. Par conséquent, grâce à une collaboration (numérique) efficace entre les plateformes web et les services répressifs, d’une part, et à une formation adéquate sur la vie en ligne, d’autre part, il sera possible de créer un environnement en ligne sûr pour les mineurs, leur permettant de profiter des avantages de la technologie de manière protégée.
Prof. Avv. Roberto De Vita
Avv. Marco Della Bruna
Références
[1] M. Grzegorczyk, L’initiative AI for Safer Children – une collaboration entre le Centre for AI and Robotics de l’Institut interrégional de recherche des Nations unies sur la criminalité et la justice et le ministère de l’intérieur des Émirats arabes unis – aide les services répressifs à exploiter le potentiel de l’IA.UNICRI ; UNICEF, Des enfants de tous horizons subissent des violences et des millions d’autres sont en danger..
[2] Pour un examen approfondi de l’évolution des données de 2020 à 2022 :Rapport CyberTipline 2022
.
[3] Parlement européen,
Lutte contre les abus sexuels commis sur des enfants en ligne
.
[4] Commission européenne,
Le paquet sur la loi sur les services numériques
.
[5] Le texte de la proposition approuvé par le Parlement européen : https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206
[6]
Projet de loi sur la sécurité en ligne
.
Stratégie de l’UE pour une lutte plus efficace contre les abus sexuels envers les enfants
. [8] Internet Watch Foundation,
Campagne de prévention des abus sexuels sur les enfants “auto-générée
.
[9] UNICRI,
L’IA pour des enfants plus sûrs
.
[10] UNICRI,
Plate-forme mondiale de l’IA pour des enfants plus sûrs
.
[11] Ce sont précisément les préoccupations concernant les risques liés à l’utilisation de l’intelligence artificielle qui ont récemment conduit à l’adoption de la loi sur l’IA.
[12] L’IA pour des enfants plus sûrs,
Les principes fondamentaux de l’initiative AI pour des enfants plus sûrs
.
[13] Le cadre de cette approche est constitué par les principes directeurs des Nations unies relatifs aux entreprises et aux droits de l’homme.
[14] UNICRI,
Conditions d’engagement pour les utilisateurs des services répressifs
.
[15] UNICRI,
Conditions d’engagement pour les fournisseurs de technologie
.
[16]
Convention relative aux droits de l’enfant
.
[17] Thorn,
Rapport d’impact 2022
.
[18] Code alphanumérique qui identifie de manière unique un fichier particulier et à partir duquel le fichier original ne peut être reconstitué. Pour plus d’informations, voir https://www.ionos.it/digitalguide/server/sicurezza/funzione-di-hash/
[19] La Safer,
Comment cela fonctionne-t-il ?
.
Leave a Reply