Roberto De Vita lors de la présentation de l’Observatoire Generative Artificial Intelligence Learning and Innovation Hub (GAILIH) le 2 juillet 2024, lors de la session sur “Les défis de l’intelligence artificielle et la réglementation italienne et européenne”, modérée par le président de l’I-com, le Dr. Stefano da Empoli.
Stefano da Empoli: Je voudrais profiter de votre expertise en droit pénal, mais pas seulement – vous êtes également impliqué dans le droit numérique depuis de nombreuses années – pour demander à l’Avv. De Vita quels sont les profils d’intérêt de l’application de l’intelligence artificielle générative dans le domaine de l’application de la loi et quels sont les risques et les problèmes qu’elle pose.
Roberto De VitaJe vous remercie tous. Permettez-moi tout d’abord de faire une remarque, de ne pas m’attribuer une autorité que je n’ai pas, d’éviter d’être précipité uniquement dans le cadre important, mais étroit, du caractère que je juge dans ces réflexions.
Cela fait 13 ans que je dirige le premier Observatoire italien de la cybersécurité de l’Eurispes, et cela fait autant d’années, peut-être un peu moins, que je suis titulaire de la chaire nationale de sécurité des nouvelles technologies pour la Guardia di Finanza, à l’École de police économique et financière, où l’on étudie le potentiel d’application, l’actualité de l’application, le bon et le mauvais côté, ainsi que le cadre réglementaire. Ce préambule pour dire que la question de la combinaison des deux dimensions est complexe, et je répondrai immédiatement à la question de Stefano da Empoli.
Les méchants utilisent déjà largement tout ce qui est numérique. Prenez par exemple les applications de l’intelligence artificielle générative dans le monde entier de la cryptographie. Les méchants utilisent la cryptographie, en fait nous l’utilisons tous, nous protégeons nos communications, nous gardons notre stockage confidentiel, la cryptographie fait donc partie des outils de relation, de protection de l’information, qu’il s’agisse des méchants ou des gentils.
Ce que les bons doivent faire, c’est décrypter, c’est-à-dire rendre clair le contenu du message d’un méchant.
Prenons un exemple banal : la Guardia di Finanza, la police ou les carabiniers arrivent, trouvent un coffre-fort, appellent les pompiers ou le serrurier, ouvrent le coffre-fort et lisent le contenu des documents.
La Guardia di Finanza, la police ou les carabiniers arrivent et trouvent un disque dur ou USB crypté. Qui appellent-ils ?
À ce stade, cet exemple trivial suffit pour dire que le problème de l’application des innovations numériques est double, dans le domaine de l’application de la loi. La question se pose donc de savoir “quelle est la règle qui s’applique”. Nous savons parfaitement que les méchants n’appliquent pas les règles et sont par conséquent plus compétitifs.
Prenons un autre exemple : la pédopornographie dynamique. La création de contenus pédopornographiques, de films issus de la réalité apparente ou de bandes dessinées pédopornographiques. Grâce à l’intelligence artificielle générative, tout peut être créé. Ce sont les méchants. Les gentils se protègent et disent : mais est-il préférable d’avoir de la pédopornographie animée, qui décourage la création de films pédopornographiques tournés dans des pédophiles, les lieux de l’horreur, ou faut-il également punir et sanctionner cela, et donc imposer cette restriction ?
Allons plus loin, envisageons de réglementer l’utilisation de l’intelligence artificielle dans les systèmes judiciaires. Le nouveau projet de loi[1] comporte un certain nombre de passages clés, les articles 14 et 25. L’art. 14 est clair : l’utilisation de systèmes d’intelligence artificielle n’est possible que pour l’organisation des offices judiciaires, pas pour les décisions, parce qu’ils n’ont pas de place pour la conscience critique, ni pour l’évaluation des preuves.
Mais est-ce vraiment en train de se produire ? C’est déjà le cas, car le procès, en particulier le procès pénal, s’est de plus en plus transformé au fil du temps en un procès numérique. Par conséquent, de manière atypique et non réglementée, la formation de preuves techniques numériques qui échappent au contrôle du juge entre en jeu. Alors que fait le juge, une évaluation finale. Nous devrions savoir quelles sont les règles relatives à la formation des preuves techniques. Cela peut paraître un discours difficile, mais c’est très banal. Prenons l’utilisation d’une interception, d’un capteur, de tout fichier contenant un son vocal. Nous devons établir s’il est authentique ou non. Comment déterminer s’il s’agit d’un fichier authentique ? Une consultation technique est effectuée et qu’utilisent les consultants techniques ? Les programmes. Et comment ces programmes sont-ils codés ? Qui dit que ce programme est capable de reconnaître ou de ne pas reconnaître ? Ainsi, non seulement l’intelligence artificielle, mais tout ce monde de typicité non réglementée entre dans le processus pénal. Que l’on dise ensuite que le juge doit décider, c’est bien, mais le juge décide sur la base des preuves.
Imaginez que le juge décide que l’évaluation du témoignage est une évaluation qui peut être humaine ou analogique, que se passe-t-il si le témoignage est numérique ? N’oubliez pas qu’aujourd’hui encore, dans les salles d’audience, les gens pensent pouvoir comparer des images en les regardant, c’est-à-dire en ayant une perception sensorielle, ce qui est absolument éloigné du critère de l’empreinte électronique qui laisse une image, car si j’apporte au procès une photographie où Roberto De Vita est représenté debout à un endroit ou en train de faire une certaine chose, on raisonnera sur l’origine, on dira “il me semble”, et donc on entrera dans le critère de l’empreinte électronique. On raisonnera sur l’origine, on dira “il me semble”, et c’est ainsi que cela entre en jeu, car c’est la question de la perception analogique de la preuve numérique et de la preuve générée par l’intelligence artificielle qui est le problème.
Ainsi, lorsqu’il s’agit d’imaginer que le juge, ainsi que le procès, reste un lieu d’application de la conscience critique, il faut d’abord être conscient des limites de la culture analogique par rapport aux outils technologiques, et ce, non pas à partir du donné normatif, mais à partir du donné formatif.
Il y a ici un engagement, à juste titre, en faveur des projections de formation pour les jeunes. J’ai entendu tout à l’heure un passage important du représentant de la Communauté de Sant’Egidio qui a parlé des personnes âgées. Mais nous savons parfaitement que l’on est âgé à partir du moment où l’on quitte le circuit de l’âge actif-productif, qui peut être de 60-65-70 ans, avec une projection de vie de 20 ans supplémentaires.
Nous savons que la formation a lieu dans les écoles, les universités ou sur le lieu de travail, mais à l’extérieur, il n’y a plus de formation. À l’heure actuelle, les personnes âgées, de 60 ans et plus, sont 80 à 85 % des destinataires de toutes les escroqueries qui se font par le biais de l’intelligence artificielle. Vous me direz, et comment utilisent-ils l’intelligence artificielle ? C’est très simple : le dialogue génératif qui se déroule avec un chat de type gpt tout en décrivant une histoire improbable qui, entre les mains d’une personne ayant une formation analogique, est absolument indéchiffrable.
En même temps, la formation concerne les plus jeunes. Qui fait actuellement dans le domaine de la justice, de la police prédictive, de l’application de l’intelligence artificielle ? Les plus âgés, c’est nous qui devons aller à l’école, pas les 15-20 ans. Nous devrions emmener tous les magistrats, les avocats, les policiers, les carabiniers, tous à l’école, tous pour comprendre que WhatsApp n’est pas un outil qui donne des certitudes, je montre la série de messages, que le contenu d’un téléphone portable est modifiable.
Nous avons mené des batailles pour pouvoir limiter l’utilisation des chevaux de Troienon pas pour être amis avec les méchants, mais parce que nous savons qu’il s’agit d’une capacité intrusive manipulatrice, comme l’intelligence artificielle.
Le problème sous-jacent est et reste donc culturel, et l’université pour la transformation numérique, pour l’innovation, doit avant tout englober ceux qui ont actuellement le pouvoir et la responsabilité dans l’utilisation et même l’application inconsciente de l’intelligence artificielle.
Stefano da Empoli: Vous avez d’abord fait référence à ces deux articles et vous vous êtes attardé sur le premier, parlez-nous un peu de l’art. 25 et quelle est votre opinion à ce sujet.
Roberto De VitaRoberto De Vita : Le problème fondamental est que l’on peut réglementer ce qui a ensuite un quota de conformité à la règle. Le problème sous-jacent est l’abus non déclaré, l’abus illicite et, en bref, ce que j’ai dit précédemment, l’utilisation de l’IA (mais des outils numériques en général) par les méchants.
La question de la reconnaissabilité. En règle générale, un faux ne porte pas de marque “faux”. Lorsque j’achète un produit contrefait, il ne porte pas la mention “contrefait”. Je peux donc être protégé lorsque le produit est le résultat déclaré d’une intelligence artificielle, sinon c’est plus difficile. Voilà pour ce qui est des données directes et j’en viens à l’article 25. 25.
Il y a le problème indirect. Prenons un exemple : vous recevez un appel téléphonique dans lequel une voix, la mienne, très reconnaissable, vous dit de mauvaises choses. Vous êtes convaincu que c’est moi qui ai appelé. Que faites-vous ? Qui dénoncez-vous ? Un appelant, avec ma voix, et vous êtes certain qu’il s’agit de Roberto De Vita. Le problème de base, c’est que ce n’est pas moi, c’est l’IA.
Ce n’est pas avant l’appel téléphonique que je déclare : “c’est le produit de l’IA”. L’article 25 aborde cette question en introduisant une circonstance aggravante afin de systématiser dans le droit pénal matériel une disposition destinée à punir l’utilisation des résultats directs ou indirects des systèmes d’IA qui représentent un moyen insidieux doté d’une capacité trompeuse pouvant amplifier, rendre plus graves certaines infractions ou porter atteinte à la défense publique ou privée.
La question est énorme, non seulement en termes de substance, j’ai donné l’exemple trivial de l’appel téléphonique, mais vous pouvez imaginer le potentiel de l’IA pour créer dans la perception analogique la croyance que le résultat est authentique.
Il existe des dispositions, dont certaines accompagnent les règlements existants. Il existe une disposition concernant la création de matériel, qui peut typiquement être des vidéos, des films.
Nous savons tous que le thème de la pornographie non consensuelle – qui est le grand contenant du Revenge porn – est la création de films d’animation à l’effigie, ou plus exactement avec des personnes en haute définition en train d’accomplir un acte sexuel.
De toute évidence, la règle a un penchant libéral : si un préjudice est créé ou s’il n’y a pas de consentement de la personne. Supprimons le consentement, examinons le profil du préjudice. Il ne s’agit pas d’un préjudice lié à une seule personne, il y a ici un problème de timidité de l’approche qui est également utilisée dans d’autres juridictions.
Tout ce que nous ne reconnaissons pas comme le fruit de l’intelligence artificielle générative risque de créer, surtout dans les esprits analogiques – et ils le resteront longtemps, même d’un point de vue culturel – une désorientation et une difficulté à reconnaître ce qui est vrai de ce qui ne l’est pas. L’enthousiasme “punitif-sanctionnaire” devrait être bien plus grand qu’un phénomène considéré comme une simple falsification. Il ne s’agit pas d’une simple falsification, n’oublions jamais qu’indirectement, les résultats de la manipulation par l’intelligence artificielle entrent dans une chaîne décisionnelle analogique réalisée par l’homme qui ne reconnaît pas et est convaincu qu’il décide de manière originale et première, mais ce n’est pas le cas.
L’art. 25 tente de donner quelques réponses, encore provisoires, il faudra voir les désastres qui seront générés – et gardez à l’esprit que je n’ai pas une attitude et une approche luddite – je crois fermement en l’IA. Je ne pense pas que les normes soient suffisantes – très utiles pour faire fonctionner les entreprises ou l’administration publique – en ce qui concerne la protection, un investissement culturel sans précédent que nous n’avons pas réussi à faire, même au cours des dernières années, pour la première révolution numérique. Je plaisante : seuls Covid et Lockdown ont obligé les tribunaux italiens à s’équiper d’un PEC pour pouvoir recevoir des actes. Je ne sais pas s’il faut attendre une peste à l’image pour commencer à comprendre les conséquences de l’utilisation de l’intelligence artificielle.
Références
[1] Projet de loi n°. 1146 – Sénat de la République. Téléchargez le texte de la DDL ici.