Formare il futuro – Una call to action per sviluppare competenze per e con l’Intelligenza Artificiale

L’intervento del Prof. Avv. Roberto De Vita alla presentazione dell’Osservatorio Generative Artificial Intelligence Learning and Innovation Hub (GAILIH) del 2 luglio 2024, nella sessione su “Le sfide dell’Intelligenza Artificiale e la regolamentazione italiana ed europea”, moderata dal Presidente di I-com, Dr. Stefano da Empoli.

Stefano da Empoli: Sfrutterei le competenze penalistiche ma non solo – da tanti anni ti occupi anche di digitale – per chiedere all’Avv. De Vita quali sono i profili di interesse dell’applicazione dell’intelligenza artificiale generativa nell’ambito del law enforcement e quali rischi e problemi essa pone.

Roberto De Vita: Grazie a tutti. Faccio anzitutto una considerazione, non per attribuirmi un’autorevolezza che non ho, per evitare che si precipiti solo all’interno dell’importante, ma angusto novero di carattere giudico in queste riflessioni.

Sono 13 anni che dirigo il primo Osservatorio italiano di Cybersicurezza di Eurispes e sono altrettanti anni forse qualcuno di meno che ho la cattedra nazionale di sicurezza per le nuove tecnologie per la Guardia di Finanza, alla Scuola di Polizia Economico-Finanziaria, dove quello che si fa è studiare la potenzialità applicativa, l’attualità applicativa, sia lato cattivi che lato buoni, oltre al framework normativo. Questa premessa per dire che il tema di coniugare le due dimensioni è complesso e rispondo subito alla domanda di Stefano da Empoli.

I cattivi già fanno un grande uso di tutto ciò che è digitale. Prendiamo ad esempio le applicazioni dell’intelligenza artificiale generativa su tutto il mondo della crittografia. I cattivi usano la crittografia, in realtà la usiamo tuti quanti noi, proteggiamo le nostre comunicazioni, manteniamo il nostro storage nella riservatezza, quindi la crittografia fa parte degli strumenti di relazione, di protezione delle informazioni, che siano i cattivi o siano i buoni.

I buoni cosa devono fare, la decrittazione, cioè dobbiamo mettere in chiaro quello che è il contenuto del messaggio di un cattivo.

Facciamo un esempio banale: arrivano la Guardia di Finanza, la Polizia o i Carabinieri, trovano una cassaforte, chiamano i Vigili del Fuoco o il fabbro, aprono la cassaforte e leggono il contenuto dei documenti.

Arrivano la Guardia di Finanza, la Polizia o i Carabinieri, trovano un’usb o un hard disk protetti da crittografia, cosa fanno? Chi chiamano?

A questo punto basta questo esempio banale per dire che il problema dell’applicazione delle innovazioni digitali è duale, nell’ambito del law enforcement. Quindi si pone la quesitone del “che regola di applica?”. Sappiamo perfettamente che i cattivi non applicano regole e di conseguenza sono più competitivi.

Facciamo un altro esempio: pedopornografia dinamica. La creazione di contenuti pedopornografici, filmati da realtà apparente o fumetti pedopornografici. Attraverso l’intelligenza artificiale generativa si può creare qualsiasi cosa. Questi sono i cattivi. I buoni cosa fanno, si tutelano e dicono: ma è meglio avere pedopornografia animata, che disincentiva la creazione di filmati pedopornografici girati nelle pedopharm, i luoghi dell’orrore, oppure bisogna punire e sanzionare anche questa e di conseguenza porre questa limitazione?

Andiamo oltre, pensiamo di regolare l’uso dell’intelligenza artificiale nei sistemi giudiziari. Il nuovo disegno di legge[1] ha una serie di passaggi fondamentali, gli artt. 14 e 25. L’art. 14 chiarisce un concetto: l’uso di sistemi di intelligenza artificiale è possibile solo per l’organizzazione degli uffici giudiziari, non per le decisioni, perché non hanno spazio di coscienza critica, né per la valutazione delle prove.

Ma veramente accade questo? Già si sta utilizzando, perché il processo, soprattutto quello penale si è sempre più trasformato, nel tempo, in un processo a prova digitale. Quindi in modo atipico e non regolamentato entra la formazione di una prova tecnica digitale che sfugge al controllo del giudice. Il giudice quindi cosa fa, una valutazione terminale. Noi dovemmo avere quelle che sono le regole sulla formazione della prova tecnica. Può sembrare un discorso difficile, ma è molto banale. Prendiamo l’uso di un’intercettazione, di un captatore, di un qualsiasi file che contenga un audio vocale. Dobbiamo stabilire se è genuino o non è genuino. Entra nel processo, come si fa stabilire se è genuino? Si fa una consulenza tecnica e i consulenti tecnici che cosa utilizzano? Dei programmi. E questi programmi come sono codificati? Chi è che dice che quel programma è in grado di riconoscere o non riconoscere? Quindi di conseguenza entra di fatto non solo l’intelligenza artificiale ma tutto quel mondo della tipicità non normata all’interno del processo penale. Che poi si dica che il giudice deve decidere va bene, ma il giudice decide sulla base delle prove.

Provate a immaginare, il giudice decide però la valutazione della testimonianza è una valutazione che può essere umana è analogica, e se la testimonianza è digitale? Tenete presente che ancora adesso nelle aula di giustizia si pensa di poter fare paragoni tra immagini guardandole, cioè una percezione sensoriale, cosa assolutamente lontana, ormai  sideralmente, dal criterio dell’impronta digitale elettronica che lascia un’immagine, perché se io in un processo porto una fotografia dove si ritrae Roberto De Vita che sta in un luogo o fa una certa cosa. Si ragionerà sull’origine, si dirà “mi sembra”, e così entra prepotentemente, perché è la questione della percezione analogica della prova digitale e della prova generata dall’intelligenza artificiale il problema.

Allora quando noi dobbiamo immaginare che il giudice, così come il processo rimanga un luogo dove si fa applicazione della coscienza critica, questa deve innanzitutto essere consapevole dei limiti della cultura analogica rispetto agli strumenti tecnologici e questo non deriva però dal dato normativo, ma dal dato formativo.

Qui ci si impegna e giustamente nelle proiezioni di formazione per i più giovani. Prima ho sentito un passaggio importante da parte del rappresentante della Comunità di Sant’Egidio che ha parlato degli anziani. Ma sappiamo perfettamente che si è anziani a partire dal momento in cui si esce dal circuito della condizione età lavorativa-attiva-produttiva, possono essere 60-65-70 anni, con una proiezione di vita di altri 20 anni.

Sappiamo che la formazione avviene nelle scuole nelle università o sul posto di lavoro, fuori non c’è più formazione. Attualmente le persone anziane, da 60 anni in su, sono l’80-85 % dei destinatari di tutte le truffe che vengono fatte attraverso l’intelligenza artificiale. Voi direte e come la usano l’intelligenza artificiale. Molto semplice: il dialogo generativo che avviene con una chat tipo chat gpt mentre si sta descrivendo una storia improbabile che però nelle mani di chi ha una formazione analogica è assolutamente indecifrabile.

Al tempo stesso la formazione riguarda i più giovani. Chi è che sta facendo in questo momento nell’ambito della giustizia, della polizia predittiva, applicazione dell’intelligenza artificiale? Le persone più grandi, noi, siamo noi che dobbiamo andare a scuola, non sono i ragazzi di 15-20 anni. Bisognerebbe prendere tuti i magistrati, gli avvocati, i poliziotti, i carabinieri, tutti a scuola, tutti quanti a capire che WhatsApp non è uno strumento che da certezze, faccio vedere la serie di messaggi, che il contenuto di un cellulare è modificabile.

Abbiamo fatto battaglie per poter limitare l’uso dei trojan, ma non per essere sodali dei cattivi, ma perché sappiamo che è una capacità intrusiva manipolatoria, come l’intelligenza artificiale.

 Allora il problema di fondo è e rimane culturale e l’università per la trasformazione digitale, per l’innovazione, deve accogliere innanzitutto quelli che in questo momento hanno potere e responsabilità nell’uso e nell’applicazione anche inconsapevole dell’intelligenza artificiale.

Stefano da Empoli: Tu facevi riferimento prima a quei due articoli e ti sei soffermato sul primo, dicci qualcosa sull’art. 25 e su che opinione hai in merito.

Roberto De Vita: Il problema di fondo è che si può regolare ciò che poi ha una quota di rispetto della norma che prevede la regola. Il problema di fondo è l’abuso non dichiarato, l’abuso illecito e in breve, quel che ho detto prima, l’uso dell’IA (ma degli strumenti digitali in generale) da parte dei cattivi.

Il tema della riconoscibilità. Tipicamente un falso non ha un marchio “falso”. Quando acquisto un prodotto falso, non c’è scritto sopra “falso”. Quindi, io posso essere tutelato nell’affidamento quando è un risultato dichiarato di un’intelligenza artificiale, altrimenti è più difficile. Questo per quanto riguarda il dato diretto e vengo all’art. 25.

C’è il problema indiretto. Facciamo un esempio: ricevete una telefonata, in cui c’è una voce, la mia, che è molto riconoscibile, che vi dice cose brutte. Voi siete convinti che abbia chiamato io. Che fate? Chi denunciate? Un’utenza, con la mia voce, e siete certi che sia Roberto De Vita. Il problema di fondo è che non ero io, ma l’IA.

Non è che prima della telefonata dichiaro: “questo è il prodotto dell’IA”. L’art 25 si pone questo tema, di introdurre un’aggravante per mettere a sistema nell’ordinamento penale sostanziale una disposizione che vada a punire l’uso di risultati diretti o indiretti di sistemi di IA che rappresentino un mezzo insidioso con una capacità ingannatoria che possa amplificare, rendere più gravi taluni reati, menomare la pubblica o privata difesa.

La questione è enorme non è solo di natura sostanziale, ho fatto l’esempio banale della telefonata ma potete immaginare che potenzialità abbia l’IA nel creare nella percezione analogica la convinzione che il risultato sia genuino.

Ci sono delle disposizioni, ora alcune di queste accompagnano delle norme già esistenti. C’è una disposizione riguardante la creazione di materiale, possono essere tipicamente video, filmati.

Sappiamo tutti quanti che il tema della non consensual pornography – che è il grande contenitore del Revenge porn – è la creazione di filmati animati con le sembianze, anzi esattamente con le persone in alta definizione all’atto di compiere rapporti sessuali.

Ovviamente la norma ha un’impronta di tipo liberale: se si crea danno o se non vi è il consenso della persona. Togliamo il consenso, guardiamo il profilo di danno. Questo non è un danno riferibile a una singola persona, qui c’è un tema di timidezza d’approccio che viene usata anche in altri ordinamenti.

Tutto ciò che non riusciamo a riconoscere come il frutto dell’intelligenza artificiale generativa rischia di creare, soprattutto in menti analogiche – e tali rimarranno per molto tempo, anche dal punto di vista culturale – un disorientamento e la difficoltà di riconoscere ciò che è vero da ciò che non è vero.  L’entusiasmo “punitivo-sanzionatorio” dovrebbe esser ben maggiore rispetto a un fenomeno a cui si sta guardando come una mera falsificazione. Non è una mera falsificazione, ricordiamoci sempre che indirettamente i risultati della manipolazione da intelligenza artificiale entrano in una catena decisoria di tipo analogico fatta dall’uomo che non riconosce ed è convinto di decidere in modo originale e primo, ma questo non è.

L’art. 25 cerca di dare delle risposte, ancora timide, dovremo vedere i disastri che si genereranno – e tenete presente che non ho un atteggiamento e un approccio da luddista – sono un convinto sostenitore dell’IA. Non penso che le norme siano sufficienti – molto utili per far funzionare le imprese o la pubblica amministrazione –  per quanto riguarda la protezione un investimento culturale senza pari che non siamo riusciti a fare nemmeno negli anni passati per la prima rivoluzione digitale. Faccio una battuta, solo il covid e il lockdown hanno fatto sì che i Tribunali in Italia si dotassero di una PEC per poter ricevere gli atti. Io non so se dobbiamo attenderci una pestilenza per immagine di iniziare a capire quali siano le conseguenze dell’uso dell’intelligenza artificiale.

Riferimenti

[1] Disegno di legge n. 1146 – Senato della Repubblica. Scarica qui il testo del DDL.

Allegati

Autore

Condividi