L’impatto dell’intelligenza artificiale sulla professione di avvocato
Incorpora video
L’impatto dell’intelligenza artificiale sulla professione di avvocato
La giornalista del Sole 24 Ore, Manuela Perrone, ha intervistato Paola Severino, professore emerito di diritto penale, vicepresidente della Luis Guido Carli, presidente della Scuola Nazionale dell'Amministrazione, in un evento intitolato “L’impatto dell’intelligenza artificiale sulla professione di avvocato”, analizzando la fattibilità di utilizzare questo "nuovo" strumento anche nel campo penale.
Sottotitoli creati dalla comunità Amara.org Sottotitoli creati dalla comunità Amara.org Sottotitoli creati dalla comunità Amara.org Sottotitoli creati dalla comunità Amara.org Viviamo in un mondo complesso ogni giorno ci serviamo delle nostre competenze per gestire tutti gli aspetti della vita distruzione, lavoro, relazioni sociali e vita privata. Persino per il tempo libero i risultati dell'indagine EPIAC sulle competenze degli adulti ci aiuteranno a capire la situazione del nostro paese come agire per migliorarla. Le competenze contano, contiamoci! La nostra storia è la vostra storia che non è fatta solo di progetti e opere ma soprattutto di uomini e donne che hanno pensato a tramandare un patrimonio. Per conoscere meglio il nostro passato le radici di Carito nel lavoro delle casse di risparmio di Trento e Rovereto. Fondazione Carito. Insieme si cresce. Sottotitoli creati dalla comunità Amara.org Buongiorno a tutte e a tutti, bentornata a Paola Severino, ha bisogno di poche presentazioni, professore emerito di diritto penale, vicepresidente della Luis Guido Carli, presidente della Scuola nazionale dell'amministrazione, è stata ministra della giustizia nel governo Monti, è stata anche rappresentante speciale per la Presidenza OSCE, per la lotta alla corruzione, ha svolto altri incarichi di primissimo livello, non li elenchiamo tutti. Nel 2022 la professoressa Severino ha scritto e ha curato questo volume, intelligenza artificiale, politica, economia, diritto e tecnologia per la Luis University Press, in cui ha tentato un approccio sistemico al tema dell'intelligenza artificiale, approfondendo la questione da prospettive molto diverse che spaziano appunto dalla politica all'economia, alle tecnologie e alla filosofia. 20 anni prima nel 2002 usciva in Italia il film Minority Report che forse molti di voi avranno visto, il regista era Steven Spielberg e il film era tratto da un racconto di fantascienza di Philip Dick, possiamo dire che forse niente come la fantascienza negli ultimi decenni ha saputo prevedere quello che sarebbe successo in seguito e in questo caso quel film e quel racconto poneva un interrogativo etico fondamentale, è possibile arrestare qualcuno per crimini che non ha ancora commesso ma che si prevede, potrebbe commettere in futuro. Ebbene oggi con gli algoritmi di deep learning noi siamo in grado effettivamente di predire i futuri comportamenti e questo naturalmente pone dei quesiti enormi al diritto e in particolare al diritto penale. La prima domanda generale che vorrei porle professoressa è se noi oggi siamo dotati di un apparato di regole sufficiente per governare un fenomeno così complesso? Assolutamente no, quello è un fenomeno, quello dell'intelligenza artificiale è un fenomeno che corre velocissimo, siamo già dal momento in cui ho scritto quel volume, ad oggi le cose sono enormemente cambiate perché ancora lì era assolutamente solo in uce il tema della possibilità di tipo predittivo dell'intelligenza artificiale, era un qualcosa che si lasciava alla fantascienza, alla fantasia, ai film. Che cosa succede quando la fantascienza si traduce in realtà? Quando la capacità predittiva di un algoritmo arriva anche a dirti, quella persona è pericolosa, quella persona ha delle caratteristiche, ragiono come l'intelligenza artificiale, perché le ho esaminate, sezionate, visti precedenti, catalogate, potrebbe commettere un delitto? Vi accontentereste di questo voi per arrestare qualcuno? Questo è già realtà, è la capacità predittiva, ma è una capacità precisa, è una capacità che ci appaga o quel che noi abbiamo sempre creduto nell'etica essere la radice dell'uomo, il libero arbitrio, la possibilità di cambiare, la possibilità di migliorare, rappresentano veramente il limite invalidabile rispetto al quale esiste un'alternativa che però credo tutti rifiuteremmo, come venne rifiutata da tutta la teorica del diritto penale, nonostante si fosse formata in un periodo che è durato parecchio, il periodo del nazismo. Ricordiamo la teoria del delinquente nato, che era una teoria non affidata alla predizione dell'algoritmo, ma che individuava una serie di caratteristiche, le origini, la società, la famiglia, le condizioni di vita precedenti e contemporanea poi al delitto, per dire quello era un delinquente nato e dunque deve essere punito e non può essere neanche reducato. Io credo che questo ritorno al passato non lo possiamo fare affidandoci al futuro della intelligenza artificiale, anzi dobbiamo fare in modo che l'intelligenza artificiale si lasci usare, sia addomesticabile, sia utilizzabile. Io non ho paura dell'intelligenza artificiale, non dobbiamo averne paura, dobbiamo anche ammettere che l'intelligenza artificiale sarà capace di completare l'incomputa in chiave musicale o di scrivere un testo giuridico, di scrivere un testo romanzato. Perché no? Non crediamo di essere gli unici detentori dell'intelligenza, anzi noi sappiamo che l'intelligenza artificiale non è stupida, c'è una bellissima definizione che qualcuno ha dato, che adesso vi voglio trovare, ma non la troverò sicuramente, se avessi un po' di intelligenza artificiale la troverei di sicuro, ma non ce l'ho, non ce l'ho ancora. Ecco, l'intelligenza artificiale non è mai stupida, perché lo stupido si rifiuta di imparare, perché ritiene di non aver bisogno di altri che di se stesso. Invece l'intelligenza artificiale è esattamente l'opposto, ritiene di dover imparare sempre, continua ad acquisire elementi, dati, implementa la propria capacità di non sbagliare, ma solo per questo può sostituire il giudizio umano. Se io vi chiedessi preferireste essere giudicati da un robot o da un uomo o da una donna che sia, preferire stesse difesi da un avvocato in carne e ossa oppure da una macchina che attraverso gli algoritmi analizza i precedenti. Ed è qui che ci misuriamo con la capacità predittiva del computer o dell'intelligenza artificiale, può bastare, secondo me no, anzi noi dobbiamo regolamentarla per evitare che prenda il sopravvento, ma prenda il sopravvento in maniera anomala, in maniera disintermediata. Io mi resi conto di quanto fosse negativa la disintermediazione quando incominciarono a diffondersi le fake news. Perché le fake news si sono diffuse? Perché non abbiamo più avuto o per lo meno non abbiamo avuto in termini assoluti giornalisti professionisti che come nel loro regole e nel loro DNA devono intermediare, devono scegliere tra la notizia vera e quella falsa, perché sanno di avere una responsabilità. La macchina ha una responsabilità per le fake news? La diffusione delle fake news può essere ricondotta a un meccanismo di intelligenza artificiale? No, può essere semmai ricondotta all'inventore. Allora è in questa disarmonia tra regole che possono essere violate e intelligenza artificiale che può aumentare le proprie capacità di acquisire dati disintermediando che noi troviamo la discresia tra regole e capacità di regolamentare il fenomeno. Fenomeno che cresce velocissimamente un diritto che non gli sta dietro. Pensate quanto tempo impiega il Parlamento per varare una legge? Anche un decreto legge comunque sconta i termini di conversione, quindi certamente i tempi non sono alla pari con la capacità dell'intelligenza artificiale di diffondersi, quindi violare la privacy, violare il diritto al copyright. Queste regole non sono state ancora create e dobbiamo soprattutto creare una coscienza sociale perché questo accada. Ecco e sul diritto penale il tema è ancora più scottante. Non è la prima volta naturalmente che ci si ritrova a dover introdurre nuove fattispecie per comportamenti che prima non erano mai esistiti. Lei nel libro cita l'esempio della frode informatica che è una fattispecie recentissima introdotta all'interno della legge sui reati informatici. Anche in questo caso lei vede all'orizzonte la necessità di costruire nuovi schemi di colpevolezza, nuovi capi di imputazione e poi aggiungo c'è anche un problema di territorialità. Qual è la giurisdizione competente quando l'utilizzo dell'intelligenza artificiale avviene in forma anonima e del tutto non localizzabile? Al momento mi sembra che questa situazione sia completamente fuori dai radar delle regole. Assolutamente sì, necessità di creare nuove fattispecie di reato. Io la intravedo, ancora non ne vedo i confini, però la intravedo quando sento parlare per esempio dell'autoguida, l'idea di sedersi in una vettura ed essere tutti trasportati. L'autoguida che problemi ha? È una forma di intelligenza artificiale che è basata sull'esperienza e che sulla base dell'esperienza auto regola il proprio comportamento. All'inizio le si dice guarda che se vedi un ostacolo sulle strisce, se passi davanti alle strisce ti devi fermare e quella impara e si ferma. Se passa qualcuno sulle strisce non lo devi investire, ma diciamo anche che se trova sulle strisce un bambino è un pallone. Deve scegliere il pallone e non il bambino? Ovviamente cercheremo di insegnarglielo, ma intanto l'input umano diventa fondamentale e imprescindibile perché comunque le prime regole le deve dare chi insegna all'autoguida a scegliere tra il pallone e il bambino, salvare il bambino e colpire il pallone. Poi è vero che la macchina correggia l'errore da sola, quando si rende conto di aver commesso un errore lo correggia, ma questo la rende infallibile? Purtroppo no e guardate che gli allarmi che ci giungono dagli Stati Uniti sono davvero preoccupanti e sono allarmi che provengono da coloro che hanno inventato questi meccanismi, uno di questi per esempio, naturalmente non essendo un computer, non mi ricordo il nome, Sam Altman, che è l'inventore di chat GPT, che è una delle forme di intelligenza artificiale più usate nel mondo legale. Cosa ci dice? Nelle istruzioni per l'uso, se le andate a vedere di chat GPT, ti dice che la macchina può dare delle risposte apparentemente corrette, ma che possono ssere sbagliate, dei sounds correctly, ma in realtà possono essere sbagliate, cioè non affidatevi al giudizio dell'intelligenza artificiale che io stesso ho creato. E poi ogni tanto ci sono degli alert, anche nel mondo dei social, ci dicono che i robot a volte possono soffrire di allucinazioni. Questo mi preoccupa perché essere giudicati da un robot che soffre di allucinazioni, per carità l'uomo può sempre sbagliare, però comunque il parametro umano con il quale viene valutato nella società porta a dirci se una persona soffre o meno di allucinazioni, in una macchina l'allucinazione forse è più difficile da individuare e da correggere. E poi se è proprio vero, questa è una cosa che cito nel libro perché mi ha colpito, se è proprio vero che la macchina obbedisce a tutto ciò che viene immesso. Il primo input che viene dato alla macchina è che non devi autodistruggerti, cioè devi imparare, devi migliorare, ma non ti devi autodistruggere perché sei un bene, hai un valore. Come si spiega il tentativo di suicidio di un robot di cui c'è una testimonianza in un racconto non di fantascienza, ma reale, di una macchina che pur sapendo che non doveva entrare in acqua per corre i gradini, li discende e si butta in acqua. È possibile il suicidio dell'intelligenza artificiale? Sembra un film ragazzi, altro che Spielberg nel suo film di qualche anno fa e allora mi sono chiesta, ma a volte allora l'intelligenza artificiale può anche disobbedire agli input che le vengono dati e quindi il vero tema non è posso usare l'intelligenza artificiale, il tema è come posso governarla e non esserne governato. L'intelligenza artificiale è un mezzo, non è un fine e deve rimanere un mezzo e quindi io devo creare anche, pensare di poter creare anche delle nuove forme di imputazione per gli errori commessi direttamente dalla macchina. Di questi errori chi risponderà? L'inventore o la macchina? Perché sapete, l'inventore si potrebbe difendere dicendo io l'ho inventata in un certo modo, poi la macchina ha imparato ad agire sulla base della sua esperienza, non della mia. Un agente autonomo? Diventa un agente autonomo. Risponderà la macchina? Come risponderà il giudice a questo quesito e a questo tipo di difesa, la responsabilità della macchina? Alcuni casi non penali si sono già verificati, c'è stato un inventore di una macchina di intelligenza artificiale che ha chiesto direttamente che fosse imputato direttamente alla macchina di intelligenza artificiale una scoperta, un brevetto. Quindi non io Paola Severino chiedo la registrazione del brevetto che di un'idea che ho elaborato attraverso l'intelligenza artificiale, ma direttamente l'intelligenza artificiale che la chiede. In due paesi è stata ammessa l'iscrizione del brevetto direttamente per l'intelligenza artificiale, come se fosse una persona. Le corti poi di giustizia hanno emendato questa decisione, ma terrà questa giurispludenza o arriveremo prima o poi a forme di intelligenza artificiale identificabili con l'autonomia di invenzione, quindi le forme di responsabilità umane? E che tipo di responsabilità potremo mai adebitare all'intelligenza artificiale? Queste sono le domande che si pone un giurista di oggi, che si proietta nel futuro, un giurista che non ha timore dell'intelligenza artificiale, ma vuole evitare di rimanere senza regole. E poi quello che lei diceva, il limite territoriale, la giurisdizione, questi sono comportamenti che non hanno confini, i cui effetti si possono diffondere in tutto il mondo. Ecco perché stiamo incominciando a pensare ad un'autorità mondiale che disciplina il fenomeno. In fondo tutti abbiamo l'interesse che se scoppia una guerra non sia un computer o un robot a schiacciare il pulsante. Vedete c'è un episodio, anche quello citato nel libro, reale, arriva ad un certo punto ad una base militare russa, un segnale che sembrava quello di un attacco missilistico, sempre portato attraverso forme di intelligenza artificiale. Il comandante di quella base vede il segnale e dovrebbe schiacciare il pulsante che fa partire i missili verso gli Stati Uniti perché l'intelligenza gli sta segnalando un attacco missilistico atomico. A quel momento di esitazione che solo l'uomo può avere per una forma di etica oltre che di responsabilità, prima di far partire una guerra nucleare, lo premo o non premo quel pulsante? E quel istante di esitazione ha salvato il mondo perché non era un attacco missilistico, si trattava di un disturbo, di un segnale che simulava l'attacco missilistico. Pensate che quel comandante fu punito per non aver reagito come doveva reagire a quell'input, ma il mondo si salvò. Sono richieste regole locali italiane assurdo, europee non basta, mondiali e qui troviamo una incredibile sinergia di idee tra il mondo europeo e il mondo statunitense. Spesso noi non siamo allineati sul tema della regolamentazione, l'Europa viene tacciata di essere un po' più conservatrice rispetto agli Stati Uniti, ma c'è e di oggi l'allarme della Casa Bianca. Attenzione, non lasciate sfuggire il controllo umano sull'intelligenza artificiale. Se tutti siamo così convinti che l'intelligenza artificiale ci possa aiutare, ma che la dobbiamo governare con molta attenzione, allora dobbiamo anche creare un'autorità che monitorando le situazioni non locali e non territoriali, ma le situazioni in pericolo che possono esistere lungo tutto il globo terrestre ci aiuti a trovare le regole che possano renderci tranquilli sul futuro del mondo. Ma ci muoviamo in un territorio del tutto inesplorato oppure possiamo ispirarci a qualche tipo di governance e di autorità che già in passato è intervenuta a regolare fenomeni sovranazionali di questa portata? Fenomeni sovranazionali sì, mondiali ancora no, sovranazionali. Noi abbiamo tutta la normativa europea che comunque già c'è per alcuni aspetti di tutela della privacy, di tutela del copyright che si estendono anche alle forme di intelligenza artificiale e c'è negli Stati Uniti un fenomeno anche quello abbastanza unico, cioè le varie autorità politiche e governative che sono assolutamente d'accordo, tutti, primo caso nella storia sulla necessità di avere un modello di governance per l'intelligenza artificiale. Beh mettiamo insieme queste due forze poi chiamiamole come vogliamo, Nazioni o qualcuno ha detto l'ONU proprio questa mattina ne parlavamo, l'ONU delle regole dell'intelligenza artificiale, chiamiamo l'Agenzia Mondiale per la governance dell'intelligenza artificiale ma facciamo qualcosa perché tutti insieme possiamo governare questo fenomeno ovviamente utilizzandone le parti positive ma escludendone le parti pericolose, dannose o quelle che potenzialmente sono dannose. Ecco tra queste e veniamo a un altro ambito di intersezione tra il diritto penale l'intelligenza artificiale c'è sicuramente il pericolo legato alle norme mole di dati personalizzati che vengono raccolti e processati. Lei vede il pericolo di una sorveglianza come dire pervasiva, una sorta di grande fratello anche lì senza regole che in ambito pubblicistico, in ambito privatistico, quindi la compliance aziendale da una parte, i sistemi di law nforcement dall'altra che fa fibrillare questi sistemi, cioè come si argina il rischio del grande fratello. Anche lì dobbiamo prendere parti positive ed eliminare quelle negative dannose. Io trovo per esempio estremamente utile l'uso dell'intelligenza artificiale per la prevenzione di certi fenomeni criminosi ma parlo non solo degli omicidi e di solito si pensa per prima questi ma pensiamo a fenomeni complessi come riciclaggio, come la corruzione, solo la raccolta di dati, un'enorme raccolta di dati ci consente di creare le regole per prevenire la corruzione, esaminare il fenomeno, vedere quali ne sono le caratteristiche. Se lo dovessimo fare noi umani da soli impiegheremmo qualche anno. L'intelligenza artificiale ci consente di individuare i comportamenti che possono essere indici di corruzione con molta maggiore velocità che non vuol dire che individuano il corruttore e il corrotto ma individuano gli indici attraverso il quale poi il nostro lavoro di avvocati, di pubblici, ministeri, di giudici troverà l'esistenza del reato, lo addibiterà ad uno piuttosto che all'altro e quindi questo tipo di raccolta dati e di elaborazione dati è sicuramente utile, quella che può fare la pubblica amministrazione per esempio per raccogliere dati che le consentono di essere più trasparente, di intervenire meglio nei momenti nei quali vi è necessità emergenze, tutto questo è utilissimo ma c'è un confine che è quello che la raccolta dei dati deve essere appunto il mezzo per raggiungere uno scopo e questo scopo deve essere lecito, questo scopo deve essere consentito dalla legge, la raccolta dei dati sclusivamente per creare categorie anche banali di consumatori, può essere consentito? Il riconoscimento facciale indiscriminato può essere consentito o l'ede, la praiva si di ciascuno di noi? In alcuni paesi ha messo, in alcuni paesi ho visitato delle grandissime imprese che non appena tu entri ti fanno il riconoscimento facciale e se ne vantano anche, avvocato professoressa vede l'abbiamo fatto il riconoscimento facciale così adesso noi la riconosceremo quando entra in quel finto supermercato e capiremo quale è il prodotto che lei preferisce perché il suo sguardo si è soffermato prima su quello che su quell'altro poi mettiamo insieme tutte queste faccine e tutti questi riconoscimenti e buttiamo via il prodotto che voi non avete guardato e promoviamo quello che voi avete guardato. Ecco pensate che questa sia una forma evolutiva o involutiva della civiltà del consumo, io non credo che quel tipo di scopo debba essere considerato lecito e nel nostro ordinamento non lo è ma ancora una volta siamo ai cosiddetti transborder crimes, una volta che il mio viso è stato tracciato, questa traccia può essere utilizzata o comunque questo riconoscimento può essere utilizzato per le situazioni più avveniristiche e fantasiose per creare una falsa identità per esempio, allora ciò che era film ciò che era fantascienza si è tramutato in realtà ma il film finisce, io esco dal cinema rassicurata dal fatto che si è trattato soltanto di fantasia, qui purtroppo fantasia non è quindi rimbocchiamoci le maniche, rendiamoci conto che il fenomeno esiste, utilizziamolo finché è lecito utilizzarlo ma creiamo le regole tutte omogenee perché siano evitati gli abusi di questa capacità dell'intelligenza artificiale. Tornando ai rischi e i pericoli perché confesso una sana inquietudine davanti a tutto quello che lei ci sta prospettando, prima accennava al rischio insito nell'affidamento della valutazione algoritmica della valutazione del tasso della polizia predettiva, ma proprio sulla tasso di pericolosità di un individuo, sul rischio di recidiva, tutte funzioni che finora sono di fatto attribuite al giudice e non a una macchina o a un algoritmo. Secondo lei quanto è forte il rischio che questi sistemi in realtà rafforzino le discriminazioni, ripropongano gli stereotipi che sono già diffusissimi nella nostra società e anche tra i magistrati e tra gli abvocati, nel senso che sono stereotipi che abitano ciascuno di noi. Allora io non vorrei continuare a preoccuparvi, la promessa è sempre che l'intelligenza artificiale può essere utile, che non possiamo fermare l'evoluzione del mondo ma che non ne dobbiamo ssere governati, però la giustizia predittiva ci preoccupa. Perché ci preoccupa? Intanto il nostro sistema è molto diverso da quello americano, la giustizia predittiva è utilizzata molto negli Stati Uniti perché negli Stati Uniti la giurisprudenza, la decisione del giudice è basata sul precedente dunque è chiaro che quello è il mondo nel quale la giustizia predittiva viene maggiormente utilizzata. Qui in Italia noi non abbiamo un obbligo del giudice di adeguarsi al precedente dunque la giustizia predittiva già sconta questa differenza, questa diversità. Ma vediamo cos'è successo nei paesi in cui la giustizia predittiva è stata utilizzata. Ha aumentato il tasso di correttezza delle sentenze, delle decisioni, di giustizia delle decisioni? No, no perché basandosi sul precedente storico tende anzi ad aumentare le discriminazioni. Pensate al tema della giustizia rispetto alla forma di religione, all'essere donna, all'essere uomo, alle etnie. Anche se questa parola oggi non si può usare, ma permettetemi di usarla, non so più come definire le varie categorie di soggetti, è accaduto comunque negli Stati Uniti che le persone di colore fossero condannate più frequentemente dai cosiddetti bianchi. È storia, è una storia che noi vogliamo dimenticare, non vogliamo che rappresenti la base per un verdetto di oggi. La macchina non sa distinguere il dato storico da quello evolutivo e dunque si è visto che nel dover esercitare questa giustizia predittiva tendeva ad arrivare ad una decisione di condanna meno frequente per i bianchi, meno frequente per le donne, perché è meno frequente che le donne commettano certi tipi di delitti e questa vi sembra una giustizia giusta? Cioè la predizione basata sui errori del passato non fa altro che riprodurre quegli errori e come faccio a disattivarli? Allora il precedente non mi serve più, mi serve la testa di un uomo, di una donna che pensino ma quelle erano delle cose assolutamente contrari alla giustizia, erano dei fenomeni che noi abbiamo superato da tempo, possiamo assumerli come precedente predittivo? Certamente no e quindi teniamo conto del carattere discriminatorio di una giustizia predittiva basata sui precedenti. Noi possiamo anche escludere qualche precedente ma allora poi che senso ha affidarsi ad una giustizia predittiva? Ecco anche qui ragionare, non dare nulla per scontato, non dare le verità per assolute, questo è il compito dell'uomo non è che tutto ciò che è prodotto da una macchina è migliore di ciò che è pensato dall'uomo. Ecco questo può essere la base anche per ripensare le funzioni e i compiti proprio degli avvocati, lei oggi alla luce di tutto quello che abbiamo detto come immagine la figura dell'avvocato fra dieci anni, io pensavo ragionando appunto sulla nostra conversazione che in realtà in un paese come l'Italia in cui sappiamo essere presenti culla del diritto in cui sappiamo essere presenti tra le 150 mila e le 170 mila leggi senza considerare le leggi regionali, leggi comunali, regolamenti ccetera, è molto utile ricorrere all'intelligenza artificiale per raccogliere dati e selezionarli, dall'altra parte l'avvocato del domani dovrà essere sempre più capace di assegnare all'intelligenza artificiale compiti per risparmiare tempo da dedicare però alle scelte strategiche del suo lavoro, penso all'interazione con i clienti, penso ad altro tempo che può liberarsi per la professione, ecco lei come la immagina la figura dell'avvocato. Esattamente così nel senso che per l'avvocato ci può essere sicuramente un grande vantaggio nell'uso dell'intelligenza artificiale. 20 anni fa i miei giovani collaboratori dovevano cercare i precedenti su enormi volumi di raccolte di giuristudenza, dovevano cercare i precedenti di dottrina spolverando libri dalla libreria, trascorrevano ore in questo compito e non è detto nemmeno che lo svolgessero compiutamente, perché ogni tanto arrivavo io a rivedere e naturalmente coglievo subito l'articolo che non avevano trovato o la sentenza che non avevano trovato. Oggi le cose sono molto diverse, non c'è bisogno di pensare al futuro, è già attuale, il cervellone cosiddetto della cassazione ci ha dato la possibilità di ottenere in studio tutti quanti i precedenti della cassazione. Ovviamente l'intelligenza artificiale, il chapter GPT già lo fa, raccoglie tutti i precedenti e quindi ci mette in condizione di avere una platea molto più ampia, certamente molto più completa che ci fa risparmiare molto tempo. Ecco ma il tempo risparmiato ci può rendere sostituibili perché questo è il quesito che pongono gli Stati Uniti, si potrà nel futuro fare a meno degli avvocati e io tranquillizzo tutti coloro che nel futuro vogliono fare gli avvocati, resisteremo nonostante che negli Stati Uniti non amino gli avvocati ma per un motivo, perché dicono che sono molto cari, quindi ad ogni occasione cercano di dire che gli avvocati spariranno, almeno per loro, fortunatamente per noi gli avvocati non spariranno anche perché il compito dell'avvocato è quello di ritagliare per il proprio cliente un vestito tailor made e c'è la stessa differenza tra l'avvocato e l'intelligenza artificiale che c'è tra il vestito fatto dal sarto e la produzione industriale. Ecco tu che ti devi difendere? Cosa preferisci un vestito tailor made? Una difesa ritagliata su di te e guardate che parlare di difesa ritagliata sulla persona non vuol dire esagerare su concetti non esistenti, io mi meraviglio sempre ma è uno stupore bellissimo il mio perché è lo stupore che abbiamo nello scoprire le capacità del nostro cervello della nostra intelligenza quando alla fine di un processo gli avvocati devono pronunciare la propria ringa, il pubblico ministero o i pubblici ministeri le loro requisitori. Bene non ce n'è una uguale all'altra, ognuno usa gli argomenti che trova più efficaci, più importanti, ritaglia il suo vestito di difesa e un vestito è diverso dall'altro proprio perché ognuno cerca di cogliere in tutti gli argomenti che disseminano un processo ce ne sono tanti, quelli che sono più importanti, quelli che sono più suggestivi, quelli che sono determinanti ma li descriva in maniera diversa dall'altro. Ecco un'intelligenza artificiale non lo saprebbe fare e lo stesso fa il pubblico ministero a volte ce ne sono un paio che devono sostenere l'accusa ognuno la sostiene in maniera diversa per non parlare delle motivazioni di una sentenza che renderanno insostituibili anche il giudice, il robo giudice io non lo vorrei io non so quanti lo vorrebbero alla fine di questo discorso preferite un robo giudice o preferite un giudice umano con le sue debolezze con la sua incapacità di resistere se non attraverso una professione molto solidamente esercitata alla tentazione delle suggestioni che vengono magari prima insieme al processo ma la macchina non ha quella sottigliezza di differenziare alcuni argomenti così peculiari, così tipici, così esclusivi che non si ritrovano mai nel precedente. Io credo che il bello di fare l'avvocato sia anche questo non fare mai il giorno dopo la stessa cosa che hai fatto il giorno prima. È un'attività che non è mai ripetitiva è sempre inclusiva di nuovi elementi, selettiva di nuovi lementi. Ecco in questo sta la differenza. Certo saremo sempre più aiutati tra 10 anni utilizzeremo l'intelligenza artificiale molto di più, sarà molto più veloce la ricerca dei precedenti, sarà molto più veloce l'analisi delle decine di migliaia di pagine che oggi accompagnano processi soprattutto quelli di carattere tecnico. Non stiamo parlando del furto di orologi nel quale bisogna solo capire a che è avvenuto il furto e dove era la persona e come ha fatto a rompere la vetrina se c'erano compici. Noi parliamo di diritto penale dell'economia per esempio nel quale la sorte di una impresa, la sorta di una grande o piccola azienda, la sorte di un amministratore delegato o di un consiglio di amministrazione dipendono da tutta una serie di analisi molto tecniche, diecine di migliaia di pagine, perizie, consulenze. Ecco lì possiamo essere aiutati nell'analisi della prova molto più di quanto non lo siamo già ora dall'intelligenza artificiale ma questo non sostituirà mai la nostra capacità poi di prendere da tutto ciò quel che occorre, quel che rappresenterà il punto della causa. Il mio maestro mi diceva sempre un abvocato si distingue perché tra 100.000 pagine trova la riga nella quale c'è la difesa più efficace. Questo io sinceramente non credo che lo possa fare l'intelligenza artificiale. Quindi ragazzi vedo ma tanti giovani e a me piace rivolgere i miei giovani perché credo il compito delle università sia quello di formarli non solo allo studio del diritto. Lo studio del diritto è la base senza la quale non potete inquadrare gli argomenti ma poi c'è l'aspetto professionale. Dovete sperimentare la teoria. Noi alla LUIS facciamo i processi simulati sia in materia di diritto penale che di cyber security. Vi mettiamo in un'aula, indossate la toga per la prima volta nella vostra vita da avvocati, da pubblici ministeri, da giudici, scrivete le ringhe, scrivete le requisitorie, scrivete le sentenze perché poi bisogna passare dall'apparato teorico a quello pratico e credetemi è bellissimo vedere l'entusiasmo con il quale lavorate, l'entusiasmo con il quale ognuno di noi cerca di trovare il punto della difesa, quello che vi trasformerà da giuristi in avvocati, da giuristi in pubblici ministeri, da giuristi in giudici e in questo sta la capacità di chi vi forma e di voi che siete formati, cioè di comprendere la differenza che c'è tra l'apprendimento teorico e l'avvio verso la professione e poi un invito che faccio sempre ai giovani, scegliete il lavoro che vi renderà entusiasti per tutta la vita. La vostra vita sarà governata dal 50 al 70 per cento del vostro tempo, dal lavoro se sarete capace di scegliere un lavoro che vi piace, appassionatevi pure di intelligenza artificiale ma aiutateci a governarla, a creare le regole perché l'intelligenza artificiale ci aiuti e non diventi davvero un mostro come quelli che vediamo nei film di Frantascienze. Abbiamo qualche minuto ancora, ci sono domande, io approfitterei della presenza della professoressa, se qualcuno ha una curiosità o vuole esprimere una sua preoccupazione o anche un'idea del futuro che ci aspetta. Coraggio perché di solito il primo minuto trascorre in un silenzio imbarazzatissimo, dopo il primo minuto, dopo la prima domanda, tutti vogliono fare domande e scade il tempo, quindi approfittate se volete. Nel frattempo, eccola. Grazie, quando parlava di allucinazioni rispetto all'intelligenza artificiale, cosa intendeva? Sono delle citazioni che ho trovato da parte di, adesso non ricordo se fossero gli inventori ancora una volta, di chat GPT o di Bard, ma hanno usato esattamente questa parola, allucinazioni, come se l'inscatolamento, fatemi usare un termine forse antico, ma che rende bene l'idea. L'inscatolamento di troppi dati dentro la intelligenza artificiale, ad un certo punto, provocasse una scintilla dalla quale esce qualcosa che non aveva nulla a che fare con l'elaborazione del dato. L'uso del termine allucinazione ha colpito molto anche me, perché vuol dire che è qualcosa che non ha nessuna inerenza con gli input che erano stati dati alla macchina. Una deviazione della realtà. Una deviazione della realtà. E quindi anche dai dati accumulati. Esatto, e poiché noi alla macchina chiediamo invece un'analisi della realtà, l'alert sulle allucinazioni mi ha davvero particolarmente colpita. Eccolo lì, in fondo. Qui e lì. E quando ha parlato del possibilità per il giudice di utilizzare un sistema di intelligenza artificiale in ottica predittiva, penso appunto al giudizio prognostico sulla pericolosità. E secondo lei, se trovassimo il modo di superare quella che è un po' l'ottica legata al precedente, che appunto è un'ottica un po' falsata, sarebbe diciamo visibile in ottica positiva, oppure secondo lei sarebbe da evitare proprio nell'ambito dei giudici affidarsi a un sistema di intelligenza artificiale? Guardi, per le conoscenze che abbiamo adesso sull'intelligenza artificiale, non possiamo avere che un'intelligenza predittiva basata sul precedente. Non ci sono neanche esperimenti di una intelligenza predittiva basata non sul precedente, ma su una diretta elaborazione dei dati. Se ci dovesse essere, dovremmo vedere quanto siano affidabili. È il tema dell'affidabilità, sempre quello che preoccupa non solo noi, ma gli inventori di queste macchine. Sono macchine che comunque non hanno ancora avuto un rodaggio sufficiente per rassicurarci quando parliamo di valori fondamentali, libertà o detenzione. Sono valori a cui tutela ci preoccupa veramente e quindi finché non c'è un rodaggio adeguato è bene non affidarsi. Io non escludo questa possibilità. Allo stato delle cose non siamo ancora arrivati ad un livello evolutivo tale da sostituire. La complessità del giudizio che si mette al termine di un processo con la capacità di un'intelligenza artificiale di darci un giudizio non discriminatorio e corrispondente ai fatti che sono accaduti e alla colpevolezza anche. Non dimentichiamoci che nella giudizio penale il tema del dolo, della colpa rappresentano veramente un tormento per il giudice e per chi lavora sul tema della giustizia. Gli esempi non sono sempre così chiari, non sono l'esempio di quello che accoltella e sicuramente ha ucciso dolosamente. Gli esempi sono molto più difficili da analizzare quando si arriva a temi di sottile percezione come la colpa cosciente, il dolo eventuale, mettersi alla guida di un'autovettura ubriachi guidando a 120 chilometri all'ora e passando col semaforo rosso, uccidendo un passante. Danno luogo ad un omicidio colposo o un omicidio doloso. Non vorrei entrare nei temi tecnici ma si sono cimentate centinaia di giudici e di giuristi su questo tema ed è di una sottigliezza tale che ancora la macchina non può dare come intelligenza artificiale un giudizio affidabile. Professoressa per concludere lei cita spesso anche nel libro lo storico l'israeliano Harari che fa questa domanda secondo me rendendo bene l'idea della sfida. Dice attenzione perché il genere umano rischia di rendere se stesso superfluo. La domanda è saremo in grado di proteggere questo fragile pianeta e l'umanità stessa dai nostri nuovi poteri divini. Dobbiamo esserlo, dobbiamo esserlo, non possiamo renderci superfluo. Sappiamo che in certe materie la valutazione umana è fondamentale, non lanciamoci troppo avanti con la fantasia, cerchiamo di essere al passo con i tempi. La regolamentazione di questi fenomeni è urgentissima e va fatta seguendo ritmi diversi da quelli che avevamo prima. Il fenomeno non può dilagare senza controllo, se riusciremo a controllare altro che renderci superflui rimarremo quelli che comunque determinano la vita dei nostri paesi e la sopravvivenza nel nostro mondo. Ma parlo di una sopravvivenza etica, di una sopravvivenza delle idee, di una sopravvivenza morale, quella sulla quale davvero nessuna intelligenza artificiale ci può contestare il ruolo e la supremazia. La ringrazio moltissimo, grazie a tutti per averci seguito. Sottotitoli creati dalla comunità Amara.org Sottotitoli creati dalla comunità Amara.org Sottotitoli creati dalla comunità Amara.org Sottotitoli creati dalla comunità Amara.org Sottotitoli creati dalla comunità Amara.org
{{section.title}}
{{ item.title }}
{{ item.subtitle }}