Cambiano i tempi, cosa resterà del vecchio studio legale e notarile
Incorpora video
Cambiano i tempi, cosa resterà del vecchio studio legale e notarile
L'intelligenza artificiale sta trasformando gli studi legali e notarili, con un crescente utilizzo tra avvocati e notai. Una ricerca evidenzia l'ottimismo e le riserve sull'impatto di questa tecnologia.
Buongiorno a tutti, ben arrivati. Questa mattina parliamo di intelligenza artificiale, l'impatto sugli studi professionali, in particolare sugli studi legali e notarili. Lo facciamo con due esponenti delle professioni, alla mia destra Giulio Bino, presidente del Consiglio nazionale del notariato, e anche Antonino Lalumia, presidente dell'Ordine degli Avvocati di Milano. Alla mia sinistra, Giosella Finocchiaro, una professoressa dell'Università di Bologna, dell'Alma Mater, è stata una delle prime in Italia che si è occupata in modo scientifico, del diritto della privacy e del diritto di internet. È davvero un'autorità. Cerciamo un po' di capire che cosa sta succedendo negli studi professionali. Innanzitutto, l'intelligenza artificiale è un elemento che spata un po' il pregiudizio che negli studi legali, i studi notarili, siano ancora un po' degli anfratti polverosi. L'intelligenza artificiale viene ampiamente utilizzata. Da che cosa possiamo derivare questa affermazione che non è appodittica? Beh, in settimana è stata presentata una ricerca dell'Ordine degli Avvocati di Milano sull'uso e la considerazione che gli avvocati milanesi hanno dell'intelligenza artificiale. È il secondo anno che questa ricerca viene fatta e da questa ricerca, adesso non vogliamo inondarvi di numeri perché poi non è questo il nostro obiettivo, ma da questa ricerca emerge come gli avvocati, soprattutto i più giovani ma anche quelli di mezz'età e poi soprattutto coloro che lavorano nei grandi studi naturalmente fanno un ampio uso dell'intelligenza artificiale. Questo emerge dal confronto tra i risultati della Sarve di quest'anno e i risultati dello scorso anno. C'è un aumento da parte degli avvocati della considerazione che l'intelligenza artificiale possa rappresentare un'opportunità, uno strumento anche per facilitare economicamente l'attività, anche se ci sono, e sono abbastanza chiare da parte degli avvocati, alcune riserve, alcuni dubbi, circa le modalità di utilizzo dell'intelligenza artificiale. In questo caso tutto sommato è un bene. Perché è un bene, Presidente Lalumia? E qual è stato un po' il percorso che ha indirizzato questa attività da parte dell'Ordine di Milano? Buongiorno, innanzitutto ben trovate, ben trovate a tutti voi, grazie perché è splendido essere qui, ne discutevamo prima con questa atmosfera di condivisione, di cultura e di sapere. Noi parliamo di intelligenza artificiale continuamente. Noi, come Ordini di Avvocati di Milano, abbiamo cercato di farlo anche grazie alla partnership con il Sole 24 Ore in modo un po' diverso, cercando di analizzare il contesto, lo scenario di fondo e avere l'idea precisa di cosa pensano i avvocati e le avvocate sul tema e soprattutto sull'impatto che l'intelligenza artificiale sta avendo nella professione. È il secondo anno che portiamo avanti questa survey con il Sole e ha fornito dei dati confortanti, nel senso che i professionisti e gli avvocati in particolare sono consapevoli di un impatto molto forte delle sistemi di intelligenza artificiale generative sulla professione. Ormai circa l'80% dei colleghi e delle colleghe è convinto che l'intelligenza artificiale sta incidendo e non poco e lo farà sempre di più in futuro sulla attività professionale. Questo in sé non è né un bene né un male, nel senso che l'intelligenza artificiale, come ogni nuova tecnologia, è uno strumento e quindi lo strumento è efficace nella misura in cui viene utilizzato in maniera consapevole. È confortante leggere due dati. Il primo è che c'è stato un balzo in avanti di ottimismo, di positività, nel senso che ormai oltre il 60% dei colleghi è convinto che l'intelligenza artificiale abbia un effetto positivo sulla professione, il che non è scontato. Perché spesso in determinati ambienti le nuove tecnologie sono viste come qualcosa che può deprivare per certi aspetti l'umanità della professione e quindi questo scatto culturale ritengo sia assolutamente fondamentale. L'altro dato è che ormai oltre il 75% dei giovani avvocati utilizza i sistemi di intelligenza artificiale in maniera ampia e in maniera consapevole. Questo è un altro dato fondamentale perché il presidio delle giovani generazioni sui strumenti di intelligenza artificiale sarà sempre più centrale. Io credo, ma avremo modo di dirlo penso anche dopo, la vera scommessa, la vera sfida che noi abbiamo di fronte come professionisti, e mi allargo chiaramente anche oltre il campo dell'avvocatura, è quello per cui dobbiamo mantenere un equilibrio fortissimo fra un uso coscienzioso dello strumento e la capacità però di mantenere il pensiero critico. Tra l'altro, proprio nella ricerca, uno degli aspetti su cui è stata un'interrogazione è il fatto della formazione, dell'importanza della formazione per cercare di avere un utilizzo consapevole e critico rispetto all'intelligenza artificiale. La seconda questione secondo me è molto interessante, che l'intelligenza artificiale non è semplicemente uno strumento utilizzato dai giovani per fare ricerche giuridiche, per fare ricerche giurisprudenziali, per fare pareri, anche per preparare degli atti, o comunque come strumento di supporto per la preparazione degli atti, ma anche gli avvocati di mezz'età si sono avvicinati all'intelligenza artificiale, l'ha utilizzato. Un'ultima questione è, non è solo un'affare di grandi studi, ma anche nei piccoli studi c'è l'utilizzo e lo sfruttamento di questo supporto. Quindi, diciamo che davvero rispetto allo scorso anno si nota come è un po' cambiato il mondo rispetto all'intelligenza artificiale. Allora, vorrei un pochino cercare di partire da quello che è il contesto giuridico. Naturalmente tutti sappiamo che l'Unione Europea ha regolamentato, c'è tutto un dibattito sul fatto se l'Unione Europea abbia regolamentato bene e male, se la regolamentazione dell'Unione Europea in generale sia un po' costrittiva rispetto ai possibili sviluppi dell'intelligenza artificiale. C'è un disegno di legge che è in corso di esame in Parlamento che si innesta rispetto alla regolamentazione europea e parla direttamente di come l'intelligenza artificiale deve essere utilizzata negli studi. Grazie, anche da parte mia e innanzitutto grazie per questo rinnovato invito che mi fa moltissimo piacere in questa sede così prestigiosa e interessante. Allora, il contesto normativo. Certamente l'Unione Europea con l'EIACT si occupa anche dell'intelligenza artificiale nei nostri studi e lo fa fondamentalmente considerando e raccomandando di considerare l'intelligenza artificiale come uno strumento, quindi come un mezzo da utilizzare per fare il proprio lavoro, fare il proprio lavoro di avvocati, di professionisti ma anche di giudici. Perché l'EIACT tocca anche gli aspetti che riguardano la decisione giudiziaria. Allo stesso fa il disegno di legge italiano sull'intelligenza artificiale che sta per essere approvato, dovrebbe essere approvato nel mese di giugno e sottolinea ancora una volta che l'intelligenza artificiale deve essere uno strumento. Quale sarebbe l'alternativa? Che l'intelligenza artificiale prendesse le decisioni al posto della persona umana e quindi come giudice scrivesse direttamente delle sentenze e come avvocato scrivesse direttamente degli atti, senza il controllo e la supervisione da parte della persona umana. Ecco questa è la raccomandazione più forte che ci viene da questi atti, anzi l'indicazione normativa più forte, insieme a quella relativa all'importanza della formazione, della cultura dell'intelligenza artificiale, la cosiddetta AI Literacy, no? Quindi formare le persone che lavorano con l'intelligenza artificiale sui limiti di questo strumento. Oggi noi la utilizziamo nei nostri studi, l'intelligenza artificiale in gran parte come è stato detto e sicuramente l'utilizzo dell'intelligenza artificiale comporta dei vantaggi evidenti. Una bozza di atto viene scritta in pochi minuti, in tre minuti, quando naturalmente per scrivere un atto normalmente occorre più tempo anche da chi sia già rodato in questa materia. La rassegna giurisprudenziale viene effettuata in pochissimo tempo e quindi dal punto di vista della velocità i vantaggi sono enormi, però ci sono dei grandi limiti. Allo stato attuale gli atti che vengono prodotti dall'intelligenza artificiale possono essere soltanto considerati delle bozze su cui lavorare, perché poi ci devono essere effettuati molti aggiustamenti e anche molte verifiche. Nelle rassegne di giurisprudenza non soltanto non è garantita la completezza, ma spesso, come abbiamo visto anche recentemente, vengono inserite le cosiddette allucinazioni, quindi decisioni non vere, decisioni false che sono inserite attualmente dai sistemi. Che succede se scappa l'errore? Quale è la responsabilità del professionista? Vende dal contesto nel quale ci muoviamo, naturalmente. Se è l'avvocato che, diciamo così, produce un atto errato, è chiaro che ne risponde. Faccio un esempio banale. Se un praticante nel mio studio scrivesse una bozza di atto e io non la controllassi e mi limitassi a firmare e ci fossero degli errori, è chiaro che ne risponderei io e non soltanto il praticante nei miei confronti. Quello stesso accade con l'intelligenza artificiale che è uno strumento al pari di altri e quindi deve essere controllata. Cosa succede se l'atto arriva in giudizio con quell'errore? L'errore magari è una decisione che non esiste. Sono casi che abbiamo visto prima negli Stati Uniti e poi recentemente con una decisione di Firenze che è stata ampiamente commentata. Che cosa succede? Questo dipende ovviamente dal giudice. Negli Stati Uniti quello che è successo è che gli avvocati sono stati ritenuti responsabili, si sono scusati sia con i giudici a cui era stata attribuita la sentenza non esistente, perché ovviamente ogni sentenza deve avere un giudice che l'ha scritta e quindi la sentenza in esistenza prevedeva anche un relatore che in realtà non l'aveva scritta. Quindi sono stati obbligati a scusarsi e sono stati sanzionati. La decisione di Firenze non è andata in questa direzione. La controparte aveva richiesto un aggravio delle spese processuali utilizzando la norma sulla lite temeraria, ma il giudice ha deciso di non applicarla, in quel caso si è ritenuto sostanzialmente che si trattasse di un falso innocuo e quindi non ha sanzionato. Avrebbe potuto utilizzare il giudice a altre disposizioni, per esempio informare gli ordini professionali per attivare le eventuali sanzioni dal punto di vista deontologico che forse in questo caso sarebbero state opportune. È un problema ancora in gran parte di cultura, cioè ci troviamo all'inizio di un percorso, quello dell'utilizzo di una nuova tecnologia nei confronti del quale non siamo del tutto preparati. La cosa peggiore sarebbe rifiutarlo, il che equivarrebbe ad avere rifiutato per esempio internet vent'anni fa, oggi che ci sembra cosa assolutamente impossibile e anche risibile. Quindi dobbiamo accettare, dobbiamo sperimentare con la prudenza necessaria, con le cauteline necessarie che passano sicuramente per la responsabilizzazione del professionista, la supervisione e un'attività di formazione e di acculturamento che è in questo settore importantissimo. Tra l'altro appunto in questo campo il ruolo degli ordini è davvero un ruolo di primaria importanza. L'altro elemento a cui volevo richiamarla professoressa è questo, cioè che cosa deve fare il professionista che utilizza l'intelligenza artificiale rispetto al cliente. Allora anche qui dipende dalle prospettive, molti ordini professionali anche fuori dall'Italia, in Italia non devo parlarne io, cioè il Presidente ne parlerà, il Presidente dell'ordine di Milano, ma insomma non soltanto in Italia, prima in altri paesi, gli ordini hanno dato delle indicazioni, delle linee guida, hanno sviluppato delle policy e sono diverse queste policy che usano in comune. Informare il cliente dell'utilizzo dell'intelligenza artificiale, quindi trasparenza, in alcuni casi nel mondo si è previsto il consenso del cliente all'utilizzo dell'intelligenza artificiale, in alcuni casi si è previsto, e questo vi farà sorridere, addirittura uno sconto sulla percella se il cliente autorizza l'utilizzo dell'intelligenza artificiale, perché si suppone che ci sia meno lavoro per il professionista. In realtà non so se sarà così, perché all'inizio noi dobbiamo controllare, comunque in ogni caso ci sono indicazioni diverse da parte dei vari ordini. Che cosa deve fare l'avvocato? Deve assicurarsi nel rapporto con il cliente che i dati che possono, ovviamente visto il contesto, essere dati delicatissimi e riservatissimi, le informazioni che fornisce il cliente non siano oggetto di elaborazione per addestramento da parte del software dell'intelligenza artificiale, cioè un conto che se rimangono nel dominio dell'avvocato evidentemente, sempre che il cliente riveli tutto, perché molto spesso il cliente omette di fornire tutte le informazioni agli avvocati, ma questo è un altro problema, deve controllare che le informazioni che vengono immesse nel software non siano dallo stesso poi utilizzate per addestramento, perché nel caso in cui fossero utilizzate per addestramento ci potrebbe essere il rischio che diventassero il dominio pubblico. Pensate a una controversia in materia di proprietà intellettuale, in materia di brevetti, in materia di know-how, le informazioni magari di cui si discute sono proprio informazioni che non devono andare nella sfera pubblica e quindi bisogna proteggerle. Ci potrebbe essere un problema ovviamente di privacy rispetto alle stesse informazioni, quindi ancora una volta informativa al cliente ma soprattutto tutela del cliente rispetto all'utilizzo delle informazioni per eventuale addestramento. E poi naturalmente ci sono le solite technicalities che siamo abituati a vedere con la privacy, quindi chi è responsabile, chi è il titolare del trattamento e così via, e in quello che sto vedendo in questo periodo sta succedendo di nuovo quello che era successo qualche anno fa con il cloud, cioè che formalmente il fornitore di intelligenza artificiale viene designato responsabile del trattamento dei dati personali, laddove il titolare sarebbe il professionista. Ma questa è una fixio evidentemente perché quale avvocato per quanto di un grandissimo studio internazionale è in grado effettivamente di esercitare un controllo specifico su un fornitore come OpenAI, piuttosto che Microsoft o Google. Si tratta della fixo che abbiamo visto sul cloud e che rivediamo anche in questo caso. Ritorneremo su questi aspetti. Presidente Bino, lei tra l'altro fa parte del tavolo governativo che in qualche modo sta cercando di costruire, di tessere la tela intorno all'intelligenza artificiale, cercando di valorizzare e di, nello stesso tempo, di evitare un utilizzo ingenuo e indiscriminato che lasci la porta aperta alle allucinazioni e ai bias. Che cosa state facendo come tavolo tecnico? Innanzitutto ringrazio anche io per il rinnovato invito. Mi fa molto piacere essere qui a discutere di un tema che mi affascina e quindi se capita non perdo occasione di parlarne. Tra l'altro, voi come Notai, siete un po' i cultori dei dati puliti. Quindi, diciamo, davvero su questa parte... Credo che sia una delle ragioni per cui siamo stati invitati al tavolo governativo a discutere del tema. Partirei dai dati della Sarvee subito per dire, ma chi potrebbe pensare di non usare l'intelligenza artificiale? Cioè, detto che è ovvio che siano in crescita. Mi sembra la situazione del professionista che si trova un giorno a fare un colloquio con un praticante bravissimo, e dicendo, questo però non lo prendo perché forse poi non lo controllo. Ma è il modo di muoversi di uno sconsiderato professionista. C'ho questo praticante che è bravissimo, fa in fretta e ricerca a fondo e esce con dei prodotti, che stavano pure da controllare, ma esce con dei prodotti assolutamente attendibili. E beh, lo prendo subito. Ed è esattamente quello che io credo che qualunque professionista a Senato faccia con riferimento all'intelligenza artificiale. Perché anche su questo tema, e io credo che i due interventi che mi hanno preceduto, quello della professoressa per certi aspetti in particolare, hanno messo sul piatto quanti problemi si pongono e quante sfaccettature ci sono. Però con la consapevolezza che i problemi ci sono, l'ha detto prima la professoressa riferendosi a quella sentenza che ha fatto tanto parlare. Di nuovo ritorno all'esempio del praticante. Ma se io affido un compito a un praticante e il praticante mi propone una bozza, io ho due alternative. O mi fido ciecamente di quel praticante e io mando avanti quella bozza perché so che mi posso fidare. Oppure non mi fido e la controllo. Ovviamente mi assumo tutte le responsabilità, sia in un caso che nell'altro. Ma quando ho deciso di fidarmi, a quel punto la bozza la mando avanti e nel momento in cui mi sono fidato, quella bozza potrà portarmi a delle conseguenze che sono quelle che nel nostro caso sono accadute. Ma la prospettiva del giudice che giudica in modo diverso perché proveniva quella bozza dell'intelligenza artificiale anziché da un bravo praticante, io francamente non la capisco. Perché alla fine il risultato è quello. È uscito un qualche cosa che conteneva dei dati inventati. È chiaro, forse il praticante non avrebbe inventato i dati, però li poteva sbagliare. Ma non è così diverso nella elaborazione concreta e nel sottoporsi al giudizio. Allora, cosa facciamo nel tavolo tecnico? Proviamo a dare dei contenuti normativi portando degli spunti di riflessione. Qui anche spesso discutiamo proprio di questo aspetto al tavolo tecnico. Noi pensiamo, pensiamo, pensiamo, pensiamo e intanto il mondo va avanti. Ma noi pensiamo e il mondo va avanti. Noi pensiamo e il mondo va avanti. A un certo punto usciamo con una norma che è storia del diritto. Perché nel frattempo lo scenario è completamente cambiato. Io credo che tutti siamo consapevoli del fatto che il mondo è diviso in una serie di blocchi. Non lo intendo da punto di vista politico in questo momento, ma mi riferisco proprio all'intelligenza artificiale. C'è un blocco che è l'Europa, che sostanzialmente non produce nulla, ma che norma, con i tempi che richiede un'elaborazione normativa consapevole. C'è un blocco che diciamo sono gli Stati Uniti, che produce e prova, adesso fino a qualche mese fa provava a normare, poi adesso normare non serve più, neanche gli Stati Uniti sono andati oltre. E poi c'è un blocco che è la Cina di cui nessuno sa nulla. Che cosa succeda in Cina non lo sappiamo. Siamo sicuri che stanno andando avanti però e molto rapidamente. Allora, dov'è che ha un senso normare? Perché io sono convinto che normare la ricerca è inutile. La ricerca fa il suo mestiere, ricerca e va avanti. E se vogliamo provare a fermare la ricerca tanto saremo sempre in ritardo. Ogni tanto faccio l'esempio del doping e dell'antidoping. L'antidoping insegue il doping. C'è qualcuno che studia il modo per imbrogliare nello sport e c'è qualcuno che cerca di evitare che si possa essere imbrogliati. Ma chi vuole imbrogliare va avanti e tu che vuoi evitare di essere imbrogliato provi a fermare l'imbroglio. La stessa cosa succede qui. Chi vuole ricercare? Ricerca. Io non è che posso mettere un freno alla ricerca. Questo non lo puoi fare. Cos'è che posso provare a fare? Mettere un freno all'utilizzo della ricerca. Questo sì. Qui posso provarci. Però se ci voglio provare ci devo provare rapidamente. Perché devo avere gli strumenti per modificare quello che a mano a mano sto normando molto rapidamente. Mi sembra di capire dalle parole del presidente Bino che occorra normare l'utilizzo della ricerca con quegli strumenti che si dicono di soft law. Quindi strumenti rapidi fatti dai parti sociali, fatti dai corpi intermedi che in qualche modo sono un po' le sentinelle rispetto all'utilizzo di questi strumenti. E così, presidente? E' sicuramente così, però con la consapevolezza di avere quell'apertura mentale che ti consente di capire se e quando farlo. Perché noi, voi lo sapete bene, siamo appena usciti con i nostri nuovi principi di deontologia. Sono proprio di qualche mese fa. Abbiamo elaborato un nuovo, in realtà non abbiamo voluto chiamare codice, comunque i nuovi principi di deontologia che erano fermi al 2008, quindi 17 anni fa. Abbiamo lavorato quasi due anni su questi principi e da ultimo abbiamo analizzato una norma che la nostra commissione deontologica aveva predisposto sull'utilizzo dell'intelligenza artificiale nella nostra professione. Ne abbiamo discusso su quella norma per quasi un mese e alla fine abbiamo deciso di non introdurla per il momento. Perché? Perché la certezza che i limiti che avremmo provato imporre dal punto di vista deontologico, perché di deontologia parliamo sull'utilizzo dell'intelligenza artificiale, potessero essere immediatamente obsoleti. Per cui abbiamo detto, proviamo a vedere cosa succede nel mondo e come viene utilizzata anche dalle altre professioni. Noi che siamo, come giustamente stavi dicendo, i garanti della certezza dei dati, della fiducia, della terzietà, tutta una serie di valori che fondono un po' il nostro stato di diritto. Però ci siamo sentiti di dover aspettare, e concludo prima di non rubare troppo tempo, anche perché io credo che la professoressa in particolare sia ben consapevole di questo. Quando parliamo dell'intelligenza artificiale, e spesso ne parliamo tutti un po' a sproposito perché stiamo studiando, stiamo cercando di capire, per me una è l'intelligenza artificiale, che è quella generativa. Quella è la vera intelligenza artificiale. Il resto sono approfondimenti di un'intelligenza che amiamo la cognitiva. A me è capitato in una scuola che un bambino mi chiede se ho un notaio. Mi chiede scusi, mi chiamava professore, anche Maria Carla stava sbagliandosi. Mi dice scusi professore, ma la calcolatrice è intelligenza artificiale? Perché un bambino la vede così? Usa una macchina per avere un risultato perché è artificiale di sicuro, un risultato lo dà, che poi si è intelligente. Presidente Lallumia, l'Ordine di Milano ha scelto invece, mi sembra, una strada un po' diversa da quella del notariato. Non è una questione di contrapposizione, ma voi avete in qualche modo... Intanto avete studiato che cosa stava accadendo, attraverso la survey, non avete fatto solo la survey, perché voi avete fatto tutto un ciclo molto rilevante di formazione rispetto ai vostri iscritti, rispetto agli avvocati. E' stata un'informazione non accademica, ma molto pratica. Quindi anche dibattendo sulle cose che si potevano fare, non si potevano fare, come si potevano fare. E l'altra cosa che voi avete fatto è stato quello di definire, non al termine di questo percorso, perché il percorso continua, ma in mezzo a questo percorso avete iniziato a mettere dei paletti. Allora, innanzitutto, sono molto d'accordo con il presidente Bino, anzi, devo dire che è esposo in pieno quello che ha detto sulla necessità di non rincorrere necessariamente e faticosamente i fenomeni che proseguono e si moltiplicano giornalmente. C'è sempre un po' una favoletta che chiarisce un po' il senso dei blocchi che diceva il presidente Bino. Normalmente si dice che gli Stati Uniti inventano la Cina copia e l'Europa regolamenta. Il problema è che in questo caso la Cina sta incominciando a inventare pure, come dice il presidente, non lo sappiamo. E questo è un problema importante. L'Europa sicuramente da questo punto di vista è un po' indietro, ne parlavamo proprio ieri sera con alcuni colleghi, perché mancano probabilmente quegli investimenti forti sulla tecnologia e sulla ricerca che invece in altre aree del mondo ci sono. E questo temo che farà la differenza nei prossimi anni in maniera essenziale. Noi come Ordinari Avvocati di Milano abbiamo cercato di fare un percorso di crescita. Siamo partiti tre anni fa, abbiamo fatto un'attività profonda di formazione delle competenze dei colleghi e delle colleghe. Lo abbiamo fatto chiaramente non sulla base dei principi generali che servono, ma sulla base di applicazione pratica dei sistemi di intelligenza artificiale nella professione. Abbiamo messo proprio, come amo dire, i colleghi a sporcarsi i neuroni con gli algoritmi, perché li abbiamo messi a lavorare accanto a tecnici informatici, accanto a ingegneri, accanto ad esperti proprio di sistemi, ad utilizzare dei sistemi che abbiamo acquisito in licenza per capire come si può svolgere la professione in determinati ambiti attraverso i sistemi di intelligenza artificiale. L'avete fatto anche in collaborazione con l'Università Statale? Lo stiamo facendo anche in collaborazione con l'Università Statale e con qualunque istituzione che voglia mettere a disposizione le proprie competenze e il proprio sapere per l'avvocatura, ma in realtà per una crescita generalizzata e ampia del sistema di cultura dell'intelligenza artificiale. Questo ha creato, devo dire, un volano molto importante anche di scambio delle esperienze, perché questa sperimentazione che noi abbiamo fatto sul campo, che è la prima a livello nazionale in ambito forense, ha dato risultati importanti, che sono stati poi trasfusi in due pubblicazioni, un'anno scorso e un'anno quest'anno, che ha visto la luce proprio nelle settimane scorse, dove andiamo ad analizzare i fenomeni dal punto di vista dell'evoluzione tecnologica, ma anche dal punto di vista normativo. In più abbiamo voluto fare il passaggio, che ricordava lei, sui principi, sulla necessità di dare dei parametri di riferimento. Ecco, io come Presidente ho cercato di portare una filosofia un po' innovativa anche all'interno dell'avvocatura, cioè ho detto, noi non dobbiamo imbriare le competenze, non dobbiamo imbriare la possibilità di far evolvere la professione, ma dobbiamo comunque dare degli indicatori di riferimento, dei parametri. Abbiamo elaborato un decalogo, una carta di principi guida, che abbiamo voluto chiamare in maniera un po' iconica, oros, dal greco confine, per cercare di dare un po' di contenimento ad un fenomeno che altrimenti rischia sì di espandersi in maniera incontrollata, anche credo che oggi un'applicazione di determinati parametri di etica professionale nell'uso dell'intelligenza artificiale sia fondamentale, il che non significa dire all'avvocato non usare l'intelligenza artificiale, tutt'altro significa all'avvocato dire usa pure l'intelligenza artificiale che costituisce fattore di crescita della tua professione, ma fallo consapevolmente. Non è un caso che il primo principio, quello fondamentale, diventa quello della competenza, perché oggi essere competenti anche in ambito tecnologico diventa fondamentale per poter esercitare nel mio modo possibile la professione, anche perché noi che maneggiamo diritti, scusate l'espressione molto prosaica, però noi che maneggiamo diritti abbiamo credo un ruolo ancora più importante, perché ci passano fatti molto importanti, perché ci passano fra le mani le vite delle persone e quindi quando ti trovi a doverti fare carico di pensieri, di esperienze, di situazioni di altri devi stare ancora più attento. E in più se posso aggiungere il tema del controllo. Il tema del controllo è fondamentale proprio perché abbiamo in mano i dati delle persone. Siccome il dato è diventato ormai il petrolio dei nostri anni, quello che fa le fortune o le sfortune del mondo, chi gestisce il dato oggi gestisce la vita delle persone e gestisce anche una quantità enorme di incassi, ecco in questi casi temi come la cyber sicurezza, per esempio, oltre che la privacy, chiaramente che ormai pervade tutte le nostre attività, diventa centrale. Ultimissimo aspetto, la trasparenza nei confronti del cliente. Quello è fondamentale, l'abbiamo messo in maniera molto chiara fra i nostri principi, perché non c'è nulla di sconvolgente nell'utilizzare l'intelligenza artificiale, anzi chiunque di noi utilizza strumenti che sono servanti e cooperativi rispetto all'attività professionale, nessuno si è mai scandalizzato. D'altronde siamo passati dalla penne, dal calamai, al computer, ai tablet e smartphone e nessuno ha avuto mai da ridire, è l'evoluzione del mondo. Però sicuramente avere la capacità di presidiare, ecco, quello sì, sono molto d'accordo su questo tema. Come è stata accolta questa vostra azione nell'ambito delle altre istituzioni forense, nell'ambito degli altri ordini? C'è un grande interesse, già c'è uno scambio molto forte, sia con il Consiglio nazionale che con gli altri ordini territoriali. Ovviamente io con una punta di orgoglio dico che Milano ha buttato il cuore oltre l'ostacolo e quindi ha cercato di prevenire un po' queste esigenze, però come mi piace dire il nostro è un terreno di cultura che mettiamo volentieri a disposizione di tutti per farlo diventare patrimonio comune. Qualcuno doveva iniziare, noi a Milano siamo soliti, lo dico da Palermitano di nascita, fare e cerchiamo di fare bene e quindi da questo punto di vista credo che sia veramente un valore aggiunto. Ecco, non voglio scadere nella regolamentazione fine a se stessa, però credo che in un mare così ampio come quello dell'intelligenza artificiale ogni tanto qualche boa alla quale aggrapparsi serva. Bene, allora tra i principi definiti dall'ordine di Milano ce ne sono due su cui vorrei ritornare con la professoressa Finocchiaro. Allora uno è quello di avere un occhio di riguardo, se posso esprimermi così, rispetto alla privacy. Lei questo tema lo ha già trattato prima ma quali sono le implicazioni rispetto all'intelligenza artificiale e quali sono esplicitando ancora di più il discorso di prima tutti i vari aspetti di cui l'avvocato deve tenere conto. Allora l'intelligenza artificiale è esplosa nel periodo più recente da due anni a questa parte perché ci sono grandi giacimenti di dati a cui può attingere. La tecnologia in realtà non è nuovissima, se ne parlava già negli anni 50, ma negli anni 50 queste miniere di dati forniti consapevolmente o inconsapevolmente non erano disponibili. Questa è una storia molto interessante su l'intelligenza artificiale che cresce e si ferma in corrispondenza dei finanziamenti e dei programmi di investimento nell'università. E quindi... Certo, questo è un ulteriore tema, diciamo così, sul quale... È una storia molto interessante questa. Sì, assolutamente. Quindi tornando al discorso della crescita e anche, come diceva Maria Carla prima, degli eventuali stop alla crescita per mancanze di informazioni, partiamo dall'assunto che le informazioni e i dati sono fondamentali. Vi faccio un esempio che va al di fuori del tema della privacy e della riservatezza per addestrare l'intelligenza artificiale sulla lingua italiana. Ci sono alcuni provider che stanno cercando di comprare interi cataloghi dagli editori italiani. Perché quale metodo migliore che è, come dire, passare a setaccio volumi e volumi scritti in lingua italiana per addestrare sulla lingua italiana? Speriamo che non li allenino troppo sui testi normativi. Oh, adesso no, non ci capisce più. Hai senso. Quanto meno sugli ultimi testi normativi, sì. Forse magari su quelli di qualche tempo fa sarebbe diverso. Comunque, il tema è il bisogno di dati. Va bilanciato rispetto alle eventuali esigenze di protezione del cliente? Certamente sì. Nei software che vengono forniti adesso c'è sempre la riserva di utilizzare quei dati e quelle informazioni per addestramento. Per addestramento vuol dire che escono, senza nessuna valutazione di merito, escono dal dominio dell'avvocato, escono dal controllo dell'avvocato e ancora di più dal controllo del cliente dell'assistito. Quindi in questa fase storica secondo me deve essere evitato e quindi l'eventuale addestramento deve passare per la anonimizzazione di quei dati, di modo che non siano riconducibili al cliente dell'assistito dal quale provengono. E questa è una prima importante cautela. Poi c'è l'aspetto informativo, dicevamo prima, il cliente deve essere informato dell'utilizzo che si fa in studio dell'intelligenza artificiale e c'è poi tutto il profilo della sicurezza, cioè mantenere i dati al sicuro. Ultimamente la nostra normativa si è concentrata sempre di più sulla sicurezza. Abbiamo moltissime disposizioni in tema di cyber security, da Nissa, Dora, a molte altre, che hanno l'obiettivo di proteggere i dati personali. Quindi per venire al dunque e rispondere alla domanda che mi è stata posta, quali sono le domande che si deve porre l'avvocato o il professionista che utilizzi l'intelligenza artificiale in studio sotto il profilo della protezione dei dati personali? Trasparenza, sicurezza, controllo dei dati e quindi escludere che i dati vengano utilizzati all'esterno, poi naturalmente tutto quello aggiornamento necessario del suo lavoro che si trasferisce nella documentazione che viene utilizzata e quindi per parlare di linguaggio della normativa sulla protezione dei dati personali, informativa, designazione a persona autorizzata aggiornata, designazione responsabile e così via, misure di sicurezza e così via. Questo è il percorso che si deve compiere. Quando è possibile, teniamo conto dell'opzione dell'anonimizzazione dei dati, torno su questo punto, non solo e non tanto per il lavoro che si fa all'interno dello studio, ma per il trasferimento successivo all'esterno, perché valorizzare anche questi dati, farli circolare, prevedere una crescita professionale collettiva sulla base di queste informazioni, è sicuramente un obiettivo sul quale si può lavorare, si può cercare di raggiungerlo, ma va bilanciato con l'esigenza di protezione e quindi uno dei sistemi è quello di anonimizzazione dei dati, così come potrebbe essere un altro dei sistemi, quello dell'utilizzo dei cosiddetti dati sintetici, cioè dei dati che non corrispondono direttamente, precisamente a una persona fisica, ma che sono stati elaborati, trattati per mantenere le stesse caratteristiche informative senza tuttavia che sia possibile riferirli a quella persona fisica. Quindi diciamo così, sono stati in qualche modo, perdonatemi l'espressione sicuramente non corretta, ma è solo per rendere l'idea, alterati mantenendo lo stesso contenuto informativo. Gli studi professionali, sia quelli più grandi, sia quelli più piccoli, mi sembra di capire da quello che dice lei, sempre più strutturati, perché occorre da un lato l'attenzione alle normative sulla privacy, e tra le volte non basta la competenza del professionista, ma ci vuole probabilmente anche la consulenza di un esperto in privacy, e poi c'è tutta la questione della cyber sicurezza. Il nostro lavoro è cambiato nell'ultimo periodo, questo è inutile neanche dirlo, è evidente a tutti, cioè la overregulation normativa ha portato inevitabilmente a un cambiamento di tipo organizzativo, e le tecnologie che utilizziamo sempre di più anche all'interno dei nostri studi stanno e hanno portato sempre di più a un cambiamento organizzativo. Il nostro lavoro è per certi aspetti velocizzato, non abbiamo bisogno di consultare i repertori in biblioteca, e di scrivere con la penna sulla carta, basta consultare le banche dati, basta consultare internet, oggi basta interrogare un sistema di intelligenza artificiale, pur supervisionando come abbiamo detto più volte, il nostro lavoro è cambiato, è velocizzato, però questo ha richiesto un'interno di tipo organizzativo. E' richiesto dall'altro lato la crescita di alcune competenze professionali, che possono anche essere in parte nello stesso professionista, quindi oltre a sapere di diritto dobbiamo sapere ovviamente di economia, dobbiamo sapere di informatica e di tecnologia, oppure possono essere competenze che negli studi più ampi si avvalgono di diversi professionisti. Certo che il nostro lavoro è completamente cambiato, strutturato come si è detto prima, più strutturato come si è detto prima, ma anche di livello diverso, perché cambia l'approccio che noi dobbiamo avere al caso, al di là dell'aspetto relazionale umano che a mio avviso è sempre fondamentale. Ed è quello che veramente caratterizza l'approccio del professionista, cioè comprendere il caso, comprendere il cliente, impostare la strategia, tutto questo è al momento ancora nel dominio e nella capacità di relazione strettamente umana. Ma una volta fatto tutto questo, lo sviluppo e l'attuazione della strategia e la sua applicazione concreta, questo può essere in parte delegato alla tecnologia. Quindi il nostro lavoro è indubbiamente cambiato, c'è chi prevede che in futuro una gran parte di lavoro sarà svolta esclusivamente dall'intelligenza artificiale e noi professionisti faremo solo la consulenza di livello più alto. Stiamo a vedere perché non è detto che poi queste previsioni siano sempre azzeccate, molte cose si vedono poi concretamente man mano che si sviluppano. Certo siamo messi alla prova. Presidente Bino, due considerazioni. La prima, il fatto che gli studi professionali stanno diventando sempre più organizzazioni complesse. Anche se magari, insomma, poi voi notai, insomma avete le associazioni notarili, ma le associazioni notarili sono delle organizzazioni che semplicemente servono per mettere in comune dei costi. Poi il notaio è il notaio, il pubblico ufficiale è il pubblico ufficiale. Quindi gli studi stanno diventando sempre più organizzazioni complesse. L'altra questione su cui volevo richiamare la sua attenzione, volevo sollecitarla, è il fatto di come il professionista, e soprattutto il jurista, sia in qualche modo abbia una responsabilità rispetto, ed è uscita un po' questo aspetto anche se forse non è stato ancora esploso, in questo dibattito abbia una funzione di tutela, cioè il fulcro è sempre la tutela dei diritti fondamentali. Perché poi, diciamo, tutta la nostra regolamentazione europea e italiana è basata, diciamo, sul presupposto che i diritti fondamentali vanno tutelati anche rispetto all'intelligenza artificiale e all'uso dell'intelligenza artificiale. Questo è sicuro, e tra l'altro prima la professoressa involontariamente ha tracciato il retrato del notaio, trasparenza, sicurezza, controllo dei dati. Non tanto involontariamente. Questo è quello che il notaio garantisce tutti i giorni, che utilizzi o non utilizzi l'intelligenza artificiale. Ed è vero che in un sistema complesso tutto questo è più articolato e sta profondamente cambiando, ma è anche vero che a me spesso accade, al termine di una giornata, di chiedermi per quanto tempo, in quelle 8, 10, 12, 14 ore che sono stati in studio, io ho fatto il notaio. Perché di fatto molto spesso faccio di tutto meno che il notaio. Allora ben venga la possibilità che l'intelligenza artificiale mi consenta di svolgere l'attività di consulenza complessa, perché tutto il resto in qualche modo sono riuscito a delegarlo. Perché in realtà ci proviamo anche oggi, e ritorno all'esempio di prima, dell'impiegato e dell'impiegata praticante o la praticante. È esattamente la stessa cosa. Provi a delegare quelle funzioni che ritieni che possono essere svolte da qualcuno che non ha la tua professionalità o che si sta formando la tua professionalità. E tieni per te quello che ritieni che in qualche modo non sia delegabile, che è quello che dovremmo riuscire a praticare, garantendo i diritti fondamentali proprio con l'utilizzo dell'intelligenza artificiale. Il punto è quando e se quel limite corriamo a rischio che possa essere travalicato. Perché uno degli esempi che viene più spesso praticato con riferimento all'utilizzo dell'intelligenza artificiale nel diritto è ovviamente riferito all'operato del giudice. L'operato nostro è quella produzione di atti giudice decide. In campo civile, bene o male, alla fine tutela certi diritti, in campo penale ne tutela altri che sono valori, visto che parlavi di tutela di diritti, valori fondamentali. Ma a me piacerebbe fare una domanda a tutti loro. Ma voi siete davvero sicuri che in certe situazioni non possa essere meglio essere giudicati da una macchina che da un essere umano? Perché io qualche dubbio ce l'ho, per lo meno su quelle vertenze bagatellari, avere la possibilità che una macchina vada ad esaminarmi milioni di dati rispetto al numero estremamente più limitato che può controllarmi un giudice. E faccio un esempio, purtroppo qui in Italia ci spostiamo spesso sul versante calcistico e lo faccio. Nelle partite abbiamo delegato una serie di valutazioni al VAR e di nessuno mette in discussione, ogni tanto c'è qualche romantico che dice che bello Platini, che diceva che bello quando l'arbitro sbagliava. Però normalmente siamo tutti contenti che la scelta di un fuorigioco, di un rivuore sia demandata a una macchina, perché è inequivocabile. Poi oggi c'è ancora la supervisione della TERMA che dice lo valuto, si vuole abolire anche quella e lì lo accettiamo. E quelli che invece sostengono che assolutamente nel giudizio questo non può accadere però accettano il VAR sul campo di caccia. Risponda alla domanda, inizi lei. Il notario Bino ha lanciato un tema terribile, terribile, è stato Gian Burrasca. Dire che il tema è scivoloso è poco, nel senso che si parte in questo modo e poi si pervade tutta la giustizia. C'è chi auspica un tipo di evoluzione di questo tipo? Io dico attenzione perché quando si valutano i diritti, a prescindere che si tratti di piccoli diritti, se passate l'espressione un po' brutale, rispetto a diritti più ampi bisogna sempre fare molta attenzione. L'avvocatura in generale è contraria in maniera netta rispetto a qualsiasi forma di giustizia predittiva. Questo è un dato assodato. Non a caso il DDL, l'intelligenza artificiale, che peraltro è già passato al vaio del Senato e ora passerà a quello della Camera, prevede proprio che la decisione spetti sempre al magistrato e che l'intelligenza artificiale sia strumento servente di supporto rispetto all'attività del magistrato. Poi posso anche comprendere che magari la causa relativa alla multa o relativa a che cosa altro possa beneficiare di un sistema automatizzato. Però attenzione perché veramente in questo caso ci vogliono i confini, i parametri, e io che sono sempre uno che va oltre qualsiasi tipo di steccato, in una situazione del genere quando trattiamo di diritti sempre la massima attenzione per fare scattare sempre gli alert perché altrimenti se non la deriva è molto semplice. Allora naturalmente Bino ha lanciato una provocazione sapendo di lanciarla e naturalmente bisogna poi fare riferimento, due considerazioni volevo fare. Da un lato bisogna sapere che cosa c'è dentro l'algoritmo e come è costruito l'algoritmo. E l'altra questione rispetto all'algoritmo come supporto del giudice. C'è qualcuno che dice ma noi non sappiamo se poi il giudice effettivamente lo usi come supporto oppure deleghi la decisione. Però anche lì, pure i giudici avranno bisogno di una regolamentazione al loro interno così come hanno fatto gli avvocati. Prego professoressa Finochiano. Sì, allora sulla provocazione del Presidente. È un po' strano che un ottaio utilizzi questo tipo di provocazione. Poi gli chiederemo il perché. Io penso che quando l'intelligenza artificiale sostanzialmente è assimilabile a un sistema di machine learning, cioè sostanzialmente esame di dati e di fatti, possa essere sicuramente non soltanto un ausilio per il giudice, ma in alcuni casi possa portare anche alle decisioni. I limiti che vedo sono con riferimento a due aspetti. La considerazione del contesto alla decisione e l'apertura sul futuro. Lo stesso fatto contestualizzato diversamente può portare decisioni diverse. E l'esame di tutti gli elementi della fattispecie possono non essere considerati dai sistemi di intelligenza artificiale, non perché li scartino, ma perché allo stato attuale non sono programmati nella gran parte dei casi per esaminare tutti gli elementi del contesto, che in alcuni casi sono anche difficili da individuare e da descrivere. Quindi l'importanza del contesto, il primo limite. Secondo limite, apertura sul futuro. Noi abbiamo visto in tanti casi la giudisprudenza cambiare a norma invariata. Ci sono i famosi revirmons giudisprudenziali. A testo invariato la stessa norma viene interpretata in maniera completamente diversa, perché è diverso, di nuovo, è il contesto economico-sociale di riferimento. Ecco, l'apertura sul futuro, ovviamente, in questo momento storico, i sistemi di intelligenza artificiale non possono averli. E quindi, diciamo, quella che è in positivo è la creatività giudisprudenziale, che è in negativo, può portare all'incertezza del diritto, ma anche in positivo, in questo momento noi potremmo non vederla. E sull'ultima domanda che ha posto la nostra moderatrice, la trasparenza degli algoritmi, abbiamo visto delle decisioni sbagliate dell'intelligenza artificiale. Ci sono molte decisioni di giudisprudenza amministrativa in cui si è giunti a decisioni errate. E lì è importante che ci sia la possibilità di re-intervenire. Giulio Bino ha la possibilità di replica rispetto a questa provocazione, così senza rete. La provocazione nasce dal fatto che il tema, secondo me, è affascinante e vale la pena provare a vederlo sotto sfaccettature anche provocatorie, perché la riflessione nasce proprio da quello. E concludo proprio con due riflessioni brevissime, perché vedo che il tempo... Uno è, giustamente il presidente della LUMIA parlava di intelligenza artificiale predittiva. Tutti i giorni la utilizziamo, perché nessuno di noi non guarda le previsioni del tempo. Quello è il classico utilizzo di intelligenza artificiale predittiva. E bene o male ci crediamo. Poi diciamo sempre che sono sbagliate, tranne che nella formula 1, dove sapete, ti dicono che pioverà fra tre minuti e 24 secondi e dopo tre minuti non si sa bene come mai lì la predittiva funzioni benissimo. Detto questo, sul termine e sulla provocazione della decisione, concludo con il grande enigma del carrello ferroviario che forse molti di voi conoscono, che è quello su cui io spessissimo miscervello quando parlo dell'intelligenza artificiale. Carrello ferroviario lanciato lungo un binario che non può essere arrestato, a un certo punto si pone un'alternativa. Comunque non può essere arrestato, tu, essere umano, lo puoi far girare a destra e investire un'anziana vecchia, donna malata, oppure lo puoi far girare a sinistra e investire tre giovani adolescenti. Che cosa fai? Non c'è dubbio. Quando sai di una vera alternativa. Poi ti vengono cambiati i termini del problema. L'anziana, signora malata è tua mamma e i tre giovani adolescenti hanno appena stuprato una bambina. Che cosa fai? Che cosa farebbe l'intelligenza artificiale? Io trovo questo quesito affascinantissimo. Non ho la più pallida idea di che cosa farei io. Soprattutto, per fortuna, non c'è in sala mia mamma perché, ovviamente, mi porrei il quesito anche con riferimento a mia mamma. Però credo che l'intelligenza artificiale comunque andrebbe verso l'anziana donna rispetto alla possibilità di recupero dei tre adolescenti. Io credo che su questo davvero dovremmo interrogarci in futuro. Bene. Io credo che il tempo purtroppo è finito. Credo che abbiamo dato un po' un saggio del ruolo delle professioni rispetto all'intelligenza artificiale. Perché le professioni, soprattutto le professioni legali, sono un po' a tutela dei diritti fondamentali. E questo, diciamo, in Europa, fortunatamente, è ancora un valuardo, un caposaldo. Nessuno probabilmente ha oggi una ricetta valida per il futuro sull'intelligenza artificiale, ma bisogna un po' procedere secondo quello che l'Unione Europea, insomma, in qualche modo ha tracciato, cioè il monitoraggio del rischio. Le professioni devono confrontarsi e probabilmente, insomma, il saggio che abbiamo fornito può essere utile. Privacy, e fortunatamente c'è la privacy perché, come dire, se non ci fosse stata la privacy non avremmo avuto dei parametri di difesa e poi la sicurezza dei dati. Grazie ai partecipanti a questo confronto, al presidente Antonino Lalumia, al presidente Giulio Bino e alla professoressa Gosella Finocchiaro. Grazie a tutti. Grazie a tutti. Grazie a tutti. Grazie a tutti. Grazie a tutti.
{{section.title}}
{{ item.title }}
{{ item.subtitle }}