Ai Act
Incorpora video
Ai Act
L'intelligenza artificiale (AI) è pervasiva e presenta grandi opportunità ma anche rischi. L'Europa, con l'AI Act, propone un approccio etico e rispettoso dei diritti fondamentali, puntando su sicurezza, trasparenza e certificazione dei prodotti AI. L'obiettivo è sviluppare un'AI "Made in Europe" affidabile e competitiva, in grado di attrarre talenti e investimenti. La regolamentazione non deve bloccare l'innovazione, ma guidarla attraverso la creazione di "sandbox" che permettano la sperimentazione in un ambiente controllato. Per garantire uno sviluppo equilibrato dell'AI, è fondamentale integrare competenze umanistiche nei team di ricerca, promuovendo un'AI che non si limiti ad eseguire algoritmi, ma sia in grado di "disobbedire" in situazioni complesse, agendo secondo principi etici.
Eccoci, eccoci, quindi buon pomeriggio come prima. Questa è l'occasione per parlare delle IAI Act un po' con concentrazione da punto di vista di chi lo ha fatto e delle persone che in qualche modo potrebbero interpretarlo per costruire intelligenza artificiale rispettosa dei diritti che evita le principali rischi di applicazione delle IAI che potrebbero verificarsi, compliant quindi con questa civiltà del digitale che l'Europa sta scrivendo, sta cercando di proporre ai suoi cittadini e al resto del mondo attraverso una policy complessiva che avete visto è stata declinata da una serie di interventi sulle piattaforme, sui mercati digitali e persino sulla libertà dei media, sui chip e che è culminata questa settimana mi sembra da pochissimi giorni, un paio di giorni definitivamente approvata per l'ultimo passaggio a Bruxelles. Le IAI Act è il centro di questo 45 minuti con Ferruccio Resta che è come sapete presidente del FBK e anche un certo numero di altre cose, Rita Cucchiara che insegna e fa ricerca sulle IAI a Modena, Università di Modena Reggio, Giorgio Metta che è il direttore dell'IIT, l'Italian Institute for Technology e Roberto Viola il direttore della DG Connect, direttore generale DG Connect che come alla commissione è insomma il cuore della scrittura e della realizzazione di questa policy che da un lato attraverso le IAI Act riguarda il contenimento dei rischi e la logica con la quale vogliamo sviluppare, dall'altra parte sempre la sua DG Connect occupa delle policy di sviluppo, di incentivazione, di costruzione delle infrastrutture che serviranno a abilitare lo sviluppo. Tutto questo è l'introduzione, l'occasione è il libro che Roberto Viola ha scritto con un giornalista che passava di lì e che si è seduto qui sulle IAI Act, edito dal sole 24 ore e che è il secondo di una collaborazione che si è sviluppata per cercare di raccontare quello che sta facendo l'Europa nel digitale. Ora, il punto è che la complessità di questa materia richiede un'immaginazione, un insieme di metafore, una partecipazione non soltanto razionale poi sulla nazionalità ne parleremo, ma anche narrativa al fenomeno e quindi ai nostri tre interlocutori di oggi, comincerei a chiedere come d'accordo, perché non è una sorpresa, salvo per resta che appunto non la sa, qual è il film che meglio descrive la situazione la quale ci troviamo di fronte alle IAI, film che ne parlano, ne sono venuti fuori parecchi. Quindi, siccome tu sei per ultimo, pensaci, intanto partirei da Rita che tra l'altro è la persona che devo rivelarvelo ha letto il libro nella sua interezza. Io l'ho letto anche Roberto pure, non tutti quanti l'hanno letto tutto. Intanto, grazie e a proposito del libro, faccio una piccola pubblicità. Quando si guardano quelle serie TV che adesso ci sono, io sono una di quelle che o non le guardo, ho salzato per vedermi tutte le 5-6 puntate perché non sopporto di vederle una a se. Quindi, visto che mi hanno sfidato, ieri avevo 4 ore di treno e queste sono quasi 7 puntate perché sono ognuna, una città, ho iniziato a leggere la prima, non potevo non arrivare fino alla fine, ho finito prima delle 2 di notte, vi giuro, però l'ho letto, quindi questa mi è anche piaciuta molto ma dopo magari ne parliamo. Però film, non vorrei bruciare i miei colleghi dicendo il film più famoso che è R di cui sapete tutti anche perché adesso ...vete tutti? R? Chi l'ha visto? Bene, però ne posso dire un altro che mi è venuto di vedere, grazie, il diavolo Veste Prada. Ah bello, questa è una sorpresa. E no, visto che ci sono delle donne qui, il diavolo Veste Prada, voi vi ricorderete la storia in cui lei fa la festa, non si ricorda il nome delle persone davanti e impone alle due povere segretarie di studiarsi a memoria i libri con tutti i volti per riconoscere e che devono suggerire di fianco a destra e sinistra il nome delle persone. Allora, un sistema come adesso esiste perché ci sono già e l'hanno fatto anche degli studenti, in cui tu puoi mettere un piccolo microfono, una piccola telecamerina e finalmente dire ma chi è quello? Si spetta che Paolo Traverso, che lo riconosco e lo posso salutare, è qualcosa che fa parte della tecnologia positiva, non ad alto rischio se questa è una festa che faccio a casa mia e quindi ho invitato delle persone che io so chi sono e sono molto contenta di non fare delle gaff nel momento in cui invento. Ma adesso non è solo per questo ovviamente, è per poter entrare a casa. Grande Rita, che tra l'altro tu studi proprio il riconoscimento delle immagini. Francamente mi sembra perfettamente adatto questa idea. In fondo, tra l'altro, appunto, smentisci una narrativa negativa che molti altri film hanno, non Her, non necessariamente. No, però secondo me queste tecnologie possono essere molto utili se poi chiaramente ovunque mentre vai per la strada c'è un sistema che sa tutto di te, magari questo in Europa proprio non lo vogliamo e per fortuna c'è l'AI Act, ma per altre cose, invece, assolutamente diventa positivissimo. Sono contenta che ci siano. Grazie. Giorgio, se vuoi dire Her puoi dirlo. Ne posso dire due? Perché ne ho uno serio, uno sul presente e uno sul futuro. Quello sul futuro sicuramente, voglio dare un'idea di un film positivo, L'uomo bicentenario, se non so se ve lo ricordate, dove il robot umanoide aiuta l'essere umano e lo fa in maniera senza fare grossi disastri. È un film dove, anche se arriva da Hollywood, non succede la rivoluzione dei robot. È una storia competente e positiva. Ci sono delle immagini molto belle dove l'essere umano fa delle cose dove, ad esempio, solleva un oggetto e il robot ne solleva uno molto più grande e molto più pesante. Secondo me, questo colpo è l'immagine che mi piace vedere di dove andrà la tecnologia, quindi qualcosa che ci aiuta, ci consente di fare meno fatica. Invece, secondo me, uno del presente, anche se Her è quello più vicino, però anche un al 9000 di 2001 di San Erospazio, secondo me, parla bene, molto razionale e convinto di dire sempre cose giuste, non è vero, è un po' come il cià CPT, se vogliamo immaginarlo, e percepisce male l'essere umano. È un sistema che non ha un corpo, è disembodied e questo poi gli gioca contro a un certo punto. Percepisce male l'essere umano, non lo capisce, non capisce i sentimenti e forse non capisce un po' il trucco che era stato costruito per... la missione non era stato detto esattamente quale fosse lo scopo della missione e quindi poi finisce un po' come finisce, però ad ogni modo... Queste persone sono troppo intelligenti, perché lui parla di intelligenza artificiale embodied perché fa i robot e quindi stiamo parlando, è troppo difficile, per me è soltanto da raccontare e da sottolineare, perché non abbiamo tanti microfoni, allora te lo ho portato io. Cominciavo a avere paura, loro si occupano di intelligenza artificiale quindi giustamente devono fare immagini e devono fare algoritmi, io sono F-M-M-A-A, la meccanica pura, quindi il film non ci resta che piangere Luca. Non ci resta che piangere per due motivi, il primo è perché il titolo un pochino è il sentimento che stiamo vivendo da questo punto di vista quando abbiamo un'opportunità incredibile davanti, un'opportunità che ci potrebbe davvero dare la possibilità di recuperare quello che abbiamo perso e ogni tanto vediamo che non c'è la stessa grinta e la stessa determinazione e poi perché collegato, perché questo viaggio nel medioevo mi ricorda un po' il viaggio a fine del novecento quando c'era internet e noi discutavamo quanti posti di lavoro internet avrebbe fatto perdere, quante erano le problematiche sulla privacy, via dicendo e adesso mi sembra veramente che il buon Benigni e il buon Troisi siano esattamente tornati a fine degli anni 90 e dall'altra parte del mondo si sta pensando seriamente a fare investimenti miliardari e noi purtroppo ancora siamo qui a discutere di cose che non ci permetteranno di sviluppare seriamente l'AI e quindi non ci resta che piangere secondo me l'accoglie bene. Benissimo, tra l'altro mi viene in mente che Roberto dovremo scrivere a Sam Altman con lo stile della lettera a savonarola. Sam Altman! Come è questa storia? Beh, insomma mi sembra che abbiamo settato bene l'inizio del ragionamento. Cominciando da noi perché poi in tutti questi film ci sono delle cose che riguardano l'AI Act. Allora vi ricordate non vi resta che piangere, Troisi comincia a cantare yesterday, bom bom bom bom e tutti dimenticano bella canzone eccetera. Allora, questa è una delle caratteristiche degli algoritmi generativi. Gli algoritmi generativi non è che sono la superintelligenza supernaturale, fanno quello che hanno imparato e che hanno fatto. Allora, una delle cose che dice l'AI Act è che chi ha sviluppato un algoritmo deve poter dire in una maniera comprensibile a tutti gli altri che base di dati ha utilizzato. Perché se qualcuno ha un diritto d'autore protetto può proprio dire, scusami ma cortesemente, siccome tu hai fatto triglioni magari un piccolo obbolo aspetta anche a me. Quindi questo per esempio è il famoso alnovenia che mi ha rovinato la vita perché io da bambino ho visto il film cinque volte e poi sono andato a lavorare ovviamente dove? All'ESA, alla NASA, che è successo voglio dire. Quindi quel film ha rovinato la vita e sta nel libro ovviamente. Alnovenila loro pensano di non farsi sentire perché vanno nella capsula ma lui interpreta le emozioni, gli sguardi un po' in labbiale. Il regolamento dell'AI Act vieta la interpretazione del emozione sul posto di lavoro. Ora c'è stata anche un po' qualche ricercatore che ha detto no ma le emozioni sono importanti, è vero, ma non è che le vieta in assoluto sul lavoro o alla scuola, le vieta come strumento diciamo di valutazione, di discriminazione della persona o dello studente. Perché se si tratta per esempio di il lavoratore che fa la faccia un po' così se il capo parla, bè francamente questo fa parte della libertà di ciascuno di poter pensare, c'è chi con l'espressione facciale è un po' più esplicito, chi è meno. Però se si tratta di un lavoratore che opera una macchina che richiede attenzione e può portare anche un problema di sicurezza, l'interpretazione della stanchezza è importante e quella ovviamente è permessa. A scuola se c'è un bambino che ha dei problemi di adattamento autistico per esempio l'interpretazione delle emozioni, l'aiuto che può dare alla macchina è importante. Quindi quello che le ha fa vieta diciamo uno strumento di valutazione che va al di là di quella che è la libertà di ciascuno di noi di poter avere un'emozione. Quindi c'è anche questo aspetto qua. Poi nel libro ci sono altri film, uno che di nuovo mi ha rovinato dal bambino che è War Games, non so se ve lo ricordate e sostanzialmente questo computer che controlla i missili sta per lanciare perché vede un attacco, vede un attacco immeniente, l'attacco in realtà non c'è e il bambino gli fa giocare a filettino, quindi quello con la croce e ovviamente questo bambino è sveglio quindi non fa errori e il computer giocando nessuno vince, nessuno vince dice ah ho capito ci sono dei giochi dove nessuno vince e quindi interrompe la sequenza. Quindi la guerra nessuno vince e interrompe la sequenza. Sarebbe così, strano gioco, l'unica mossa vincente è non giocare. Vedi il tocco del giornalista che serve? Ed è così. L'altro film che viene citato è Oppenheimer perché Oppenheimer dice a Truman ma il mondo non era pronto per tutto questo e il mondo è pronto per l'intelligenza artificiale, probabilmente non era pronto, si fermeranno? No, non si fermeranno nessuno, è cominciata una corsa che nessuno si ferma e poi ci saranno tante belle cose a succedere ma anche cose da tenere. Truman nel senso di dirgli ma in fondo qualcosa di buono è successo dice Oppenheimer ma abbiamo portato a casa i nostri ragazzi e allora qual è la funzione obiettivo qua? Perché se la funzione obiettivo era far finire la guerra il più rapidamente possibile c'è chi dice, i più e i meno, gli due attacchi nucleari sul Giappone hanno accelerato la fine della guerra e quindi è stata una scelta saggia tra quattordici virgolette. Ma qual è la funzione obiettivo? All'intelligenza artificiale allora gli si chiede come facciamo a rendere il mondo più abitabile e rendere l'ambiente finalmente puro e libero? L'intelligenza artificiale sapete come risponde? Eliminiamo l'essere umano. Questa è la funzione obiettiva. Questo è l'altro film che è citato e poi c'è ovviamente Minority Report che è un altro delle cose vietate dell'EI Act perché nell'EI Act c'è il divieto di polizia predittiva, cioè che una persona possa essere messa sotto stato d'accusa semplicemente perché un algoritmo ha detto che è molto probabile che ha commesso o commetterà un reato. Ci deve essere sempre la materialità del reato e soprattutto un giudice terzo che dice che questa persona può essere sotto accusa. Ma non deve essere demonizzata invece il riconoscimento facciale. Per esempio purtroppo a Bruxelles è costato tante vite innocenti il fatto che nessuno ha riconosciuto che un terrorista che stava nella lista dei terroristi più ricercati è entrato nell'aeroporto di Bruxelles e purtroppo portava una bomba. Quindi di nuovo demonizzare la tecnologia è sbagliato, santificarla è sbagliato e bisogna avere un approccio molto umano. Sui film direi che... Il film abbiamo fatto. Adesso la narrativa reale o comunque lo sviluppo reale dell'EI voi siete tra i protagonisti per quello che conosco e vi seguo insomma l'argomento da per la verità sono nato 15 giorni dopo l'EI nel 1956 quando questi scienziati che sono moltissimi si sono ritrovati e hanno fatto il primo workshop su questo hanno detto che si chiamava intelligenza artificiale era agosto 1956 e sono nato il primo settembre quindi da questo punto di vista seguo attentamente da parecchio tempo questa vicenda e mi sono reso conto che non c'è quasi niente che loro abbiano da invidiare ad altri sistemi di produzione dell'AI. Le persone che avete qui la fanno insomma. Ora ciò non necessariamente appare altrettanto di quanto appaiono i risultati di altri sistemi di produzione dell'AI. Una delle dinamiche che dobbiamo riuscire a rivoltare è stiamo facendo quello che serve per dimostrare far vedere la nostra di europei capacità di produrre intelligenza artificiale. Siamo in grado di farlo nel modo che attiri i talenti e gli investimenti che riusciamo e che sono necessari a tirare e tutto questo è coerente con il racconto implicito che si legge nell'AI Act o non lo è. Questa è la domanda che vorrei ai nostri interlocutori perché questa è in fondo la questione, dobbiamo girare tutto questo come opportunità e quindi possiamo costruire un AI rispettoso ai diritti che ha senso e che sta nella società in maniera coerente. E' possibile, ce la stiamo facendo, siamo indirizzati correttamente, cos'altro è necessario fare? In realtà penso che possiamo farlo anche noi e soprattutto il fatto che ci sia l'AI Act per noi è davvero una garanzia seria del fatto che abbiamo le spalle coperte. Guardate è vero che adesso ci sono i language model che forse su cui non eravamo proprio pronti esattamente, se si open AI faceva come Google, Gemini che aspettava un attimo di raccontarla tutti, qualche mesetto in più forse non ci faceva male però ormai non ci faceva male. Questi aspetti sono importantissimi però l'AI è pervasiva davvero in tutto, pervasiva nella nostra produzione industriale, pervasiva nella medicina, pervasiva nella finanza, dappertutto. Il fatto che sia così pervasiva significa che potrebbe essere utilizzato in modo inconsapevolmente anche sbagliato. Il fatto di avere dei vincoli che non sono poi dei vincoli incomprensibili ma sono dei vincoli che non sono altro che la continuazione del GDPR, di tutte le nostre normative che già permeano la nostra società ci permette di capire che non sono noi che la produciamo ma anche i giovani che la stanno studiando e le aziende che vogliono comprarla domattina. Che cosa si può fare, che cosa non si può fare. Faccio un esempio concreto per essere... adesso c'è chiaramente un problema dell'analisi, faccio un esempio di visione perché è il mio lavoro, è molto importante poter comprendere che cosa fa la persona che è di fronte a te. Ad esempio noi stiamo lavorando con molte aziende meccaniche e di logistica che vogliono sapere l'ergonomia delle persone, vogliono capire il grado di affaticamento delle persone nel momento in cui sollevano pesi, tra l'altro con aziende europee che per fortuna stanno in Italia, hanno i centri di ricerca Modena, però stanno in Italia. Ecco, per fare un'operazione di questo tipo non ti importa sapere chi è la persona, ti importa sapere se sta dritta, se non sta dritta, se fa fatica. E quindi tu puoi progettare dei sistemi che siano privacy by design e che siano per definizione indipendentemente dal volto, perché quello che ti interessa è conoscere lo scheletro delle persone. Adesso questo si può fare e si può fare anche con dei sistemi che sono addestrati da videogio, che sono addestrati da sistemi di nuovo di tipo sintetico e che quindi non hanno bisogno di utilizzare il volto mio, il volto tuo, il volto degli altri per fare questa operazione. Si poteva fare anche in altro modo? Sì, certo, però sapendo che qua che ci sarà e che c'è una legge per cui un'azienda che produce questi sistemi li vuole vendere deve essere organizzata per farlo decentemente, può già da adesso lavorare in un modo che sia compatibile con tutto quello che lei ha iact. Per cui penso che sia un aspetto positivo il fatto che esistano questi, anche se li abbiamo discusso tanto perché a volte le aziende hanno paura che questo blocchi lo sviluppo, magari ne parleremo dopo. Vedo due aspetti. Il primo secondo me interessante e tecnico. Abbiamo messo dei vincoli ragionevoli al tipo di AI che vogliamo sviluppare. Adesso il problema per noi è quello di realizzare algoritmi che incorporino questi vincoli. I vincoli sono espressi in termini umani perché sono una legge, quindi è scritta in linguaggio naturale, dobbiamo incorporarla in algoritmi che fanno magari riconoscimento della postura del corpo piuttosto che quello che vogliamo elaborano immagini. Lo devono fare tenendo in considerazione questi vincoli. Secondo me è un problema interessantissimo proprio dal punto di vista dello sviluppo degli algoritmi. Dopodiché viene anche bene perché in qualche modo instilla dei principi solidi dentro le AI. Questo vale per questo aspetto ma vale anche per la capacità di realizzare algoritmi di cui ci si possa fidare, che siano essi stessi in grado di spiegarci più o meno quale se ne parla tanto, ma è un problema tecnicamente molto complicato, quello di avere algoritmi più spiegabili che ci raccontino loro stessi perché sono arrivati a prendere una decisione o a riconoscere una certa immagine piuttosto che un'altra, oppure che riescano automaticamente a vedere se i dati che io sto fornendo hanno intrinsequamente dei bias, perché no? È chiaro che poi se vado cieco imparo quello che c'è nei dati e ripeto e faccio un po' il software mi ripete quello che gli ho dato con i dati, però è evidente che se penso come tecnicamente risolvere questi altri problemi secondo me può essere una visione interessante di uno sviluppo ulteriore dell'intelligenza artificiale. L'altro aspetto secondo me è molto pratico, un po' quello che abbiamo fatto con IT ce la possiamo fare, sì dobbiamo dotarci di un'infrastruttura e portare delle persone brave a lavorare insieme, persone brave che lavorano insieme ci sono cose banali che possiamo fare, ad esempio costruire una carriera che funzioni e dargli degli stipendi ragionevoli e poi portarli in un ambiente che è intellettualmente stimolante, perché poi gli scienziati vogliono quello alla fine. L'infrastruttura gli serve perché sennò è come un microscopista senza microscopio, cosa può fare? L'ambiente anche fa tanto, però non è impossibile e come risorse non è impossibile, voglio dire, siamo un paese di una certa dimensione se lo vogliamo fare in Italia, pensavo di farlo in Europa, siamo un continente con risorse importanti, per cui why not? Allora, parto da due piccole esperienze, una lontana e una vicinissima di un paio d'ore fa per provare a rispondere. Iniziato la mia carriera facendo ingegnere meccanico e progettavo elettronica per auto vettura, lavoravo in Ferrari in quel momento, per Ferrari in quel momento, quindi facciamo i primi sistemi elettronici differenziali attivi. Noi facciamo dei bellissimi algoritmi, avevamo delle funzioni obiettive che erano la prestazione e il conforo della vettura, provavamo in pista, avevamo tutti gli indicatori che ci dicevano che stava andando bene quello che avevamo fatto, poi scendeva il collaudatore, ti guardava, scuoteva la testa e tu avevi capito che non avevi sbagliato e lui non riusciva a oggettivare quello che in qualche maniera tu avevi sbagliato e allora, però avevi capito che, e c'aveva ragione lui, non aveva ragione loro perché lui faceva quello di mestiere e quindi quella Ferrari non era performante al punto giusto. Ecco, se avessi avuto un algoritmo che avesse legato al mio funzionale allo scuotimento di testa dei collaudatori, vi assicuro che avrei fatto molto più, sicuramente a meno tempo, ma probabilmente avremmo fatto molto più velocemente quello che abbiamo fatto. E questo quindi volevo dire, la prima cosa che secondo me le AI oggi ci dà come valore è che è in grado di oggettivare il soggettivo e questo, guardate che in tutti i nostri lavori, in tutte le nostre professioni fondamentali, un manutentore, qualcuno che sente un rumore di una macchina, qualcuno che ha un'immagine che non riesce in qualche maniera a soggettivarla, capisce che qualcosa non funziona ma riesce a farlo e due lavori con dati eterogenei per cui può vedere tranquillamente l'accelerazione della vettura insieme a un'immagine che, e questa è la grande potenzialità delle AI. Io penso che le grandi partite del language l'abbiamo quasi persa o stiamo perdendola o rischiamo di perdere, ma su quello che in qualche maniera oggi inizia, siamo veramente al tempo zero, su tutti i verticali, su tutte le possibilità che su questa piattaforma, che è il linguaggio, si possa fare veramente tanti soldi sui verticali, sul suono, sull'immagine, sul movimento, e allora vengo all'ultima esperienza, a propos di un'ora fa, è riservata quindi, dovete firmare un NDA, comunque ve la dico lo stesso, era un panel in cui si parlava di AI Act, sono 479 pagine, una cosa di questo tipo, sono 479 pagine di regole. Ci sono ancora tutti gli attuati, quindi la prima cosa che dobbiamo fare, io ho appuntamento da un notario tra qualche minuto, è fare una chat CPT che fa il bigino di AI Act, perché quello, abbiamo assolutamente una serie di legal di aziende qui oggi presenti, che non leggeranno mai 479 pagine, ma che quindi un bigino della AI Act, quindi la prossima startup che vedrete, mondiale o almeno europea, sarà la startup che è nata qui. Basta che non glielo facciamo fare a OpenAI appunto. Eh ma la faremo fare con questo. Questo per dire però anche che il mondo delle startup, dell'innovazione, utilizzerà questi strumenti per fare innovazione tecnologica, innovazione di business e quindi grandissime opportunità. Cosa non dobbiamo fare? Non dobbiamo consegnare la nostra conoscenza, i nostri dati a Microsoft, alla Microsoft di turno che viene a dirci io sono pronta con l'art, con il software, perché non è vero, perché dobbiamo essere noi in grado di parlare con l'interlocutore e fargli disegnare la specifica sul nostro prodotto, su quello che non vogliamo fare. Due, e sarò polemico ancora di più, non fare una fondazione AI ogni volta che ci viene la voglia di fare una fondazione AI. Abbiamo dei centri di competenza importanti e significativi che passano da Trento, che attraversano la Motor Valley, che vanno a Genova, che toccano Roma, che vanno a Palermo, forse non abbiamo bisogno di ulteriori sovrastrutture che confondono l'Europa prima di tutto perché non sa più a chi rivolgersi, confondono gli interlocutori e che sono troppo lente perché Human Technopol che è stato deliberato nel 2015 comincia a essere operativo 8 anni dopo. Se facciamo partire una fondazione nuova che si occupi di AI nel 2024, sarà operativa nel 2032 e vi assicuro che nel 2032 avremo già tutta la partita persa. Giusto, interessante. Tand'altro per la prima parte, cioè il confronto con Microsoft in effetti è da dire quello che appena detto resta perché in molti casi le aziende non sapendo bene a chi rivolgersi vanno a Microsoft di default perché sembra quella che ha la narrativa. Insomma, narrativamente si presenta come quella più avanti, che sia Microsoft o altre di quel genere chiamato Big Tech sui giornalici, giornalici peraltro, devono migliorare a loro volte il contributo che fanno a questa narrativa perché certe volte parlano di chip nel cervello di Neuralink solo perché c'entra Elon Musk quando quello è un tema molto più ampio e già arato anche da noi. Quindi anche qui viene fuori un ulteriore film perché mi pare di vedere Rocky in Russia con quel signore alto 35.000 metri più di lui che gli dice io ti spiezo e sembrerebbe quasi che noi ci troviamo di fronte a uno che ci dice io ti spiezo e invece di combattere con Rocky facciamo che ci arrendiamo prima di avere fatto il... Ecco, questo effettivamente va assolutamente detto ed è una questione di narrativa, non è una questione oggettiva, è come ci dicono i nostri interlocutori una questione di svelamento delle nostre capacità, di quello che noi effettivamente siamo in grado di fare Roberto. Che cosa strategicamente può motivare un giro di racconto e di convinzione, di credibilità delle nostre possibilità? Ma io guarda l'esempio che mi viene più in mente è l'industria aeronautica. L'Europa è l'italiano del mondo, fa i migliori aerei commerciali del mondo, il manuale di un Airbus sono migliaia di pagine, le regole di airworthiness sono centinaia, ma nessuno lo sa, sappiamo che l'aereo è il mezzo più sicuro per spostarci, certo quando stiamo in mezzo a una turpolenza così si ripete è sicuro, è sicuro, è sicuro, è sicuro, è così. Perché? Perché la cultura della sicurezza, la cultura della verifica della sicurezza da parte di enti terzi si è sviluppata nel tempo, nessun incidente è rimasto coperto sotto il tappeto e chiunque ci abbia provato nella storia aeronautica ha fatto una brutta fine. Guardate cosa è successo dopo l'incidente dell'autopilota delle 737 di Boeing, che prezzo ha pagato l'azienda, e sta ancora pagando. Quindi in quell'industria di altissima tecnologia le regole e la sicurezza sono fondamentali, nessuno dice ah ma ci sono troppe regole devo spendere soldi per la sicurezza e la tecnologia pure conta tanti tipi di esperienze di cultura diverse e di modi diversi, perché ovviamente ci sono i materiali, c'è l'avionica, ci sono i motori, c'è il calcolo per quanto riguarda l'aerodinamica, eccetera. E gli europei sono bravi a integrare tutto questo e sono bravi nella cultura della sicurezza. Noi quel tipo di problemi che sono successi con tutto sommato conflitti, interessi documentati, frallente regolatore, il costruttore, eccetera, abbiamo tutto un sistema di meccanismi per cui è obiettivamente difficile che una cosa del genere poteva accadere in Europa. Quindi questa è la mia speranza, cioè che la nostra cultura della sicurezza, della trasparenza che abbiamo sviluppato sulle macchine, le nostre direttive sulle macchine sono esempi nel mondo voglio dire, perché l'EI Act, dovete sapere, è un regolamento sui prodotti, non è una cosa filosofica che dice l'EI è brutta, l'EI è cattiva, l'EI è buona, eccetera, riguarda la certificazione dei prodotti, quello che si può fare e quello che non si può fare. Quindi da un lato l'EI Made in Europe che è sicuro, che quando c'è il marchio CE significa che quel pacemaker che usa l'EI generativa per riconoscere i pattern della aritmia è stato certificato da un'ente terzo, così faccio un po' di pubblicità per il TEF che sta qua, è stato certificato da un'ente terzo, il TEF significa Testing e Experimentation Facilities per l'EI e ha detto funziona e uno si fida voglio dire, per cui il cittadino non è che se deve leggere l'EI Act, né tutto sommato l'impresa gli si applicherà uno o l'altro articolo, quindi questo è il primo punto. Il secondo è, l'altro punto della mia speranza è che mettendo insieme tante eccellenze diverse e dandogli un investimento pubblico enorme che sta facendo l'Europa di miliardi di euro, i migliori calcolatori al mondo, assolutamente comparabili quelli che usa la Microsoft e Google, ecco questo crei un po' il miracolo di avere infrastrutture a disposizione, elementi, perché poi alla fine elementi, quelle che contano, le startup, le imprese che stanno suonecchiando un po' quelle più grandi, tutte insieme che lavorino un po' a prodotti EI che ovviamente sono diversi dal mega-charge-GPT che è un algoritmo diciamo che si occupa di un problema che è quello l'emulazione del linguaggio, eccetera, ma per esempio l'uso dell'intelligenza generativa nella scienza dei materiali, il DNA è un linguaggio molto più complicato del linguaggio umano peraltro, quindi in questi tipo si chiamano verticali, creare il meglio del meglio, dagli a disposizione un ambiente aperto di sviluppo e soprattutto non metterli con la faccia al muro chi è bravo o vai dal grande big tech di turno oppure non puoi lavorare, ecco tu puoi lavorare perché a Bologna c'è il calcolatore più potente al mondo per le AI ed è un calcolatore pubblico con regole di accesso a tutti, il concetto delle fabbriche delle AI che proprio ieri i ministri europei hanno approvato questa proposta della commissione europea è proprio questo, creare degli ecosistemi aperti, è una scommessa quindi da un lato delle regole di sicurezza, sono regole di morali voglio dire, facciamo l'esempio del riconoscimento delle emozioni, allora una regola così sebbene ci fosse un disegno di legge, sicuramente non ci sarà un disegno di legge così, che dice le AI deve rispettare l'umano nel posto di lavoro e che vuol dire? Allora lo posso usare questo sistema? No, non lo posso usare, una regola che è quella europea che dice l'econoscimento delle emozioni non si può usare per la valutazione del lavoratore ma si può usare sulle macchine che richiedono attenzione per valutare il grado di stanchezza, allora per quello lo posso usare. Quello che serve è chiarezza, perché avete visto le migliaia di cause negli Stati Uniti sull'intelligenza artificiale, pensate quanto è litigiosa l'Europa, quanti fantasie hanno i legislatori europei in giro per l'Europa, quelli nazionali, regionali eccetera, pensate non ci fosse le AI Act saremmo invasi da mini AI Act affatti alla Matriciana, quindi avere delle regole, adesso di Roma è Matriciana, delle regole chiare che siano regole tecniche sulle macchine che fanno AI, la filosofia non fa parte della legge. Si, infatti è sempre la Matriciana, ci sono i cioccolatari, però nessuno fa mai una cosa alla Carbonara o almeno non lo dice se lo fanno. Senti, infatti Giorgio ha detto una cosa prima che vorrei sottolineare, se è vero questo e le regole sono quelle che stiamo discutendo significa anche che se noi le assorbiamo nell'attività di progettazione delle tecnologie questi principi diventeranno parte di queste nuove tecnologie, anzi è sempre così, i principi di chi fa il disegno delle tecnologie si incarnano, si embeddano dentro il loro prodotto. Se l'obiettivo è convincere le persone a restare, che ne so tanto per fare un esempio su Instagram il più a lungo possibile, un algoritmo si occuperà di ottenere questo risultato anche se alcuni teenager ne dovessero subire le conseguenze dal punto di vista psicologico. Ora, queste cose sono veramente complesse, è vero che sono complesse, però i principi con i quali facciamo le tecnologie contano, hanno delle vere conseguenze. Possiamo vedere se, e questo significa che la regola non è una limitazione, è una guida a caso o mai, se è una regola giusta. In che modo si realizza nel vostro mondo questo genere di cosa? Tu hai fatto l'esempio, ti tocca anche darmi un esempio. Hai fatto l'argomento, puoi darmi un esempio. Devo trovarlo l'esempio, perché non mi sono ... Allora, tanto che volevo riconnetterlo al discorso sull'aviazione, perché secondo me è interessante, perché è un mondo dove la regola non viene disattesa, perché nel momento in cui viene disattesa, disastro. E quindi secondo me è molto interessante, perché testing, certificazione, non si deve, come dire, quando succede qualcosa si analizza perché è successo, si itera e si migliora il prodotto. E questo credo che sarà il meccanismo con cui potremo anche sviluppare l'AI. Mi viene in mente, ad esempio, un'altra delle cose che si fanno in aviazione, la ridondanza dei sistemi. Questa cosa qui noi la possiamo fare in maniera molto semplice anche sull'AI. Quindi noi possiamo avere software sviluppati da dite diverse che tentano di fare la stessa cosa. Possiamo avere sistemi che a alto livello cercano di fare la stessa cosa a me, messi in competizione per avere sempre un risultato che poi nella media, nella medianova, nella votazione dei sistemi ci dà un risultato corretto. Cioè c'è modo di abbassare la probabilità che ci sia un errore e che ci sia un incidente. E questo probabilmente lo dovremmo fare anche con l'AI. Lo dovremmo fare con l'AI che un giorno magari controllerà un'automobile piuttosto che l'AI che utilizziamo nei dispositivi. E questo potrebbe essere un meccanismo che è ingegneria alla fine. Non stiamo scoprendo niente di nuovo. Sono cose che si insegnano normalmente quando si fa sistemi meccanici e perché no a questo punto lo usiamo anche per il software. Esatto, non puoi pensare. E' ingegneria, anche perché c'è tutto il mondo dei test, dei sandbox che è a sua volta da inventare perché non è del tutto ovvio. Infatti, non so se ci stavo pensando prima, io sono stata da sempre una grande sostenitrice, diciamo assolutamente un altro perché le abbiamo studiate fin dall'inizio dei principi guida dell'AI proprio perché c'è bisogno anche agli ingegneri informatici di dare qualche regola. Noi ingegneri informatici siamo sempre stati quelli un po' più liberi, quelli senza regola e con pochi ISO, con poche attività. Quello che mi viene in mente in 5 minuti lo faccio, invece visto che iniziamo finalmente in modo molto chiaro ad influire l'umanità nel bene o nel male, è anche giusto che noi stessi abbiamo delle regole e le insegniamo ai nostri studenti fino al primo giorno. Quindi questo per me è un aspetto assolutamente positivo. Però proprio perché è positivo avere delle regole, queste regole non devono bloccare l'innovazione, non devono bloccare il nostro lavoro. E' una parte che non so in quale delle 400 mila pagine che ci sono, però so che c'è perché le abbiamo visto, delle proposte, delle AI Act, quello proprio di permettere di regolare la sperimentazione attraverso delle sandbox che adesso la Spagna ha iniziato a fare e che speriamo presto anche l'Italia abbia una sua normativa per farlo. Ne discutevo la settimana scorsa con Eni che è venuta a Modena in laboratorio per capire che cosa potevamo fare per alcuni tipi di sperimentazione, tipo quello di cui parlavo prima, comunque per la sicurezza degli impianti. E mi dicevano ma noi possiamo sperimentare certe cose perché se per caso le sperimentiamo tra i sindacati, tra le AI Act e tutto il resto non potremmo farlo. Perché purtroppo è così, come sappiamo bene, che quando c'è una legge che non è ancora precisa e che non si sa ancora quale liter per arrivare fino alla certificazione europea la cosa meglio è non fare. Oppure con un'altra azienda purtroppo due anni fa sono andati in Arabia Saudita a fare la sperimentazione perché non si poteva fare qui dato per tutti questi tipi di operazioni. Allora io spero realmente che, come diceva prima Ferruccio Resta, anziché fare solo fondazione, facciamo invece infrastruttura per poter rendere questo processo molto veloce perché abbiamo bisogno di parchi giochi per le aziende, quindi sandbox proprio nella sua traduzione di parchi giochi, dove pur avendo i vincoli, bimbi da lì non escono, ci sia la possibilità di sperimentare delle tecnologie che servono domani. Negli Stati Uniti questo parco giochi è sempre esistito che è il DARPA, il Dipartimento della Difesa americana o lo AIARPA, quello dell'intelligence, che fornisce finanziamenti enormi con l'orientamento, la difesa o all'intelligence però che dà finanziamenti enormi anche all'università, tra l'altro anche all'università europee. Ecco secondo me dobbiamo trovare il modo come stati italiani e soprattutto a livello europeo come finanziare il fatto che aziende, startup, aziende grandi, collaborazione con i centri di ricerca che ci lavorano passano nell'ottica del vincolo dato dalle AIAC sperimentare la tecnologia che non è proprio quella di domattina ma anche quella di passato domani che servirà tendenzialmente alla nostra società e alle nostre industrie, alla nostra produzione. Spero che si riesca a fare perché sappiamo bene che i vincoli burocratici, amministrativi, legali e tutto il resto allungano moltissimo questo brodo e questo poi ci fa perdere magari la competitività che potremmo avere. C'è una battutina finale, 22 secondi per resta sul ecosistema della mobilità che in effetti è un esempio di questo genere di costruzione del sistema che è necessario. Assolutamente, abbiamo pochi secondi ma lascio in una nostra audience con un dubbio, provate a immaginarvi di fare voi i progettisti dell'algoritmo che deve guidare l'auto autonoma in difficoltà, quando c'è una scelta difficile da fare, una scelta di schiantare il contro il muro e proteggere gli abitanti dell'abitacolo piuttosto che una classe di bambini, piuttosto che una persona molto importante. Sottolineo l'importanza di quello che ha detto Rita, abbiamo bisogno di parchi giochi. Abbiamo bisogno di parchi giochi grazie al fatto che oggi abbiamo una roba di cui Roberto è stato il promotore quindi fatemi fare un minimo di storia. Noi oggi in Italia abbiamo la capacità di calcolo paragonabile a quella che quando io ero piccolo, 25 anni fa, avevamo gli Stati Uniti, quindi era impensabile per un ricercatore italiano dire qualche cosa in quel momento perché non avevamo capacità di calcolo. Grazie a Roberto e grazie alla lungimiranza della Commissione che ha tanta perseveranza e tanta pazienza abbiamo quella capacità di calcolo. Aggiungo l'ultimo bit perché tu hai detto cosa dobbiamo fare? Dobbiamo aggiungere un pezzo di humanities. Io quando ho fatto rettore politecnico ho detto sì, io devo mettere un filosofo, un etico della tecnologia all'interno di gruppi di ricerca più esposti, bioingegneri, ingegneri dei dati, ingegneri della robotica, perché altrimenti quell'algoritmo non tiene conto della disciplina, perché è una disciplina, che fa in modo che anche se tu hai progettato un drone a sganciare un essere umano magari in una condizione non avrebbe sganciato. Anche se tu hai progettato un robot a fare un'operazione in quella condizione l'essere non avrebbe disobbedito. Ecco dobbiamo mettere dentro nell'algoritmo una qualche cosa in cui l'algoritmo decide di disobbedire e perché disobbedisce, perché legge le regole che abbiamo dato, che sono regole di buon senso, sono regole che probabilmente le avremmo scritte tutte noi se non avessimo fatto, se non avessimo avuto buon senso. Quindi per fare questo abbiamo bisogno di un mondo molto più umanistico all'interno dei gruppi tecnologici. Questa secondo me è la cosa che dobbiamo fare. Bella, è giusto, puoi rispondere a qualunque cosa. Io ho una domanda, puoi dire quello che vuoi, però la mia domanda è, adesso comincerà una nuova commissione. Io ho imparato lavorando con te per questo libro che il sistema del consenso è molto profondo nel sistema decisionale europeo e quindi mi aspetto che non cambi tutto in un nuovo ciclo elettorale e di governo. Puoi rispondere a qualsiasi cosa. Allora prima di rispondere al domandone, uno spot per l'AI Act sulla questione innovazione. L'AI Act ha un sistema di innovazione senza permesso perché prima di tutto la ricerca e lo sviluppo è fuori dall'AI Act. Non è in scopo, quindi tutti gli egregi panelist che sono responsabili di ricerche importanti non sono scrutinati dall'AI Act. L'AI Act non si applica agli sviluppi interni di un'azienda, si applica solo se l'AI diventa prodotto sul mercato. L'AI Act prevede che ci sia la possibilità di sperimentazione sul campo senza certificazione. Quindi a Trento si può dare l'autorizzazione a far circolare il taxi autonomo, ma non bisogna aspettare la certificazione, si può dare. E poi ci sono i famosi sandbox, quindi cercare di approfondire la compliance, quindi la conformità alle AI Act, progressivamente. Peraltro si applicherà molto lentamente tutte le proibizioni, le cose orribili che non si devono fare, tipo spiare la gente, ecco appunto quello del diavolo Veste Prada. E un'altra proibizione che c'è nelle AI Act, non si possono commercializzare quegli strumenti chiamati di web scraping per cui tutti i volti presi su social media vengono venduti a un privato così appena passiamo per un negozio ci riconoscono e dicono ah sei tu, ecco questo è vietato, sarà frazzi e messi vietato in Europa un sistema di questo genere. Se sono persone che hanno dato consenso, amici va bene, se no vietato. Rispondo al domandone. Allora l'Europa ha funzionato sempre in un sistema di grande consenso e questo gli ha permesso di legiferare sui diritti fondamentali perché poi c'è sempre stata una sintesi di diritti fondamentali, innovazioni, quindi sono venute le grandi regole europee per esempio sulla protezione di dati eccetera. Il sistema politico negli anni si è allargato, è diventato più instabile eccetera quindi non francamente non ho la risposta nel senso che dipende molto che parlamento verrà fuori dalle elezioni, verrà fuori sempre quel parlamento europeo che cerca il consenso, verrà fuori un parlamento dove i dissensi saranno più forti quindi sarà molto più difficile arrivare alla sintesi, difficile da dire oggi. Però la storia ci insegna che il modo di fare leggi in Europa è diverso dal sistema nazionale quindi la speranza va nella direzione che si continui in quella... In ogni caso per prendere le decisioni si deve andare un po' d'accordo tra sistemi molto diversi. Il sistema europeo, appunto il libro puri cerca di spiegare, è basato sull'equilibrio che deve esserci delle varie istituti, nessuna può prevalere sull'altra quindi se si deve far passare una legge per forza ci deve essere l'accordo dei rappresentanti degli Stati e degli eletti del parlamento europeo, ci deve essere la commissione che fa la proposta non lo può fare né uno né l'altro quindi questo è un sistema di pesi e contrapesi che serve a creare il consenso. Grazie, insomma gli ingegneri nel mondo delle AI, l'AI è forse la più umanistica delle tecnologie ingegneristiche, in questo caso si sono dimostrati molto giocosi, hanno lavorato insieme con noi per questa presentazione con grande umanismo e grande partecipazione. Io spero che vi sia servito, il libro è lì, il tipo di sviluppo che potrà avere è essenzialmente, come l'avete visto, cercare di contribuire a svelare la realtà delle AI che non è né un insieme di regole né un insieme di cose incomprensibili esoteriche ma è una vera parte del mondo futuro che abbiamo di fronte e se questo è vero, il modo con cui lo progettiamo contribuisce a progettare la società che abbiamo di fronte. Grazie.
{{section.title}}
{{ item.title }}
{{ item.subtitle }}