Il ruolo dell’Europa tra Stati Uniti e Cina nella mappa dell’intelligenza artificiale
Incorpora video
Il ruolo dell’Europa tra Stati Uniti e Cina nella mappa dell’intelligenza artificiale
L'evento analizza il ruolo dell'Europa nell'intelligenza artificiale (AI), confrontandolo con Stati Uniti e Cina. Si discute l'AI Act europeo, le sfide per l'innovazione e la competitività e l'importanza di investimenti strategici per sviluppare un'AI etica e al servizio dell'economia europea.
Ok, è un po' che ne stiamo parlando in realtà. Non c'è dubbio che in Europa ne abbiamo parlato in maniera diversa dal resto del mondo. Abbiamo fatto una regolamentazione primi nel mondo, si chiama AI Act. La discussione è naturalmente intorno al peso dell'Europa, al ruolo dell'Europa nel mondo. Sappiamo che la grande narrativa globale dice che gli Stati Uniti sono il posto dove nascono le grandi innovazioni in questo settore, che la Cina è potentissima, che l'Europa fa le regolamentazioni. È vera questa narrativa e in che senso? Che cosa può essere il ruolo dell'Europa che governa, che regola, che cerca di ridurre i rischi per gli umani di fronte all'innovazione tecnologica, che cerca di guidare l'innovazione tecnologica perché risponda ai problemi che gli umani sentono più importanti dalla inclusione sociale, l'innovazione al servizio della sostenibilità, il mondo della sicurezza delle persone e così via. L'AI Act lo avrete sentito parlare, ma è stato scritto in una serie di tappe piuttosto significative e anche epiche con la famosa discussione finale del trilogo in tre giorni e due notti di seguito, le quali sono state consumate le riserve di caffè di Brusell di due anni, e uno che era lì era Roberto Viola, direttore generale della DigiConnect che abbiamo qui, che ci può aiutare a vedere dal punto di vista di chi la fa, qual è il peso della policy dell'Europa nella geopolitica, nella geotecnologia globale. Il tutto in pochissimi minuti, prego. Grazie Luca, buongiorno a tutti, è un piacere essere qui. Sì, effettivamente i caffè erano tanti. L'Europa ha fatto l'AI Act per fare la maestrina della penna rossa al resto del mondo. L'Europa ha fatto soprattutto per l'esigenza di suoi cittadini, le sue imprese. L'Europa è un posto che le regole le ama e ha bisogno di questo tipo di certezze per procedere nella tecnologia. In effetti poi ha un sistema istituzionale che riesce a fare una buona sintesi fra i diritti fondamentali, le questioni tecnologiche e quindi negli anni si è creato il cosiddetto effetto brussell che poi le regole europee sono state esportate nel resto del mondo, soprattutto in quello democratico occidentale. L'AI Act quindi nasce da un'esigenza di certezza, cioè da un'esigenza di evitare che 27 stati membri, 27 leadership politiche, centinaia di leadership regionali si inventassero le loro regole fatte in maniera casareccia. Questo sarebbe stato un disastro totale. Già un continente che fatica un po' a abbracciare innovazione di fronte a centinaia di regole sarebbe stato veramente un disastro. Quindi questa cura omepatica che l'AI Act serve a questo. La seconda elemento è la certezza delle regole, perché non ci sono solo le questioni che riguardano la compliance, c'è anche una questione che riguarda i danni fra virgolette eventuali delle intelligenze artificiali e quindi centinaia di migliaia di cause che già stiamo vedendo negli Stati Uniti dappertutto. Quindi da un lato proteggere i cittadini, ma anche proteggere le imprese, che una volta che si è conformi alle AI Act sostanzialmente adottate l'intelligenza artificiale e utilizzatele. Le AI Act non è una legge performativa, non è che dice l'intelligenza artificiale è buona e cattiva, serve o non serve, è una legge che regola i rischi, quindi regola solamente il 10% dell'applicazione dell'intelligenza artificiale. Ovviamente se fate fotografie e le mostrate, e tutti dico a mappa quanto siete bravi, l'ha fatto l'AI, ma va bene così, e non è certo un elemento che deve preoccupare il legislatore. Ma quando le AI vengono utilizzate in un robot che opera a cuore aperto, chiaramente l'algoritmo deve essere verificato. Quindi le AI Act è basata su una piramide dei rischi, i rischi più gravi viene vietato l'uso, tipo il social scoring, quello che si chiama la polizia predittiva, cioè alla minority report, arrestare persone sulla base di un algoritmo. E poi quello che riguarda i rischi di prodotto o di sistema dove le imprese faranno una procedura di certificazione con gli stessi enti che oggi mettono il famoso bollino CIE. Quindi questo approccio basato su rischi ha effettivamente sedotto le varie organizzazioni che si occupano, il Consiglio d'Europa, l'ONU e compagnia Cantante, per quanto riguarda i nostri partner, quelli diciamo, i nostri stretti alleati, c'è un articolato discorso che riguarda la cooperazione della tecnologia più ampia, per quelli che invece non sono proprio i nostri alleati c'è comunque un confronto necessario perché comunque questa è una tecnologia che cambierà la faccia del mondo. Io la finirei qua per il momento, poi... Sì, solo un commento, stiamo contestualizzando questo analisi in un panel che si domanda in qualche modo quanto questo pesi nel mondo. Per passate normative si è parlato di effetto bruxelle, come se la normazione che viene da bruxelle poi influenzi il resto del mondo e questo sia uno dei ruoli che l'Europa gioca. È ancora presto per dirlo, ma l'idea è che questo avvenga anche con l'AI Act. Ma sì, secondo me, io torno da una settimana a Washington in cui chiaramente mi hanno invitato a partuto a parlare, eccetera, però quello che conta per l'Europa sono i suoi ricercatori, i suoi calcolatori, le sue imprese, quello peserà nel mondo. Quindi, sono molto orgoglioso che ieri il Consiglio dei Ministri della Ricerca ha passato il nostro AI Factory Act, che è un altro miliardo di euro sui nostri supercalcolatori, incluso Leonardo, per potenziarli, per rendere le macchine pubbliche più aperte a tutti. Perché il modello di innovazione in Europa, questa è la sfida a cui tengo di più, è un modello, ovviamente, perché noi non abbiamo le aziende verticali della Silicon Valley, aperto all'innovazione in cui speriamo che intorno a queste grandissime macchine ci sia l'università, le start-up, ce n'è una bravissima qui oggi, l'impresa più tradizionale che sonnecchia e che quindi si crei un ecosistema che più è conforme all'economia europea. Questo secondo me pesa nel mondo. Ecco, questo è il punto. Quindi, fatte le normative. La domanda è, riuscirà questo a generare, oltre che comportamenti che evitano i rischi, anche innovazione e sviluppo? Questo è un po' la scommessa alla questione sulla quale poi dibatteremo. Francesco Ciaudone scrollava la testa quando parlava di Ola. Perché? Francesco Ciaudone è naturalmente managing partner di Grimaldi Alliance. Quello che ha detto il direttore Viola è ovviamente più che corretto e condivisibile. Scrollavo la testa solamente perché l'effetto che avrà un regolamento, una volta che sarà firmato, è cosa che dovrebbe accadere, credo, nei prossimi giorni ed essere pubblicato nelle prossime settimane. Quindi non una cosa da accadere, ma oramai esistente, perché il testo è consolidato, pubblicato e disponibile per tutti. Fatto da 180 considerando, 113 articoli, una quarantina di allegati, un documento di circa 400 pagine, credo, nella versione stampata. Pensare che non produca un effetto violento sulla realtà economica nella quale interviene è molto ottimistico. Il problema del regolamento sull'intelligenza artificiale, che entrerà in vigore nelle prossime settimane, è che immediatamente avrà effetto diretto. È un regolamento, quindi è un atto che non ha bisogno dell'intervento degli Stati, ma deve essere eseguito direttamente in tutti gli ordinevamenti. Porterà diritti e doveri in capo a persone fisiche, persone giuridiche, amministrazioni, imprese, autorità, tutte. E saremo i primi a farlo. Nel senso che al momento non c'è il secondo. Saremo i primi perché l'Europa ha deciso di adottarlo, ma non è detto che ci sarà il secondo. Questa è una scelta che deve essere guardata dal punto di vista strategico-giuridico. È già successo, e il direttore Piova la sa perfettamente, che in materia di trattamento dati l'Europa è stata il primo a fissare delle regole. Le ha fissate e ha creato una chiara simmetria giuridica dal punto di vista dell'impatto economico che questo ha prodotto. Per anni abbiamo visto che i social, ad esempio, le attività economiche collegate ai social, sono sviluppate a sinistra e a destra dell'Europa, ma non in Europa. L'Europa è un mercato. Occorre fare molta attenzione che anche a valle del regolamento europeo non accada la stessa cosa. Il mercato europeo è un mercato di fruitori e lo sviluppo, l'innovazione, avvenga negli altri sistemi economici che non hanno e non adotteranno probabilmente in animo di fissare regole immediatamente vigenti, applicabili, come già accaduto con il trattamento dei dati. L'America dopo anni hanno fatto accordi per cercare di disciplinare il trattamento dati al di là e al di qua dell'oceano. Ovviamente la stessa cosa non è neanche successa con la Cina, ma entrambi i sistemi economici hanno fatto innovazione, sono diventati stati economici con una propria autonomia e disciplina. L'Europa ha fatto una scelta diversa, ma l'impatto giuridico, economico e sociale di questa scelta non è banale. È un turning point. Fare per primi le regole e probabilmente restare da soli a farle e pensare di contagiare in modo virtuoso gli altri è una scelta da cuor di leoni. È un po' tosta come risposta perché prevede insomma una teoria per cui c'è un trade-off, o facciamo l'innovazione e diventiamo potenti, o facciamo le cose giuste e rimaniamo meno potenti. Quanto fa un'Europa che vuole ecologia dei media? Quanti usano Facebook, Instagram, TikTok tutti i giorni? Voi, come sapete, siete immersi in un mondo guidato dall'intelligenza artificiale, un'intelligenza artificiale che si è sviluppata senza regole nel caso dei social media. Giuliano Noci, prorettore politecnico di Milano. Vediamo un po' perché adesso il panel passerà da queste considerazioni che sono relative alla normativa e alle sue conseguenze. Dopo di lei verso chi fa l'innovazione e avremo le testimonianze di questi. Lei, al politecnico, fa conoscenza che serve all'innovazione, quindi è proprio il giusto perno di collegamento, se vuole. Sì, e interagisco anche con paesi stranieri come la Cina. Io credo che qui stiamo entrando in un tema davvero molto importante che ha per certi versi caratterizzato la storia economica e le riflessioni scientifiche della storia industriale moderna. Cioè facciamo politiche a tutela della domanda o politiche a tutela dell'offerta. Questo è sostanzialmente dove sostanzialmente la scienza si divide. Ad esempio, la Cina fa politiche a sostegno dell'offerta e genera extra capacità che stanno andando nel mondo. L'Europa certamente ha una straordinaria attenzione meritoria rispetto a quella che è la tutela dei diritti. Io credo che ci debba essere comunque un set, un frame di regole che debba essere definito a livello globale. Noi dobbiamo sperare, ringrazio Roberto Viola per gli sforzi che fa per cercare di contribuire da questo punto di vista. Dobbiamo sperare, Rio Washington, che questo rappresenti un elemento di coesione anche se osservo che purtroppo a Ginevra, Cina e Stati Uniti si sono trovati martedì scorso con l'obiettivo di definire la governance loro. Quindi io vado a un punto da ingegnere, quindi mi scuso nei confronti degli autorevoli, giuristi e quant'altro. Il tema è che l'Europa da un punto di vista politico e come massa critica non conta. Non voglio banalizzare la cosa, e davvero Roberto come tecnico fa uno sforzo colossale, ma il tema di fondo è che quando io vado in Cina mi dicono che in Europa è un mercato non scalabile, perché abbiamo 45 legislazioni diverse e abbiamo mercati frammentati. Da questo punto di vista noi come Europa dobbiamo essere consapevoli, e mi fa molto piacere aver appreso delle high factory, quello che hai appena enunciato, ma qui dobbiamo scalare dal punto di vista degli investimenti. Dobbiamo scalare perché dalle altre parti, ahimè, fanno investimenti pazzeschi. Lo Stand for Index l'anno scorso, giusto per dare un dato, dava Cina sui 30-40 miliardi, se non sbaglio, Europa dava sui 10 e Stati Uniti sui 70 miliardi. Quindi noi abbiamo dimensioni di investimento che sono dimensioni in cui noi dobbiamo renderci conto. Quello che auspico è che da questo punto di vista l'Europa si renda conto che l'intelligenza artificiale è un driver di cambiamento strutturale permanente, irreversibile, di cambiamento dei comportamenti degli individui, delle imprese e della pubblica amministrazione. La conseguenza è che dobbiamo renderci conto, dobbiamo focalizzare risorse e definire i nostri campioni. Non ci sono alternative, non ne abbiamo di alternative. Dobbiamo evitare quello che l'Europa ha fatto quando hanno bloccato la fusione Alstom-Siemens. I cinesi ridevano, gli americani ridevano, ma in nome di quale paradigma antitrust quando in Europa c'è quella roba lì? Ma nel resto del mondo non c'è. Quindi noi dobbiamo scendere sulla terra e renderci conto. Quindi qui sta quel delicato mix che va definito. Quindi noi abbiamo bisogno certamente di avere politiche che tutt'errono gli individui, ma abbiamo bisogno di concentrare gli sforzi rispetto a una dimensione di cambiamento che richiede scala. Ciò che faccio, chiudo, dicendo che noi come Italia abbiamo un tema gigantesco, che è la tutela del Made in Italy. Signori, il Made in Italy è il risultato di un vantaggio comparato che ci siamo costruiti attraverso secoli di saperi di arti e mestieri. Peccato che questi arti e mestieri non siano codificati e non siano oggetto di basi dati. Il rischio a tre anni data per il Made in Italy è che arrivino applicativi addestrati da altre parti e che, siccome sono disponibili, aiuteranno le imprese della moda italiane a sviluppare nuovi capi d'abbigliamento che però sono treinati, addestrati, scusate, sulla base di modelli che sono definiti da altre parti. Certamente abbiamo una dimensione di regolamentazione che va disciplinata, ma la vera priorità in questo momento, come Italia e come Europa, oltre a questo, è mettiamoci da fare olio di gomito e, per quanto riguarda l'Italia, io ho la fortuna di girare in tutti i territori, non solo Milano, per rendere consapevoli gli imprenditori dell'importanza dei dati. Perché, Luca, il tema di fondo è che mentre in un contesto così qualificato stiamo a discutere di intelligenza artificiale, io che frequendo la provincia in questo momento sto facendo incontro imprenditori tutti i giorni di Cremona, Mantova, Rovigo, Ferrara, Brescia, questi non hanno ancora capito il senso del dato, questi non fanno bilanci, l'agroalimentare non sono abituati a fare bilanci. Capite che parlare di intelligenza artificiale suona come lunare. Quindi io credo che davvero in questo momento politica e sostegno dell'offerta per creare consapevolezza devono essere oggetto di altettanta attenzione come la regolamentazione. Grazie Giuliano Noci. Voi sapete che verso il finale c'è uno spazio per le domande, me ne stanno naturalmente venendo molte, anche perché nel trade-off tra aiutare la domanda e l'offerta mi stava venendo in mente che la domanda è se vuoi fare un'offerta, perché fondamentalmente qui c'è anche bisogno di parecchi soldi. Però c'è bisogno di questa cultura capillare, c'è bisogno di attirare i nostri imprenditori in un dibattito di modernizzazione che fino adesso abbiamo enunciato ma che nella nuova fase diventa ineludibile. E quindi il Politecnico assume un ruolo super importante. Ma abbiamo bisogno anche di modelli, di esempi, di cose che succedono sul serio. Una dei ragionamenti che mi viene di fare è il seguente, scusatemi se la tiro leggermente lunga. Ma una delle grandi epopee di questi ultimi tempi è stato il fatto che la Microsoft ha investito 12 miliardi in questa startup un po' non-profit, un po' profit, chiamata OpenAI, 10 miliardi di dollari, 12 miliardi di dollari di cui 10 sicuramente sono andati indietro alla Microsoft, perché OpenAI, che ha ricevuto 12 miliardi dalla Microsoft, ha pagato 12 miliardi alla Microsoft in supercalcolatore, in capacità di calcolo, in data center. Mi sono spiegato. Nel frattempo però con quei 12 miliardi la Microsoft ha comprato il 49% della società e ha dettato le sue politiche, perché OpenAI era un'azienda non-profit per il bene dell'umanità ed è diventata un'azienda for profit che fa prodotti uno dietro l'altro per cercare di conquistare il mercato mondiale. Quei 12 miliardi hanno pesato sulla strategia di OpenAI e i 10 miliardi che OpenAI ha restituito alla Microsoft sono serviti per fare funzionare questo meraviglioso prodotto che è venuto fuori. In Europa, Julian Ciarca, fondatore e amministratore delegato di iGenius, ha lanciato una storia, come immaginate, non lunghissima, è una startup che ha sviluppato un suo prodotto a base di intelligenza artificiale per rendere più facile la lettura per l'appunto dei bilanci. E poi si è lanciato, lo ha annunciato qualche mese fa, nella costruzione del Large Language Model italiano. Non aveva i 10-12 miliardi della Microsoft, però ha potuto usare Supercalcolo come OpenAI, senza pagarlo, ma per il fatto di avere come azienda europea il diritto di accedere al Supercalcolo messo a disposizione dall'Unione Europea con i suoi investimenti a Bologna e in altri posti. La cosa che l'Europa ha chiesto in cambio è che il lavoro che fa e che produce sia a sua volta aperto e a favore della collettività. Insomma, come vedete, non è che non ci sia niente da questa parte, c'è un altro modello, proprio un'altra cultura. Ora vorrei sapere da Julian se questa è una costruzione da giornalisti che si inventano queste spiegazioni per arrabattare un articolo in più, oppure se c'è qualcosa di concreto. Grazie Luca. Allora, la diversità e il DNA che menzionavi quindi dell'Europa come modo di fare le cose diverse è sicuramente il punto centrale della discussione. Le rivoluzioni tecnologiche non sono solo rivoluzioni hardware e software, sono rivoluzioni sociali, di fatto, per cui creano queste ansie perché c'è una mancanza di conoscenza, perché, diciamo, ci sono pochi creatori e la maggior parte di noi siamo utilizzatori della tecnologia. Regolamentazione, innovazione tecnologica e dimensione economica sono tre binari che difficilmente oggi dipendono l'uno dall'altro. Un po' perché la politica e le implementazioni della regolamentazione hanno dei tempi che molto spesso i volontieri vengono dopo la tecnologia, e un po' perché di solito trovano applicazioni più nel futuro che nel presente, poiché la tecnologia va a una certa velocità. Quindi, aver speso circa otto anni nel costruire modelli di intelligenza artificiale dall'Italia, quello che ho imparato è che prima di tutto fare business e costruire intelligenza artificiale in Europa è diverso, è diverso perché a livello culturale, appunto, la disruption sociale ti spinge a un'implementazione diversa. E questo non credo che sia un tema di risorse o di opportunità, io credo che sia proprio un tema di approccio, cioè noi abbiamo l'ansia di inseguire gli altri, per cui tutto l'ecosistema che ti circonda ti spinge in una direzione che oggi non ci permette di ottenere la scala, non è che non possiamo non avere la scala. Se oggi noi vediamo i dieci supercomputer più potenti al mondo, che sono la materia prima della costruzione dell'intelligenza artificiale che ha permesso a OpenAI, a ChadGPT, di capitalizzare 80 miliardi, ce ne stanno sei negli Stati Uniti, tre in Europa e uno in Giappone. Se andiamo a filtrarli per le caratteristiche chiave, uno sta in America, lo sta utilizzando OpenAI, e l'altro sta a Bologna, in Italia, lo stiamo utilizzando noi altri attori italiani. Per cui i dati ci sono sicuramente ancora da scavare perché le imprese si siedano su miniere d'oro di informazioni di cui non sono ancora a conoscenza, vi posso assicurare che con le mani in pasta nel costruire il modello italiano di intelligenza artificiale che lanceremo nel giro di qualche settimana, i dati ci sono e i modelli si possono creare. Non ci mancano i talenti e non ci manca la potenza computazionale. Cosa ci manca? Dal mio punto di vista ci manca l'ambizione, ma non l'ambizione solo degli imprenditori e delle startup. Cioè noi oggi continuiamo a parlare del sogno di creare gli unicorni, gli unicorni sono storia del passato, la nuova linea di riferimento è mille miliardi. Se il punto di partenza nel mondo dell'intelligenza artificiale non è quello di creare un'azienda da mille miliardi, hai già perso, non arriverai né a uno, né a dieci, né a cento, e molto probabilmente neanche a cento milioni. Per cui noi abbiamo un problema in questo momento di identità, visto anche il titolo del panel, e dobbiamo assolutamente concentrarci sulla realtà, perché la realtà è l'inflazione che sta portando l'intelligenza artificiale. Sono due mondi completamente scollegati, cioè prima di parlare di un AI Act che rallenta l'innovazione, parliamo del fatto che i diritti umani non sono negoziabili, prima di parlare di un'intelligenza artificiale che prenderà anima e sostituirà i posti di lavoro, parliamo del fatto che le nostre 16-18 ore da svegli oggi sono un disastro. Negli ultimi 20 anni la tecnologia ci doveva ridare indietro il tempo, semplificarci la vita, invece siamo diventati schiavi, e abbiamo tutta una serie di problemi da risolvere che vanno ben oltre al fatto che l'intelligenza artificiale avrà un'anima, prenderà forma, ci prenderà i posti di lavoro. Cioè noi oggi abbiamo la maggior parte dei nostri lavoratori che sono dirotti dalla tecnologia, che prima erano degli ingegneri che potevano esprimere il loro potenziale, oggi devono imparare la tecnologia, se no non lo possono fare. Per cui l'intelligenza artificiale in questo caso che fa parlare l'uomo e la macchina è l'opportunità che abbiamo per chiudere il divario delle competenze, è l'opportunità per amplificare il vantaggio competitivo del Made in Italy. Quindi prima ancora di parlare di attacco, noi dobbiamo difenderci, capire che non possiamo essere i primi da subito, perché l'errore che abbiamo fatto all'inizio degli anni 2000. Purtroppo c'è chi viene per prima, come è successo per la Silicon Valley. Che cosa abbiamo fatto per vent'anni? Abbiamo inseguito la Silicon Valley, volevamo copia incollare il modello della Silicon Valley, poi non parliamo dei fondi, con un decimo se non un millesimo dei fondi. Bene, ora siamo all'inizio di un nuovo ciclo, che durerà vent'anni. La partita dell'intelligenza artificiale non è ancora iniziata. Il fatto che OpenAI sarà il campione dei prossimi vent'anni, vi posso, non dico promettero o garantire, ma vi posso dire che questi modelli, stasera andiamo a dormire, domani ci sarà un modello potenzialmente ancora più potente. Per cui bisogna guardare ai fondamentali, bisogna sensibilizzare prima di tutto le fondamenta della nostra società in Europa, perché quello che hai detto è importantissimo, la OpenAI non è nata con il venture capital, è nata con un operatore economico, e quindi è nata grazie ad un'infrastruttura che già esiste negli Stati Uniti. Se il nostro punto di debolezza sono le imprese, le nostre industrie di punta, che sono diventate più debole, se queste diventano più forti, l'ecosistema delle startup è solo una conseguenza, le aziende che poi puntano al trillione è un'ulteriore conseguenza. Per cui per chiudere, io sono estremamente fiducioso che nei prossimi vent'anni l'Europa potrà giocare un ruolo non solo da utente, ma anche da creatore, ma deve essere assolutamente pragmatica, non si deve far prendere ad ansia e deve guardare a lungo termine. Noi siamo indietro, dobbiamo prenderci neatto, punto. Che ruolo possiamo giocare? Dobbiamo valorizzare il nostro DNA, noi non dobbiamo competere, perché noi siamo indietro. Essere indietro vuol dire che prima dobbiamo unirci al tavolo di chi crea queste tecnologie, e dal nostro punto di vista ci vorranno altri cinque anni. E dobbiamo pianificare nei cinque anni successivi di poter competere, nei dieci anni successivi potenzialmente di essere i primi se non tra i primi. Per cui sono fiducioso che il DNA europeo che mette al centro i diritti umani su una tecnologia che è una rivoluzione sociale, che mette in discussione la conoscenza, che è una cosa che non succede da oltre cinquant'anni, perché da quando c'è stata la rivoluzione della stampa non abbiamo mai avuto una tecnologia che democratizza la conoscenza come oggi fa l'intelligenza artificiale. Questo va ben oltre l'industria, va ben oltre gli strumenti. Per cui diventa fondamentale avere questo pragmatismo e tutti insieme collaborare in modo concreto verso una costruzione che sarà progressiva. Non facciamoci prendere dall'ansia. E diciamolo, benissimo, abbiamo detto. Allora il tema che ci porta a Julian è un po' anche uno spostamento verso gli obiettivi strategici, perché in un certo senso a parte i mille miliardi fa venire un pochino di ansia come obiettivo. Però il fatto di avere di fronte il compito di fare un'intelligenza artificiale al servizio dell'industria che noi abbiamo, della robotica che noi abbiamo, non si vede perché non possa essere un'intelligenza artificiale attenta alle strutture sociali e al lavoro. E noi ce ne preoccupiamo. Non è una cosa assurda, è una cosa bella che facciamo. Naturalmente si tratta anche di scommettere se perseguendo questo percorso abbiamo delle possibilità. Ma Julian ci dice che le possibilità ci sono, perché il modello dell'intelligenza artificiale generativa che si è sviluppato in un'ora adesso non è detto che sia quello definitivo. Tra l'altro è venuto fuori, come forse avete notato, un articolo interno di Google. È venuto fuori probabilmente non a caso, che dice che al di là della grande leadership che hanno i grandi modelli di adesso, il futuro potrebbe invece essere di una pletora, di una fioritura di piccoli modelli aperti, specializzati, che hanno meno allucinazioni, perché tra i nati, come dice il nostro professore, su conoscenza vera profonda. Quindi questo potrebbe avere una visione strategica interessante e alternativa. Se abbiamo il tempo ce lo spieghiamo meglio. Però fondamentalmente a questo punto è il momento di vedere se noi, dall'Italia, abbiamo una visione strategica di questo tipo, che tira fuori il meglio che abbiamo noi in Italia e in Europa e lo sostiene, lo finanzia, lo scopre prima di tutto, e lo sostiene, lo finanzia e lo racconta in maniera tale da darci l'impressione che nonostante tutto ce la possiamo fare. Questo è il compito di Agostino Scornaienchi, amministratore delegato e direttore generale di CDP Venture. Grazie, Luca. In effetti si è parlato di competizione. La competizione è quella che tutti auspican, ma poi che in realtà nessuno vuole. Perché la competizione è quello che evidentemente i giganti che si sono messi a correre e che sono oggi in grado di accavrarsi le macchine migliori per addestrare questi modelli, lo fanno a dispetto di qualunque regola, chi è partito prima avanti e resta avanti. Allora, la prima domanda che ci dobbiamo fare, e quella che ci siamo posti, è in che misura ci sia un'altra partita da giocare rispetto alle partite che già sono in corso. Le partite che sono in corso sono due, e mi scuso per l'eccessiva semplificazione. C'è un modello americano che, come sempre è stato nella storia di quel paese, che cosa possiamo fare con una nuova tecnologia per guadagnare più soldi. In che misura l'intelligenza artificiale può efficientare i processi produttivi, può far risparmiare posti di lavoro, può far alzare la capitalizzazione delle imprese. E se qualcuno perde il posto non è un problema, perché si ricollocherà sul mercato. È il loro approccio, non spetta a me giudicarlo, è un fatto purtroppo a pazienza. Dall'altra parte c'è un altro polo di sviluppo, che è quello cinese. In che misura l'intelligenza artificiale può essere utilizzata per controllare, per sapere, per avere informazioni, per influire, per interferire sugli amici, su quelli che sono oggi nemici e potrebbero diventare amici, e come allargare il proprio dominio come se il campo fosse un campo bellico. Il campo bellico forse lo è, eravamo abituati che i campi dei conflitti fossero quelli aerei, terrestri, marini e sottomarini, in realtà c'è il cyberspazio che sta diventando un campo di conflitto. Se i campi sono questi due siamo indietro su tutti e due. Ma forse c'è un terzo campo. Noi siamo un continente, in particolare in questo continente ci siamo noi, che siamo un soggetto che ha un ampio spazio di economia sociale. Allora in che misura l'intelligenza artificiale può diventare un abilitatore del miglioramento della relazione fra pubblica amministrazione e cittadini? Abbiamo visto le complessità, i disastri sanitari legati alle pandemie, abbiamo visto la complessità di mettere insieme informazioni, di essere efficienti, certamente l'intelligenza artificiale può dare un vantaggio competitivo enorme rispetto a chi quell'esigenza non ce l'ha, perché, ripeto, altre organizzazioni di questo non hanno una grande preoccupazione. I modelli, si è detto, sono addestrati in inglese su piattaforme diverse, più sintetiche delle nostre, hanno il grandissimo patrimonio di informazioni che sono sui social, però insomma io con tutto rispetto non ci scriverei una tesi di laurea nemmeno un testo scientifico sopra. Quindi forse uno spazio c'è. Allora se vogliamo percorrere questo spazio bisogna inevitabilmente parlare di soldi. Abbiamo sentito dichiarazioni siderali, la previsione di investimenti sull'intelligenza artificiale per i prossimi 15-20 anni ammonta 4-4,5 triliardi di dollari, che uno fa fatica ad immaginare, si polemizza sul fatto che noi metti i soldi ce ne mettiamo pochi, che siamo in ritardo, che dobbiamo metterci ne di più. Fino a oggi in Italia sono stati spesi in intelligenza artificiale su investimenti diretti una cinquantina di milioni di euro, quindi praticamente nulla. Vediamo qual è il mercato aggredibile per i prossimi anni. Noi abbiamo fatto una stima negli scorsi mesi e abbiamo identificato che da qua ai prossimi tre anni vediamo almeno 3 o 4 miliardi, diciamo, di investimenti diretti che possono essere realizzati sull'intelligenza artificiale, che sono tanti soldi rispetto al passato. Certo sono pochi se li confrontiamo rispetto a quello che abbiamo sentito oggi, ma ripeto non è quel tipo di competizione che dobbiamo cercare. Noi dobbiamo cercare di essere leader in una parte dove gli altri non ci sono evidentemente. A questo proposito, dopo una interessante approfondita interlocuzione con le istituzioni, abbiamo deciso di fare una mossa. Abbiamo deciso proprio tenuto conto del nostro ruolo istituzionale, di soggetto che deve abilitare la ricerca, lo sviluppo nelle nuove tecnologie di creare uno strumento dedicato da un miliardo di euro. Un miliardo di euro, tenete conto, che verrà investito in acquisizioni e partecipazioni di imprese. Noi tipicamente entriamo in minorities qualificate del 30, del 40%, e quindi vuol dire che se noi mettiamo un miliardo ci sono altrettanti soggetti istituzionali che ne mettono altri due. Ecco, quella domanda potenziale di 3 miliardi pensiamo di poterla coprire con le risorse nazionali in modo ragionevolmente agevole. E come lo spendiamo questo miliardo? Beh, insomma, vi invito a sfogliare le prime pagine dei teaser che si trovano su internet di questi grandi nomi che si muovono sull'intelligenza artificiale. Beh, dopo le prime tre pagine avrete già trovato 3 o 4 italiani, perché i nostri giovani ci domandiamo sempre ma chi sarà il protagonista dell'intelligenza artificiale, ma probabilmente è ancora a scuola il protagonista dell'intelligenza artificiale. Noi dobbiamo fare in modo che questi soggetti non ci vengano sottratti dopo uno sforzo enorme che è servito per formarli, dobbiamo fare in modo che non spariscano via, come dico io, le carote del cartone animato per poi vederli tornare fra una ventina d'anni quando vengono al salone di Genova per scegliere la barca. Insomma, non mi sembra una equazione molto, molto interessante. Allora, noi abbiamo allocato di questo miliardo più di 100 milioni di euro sulle università, sul technology transfer, per finanziare progetti di studenti e professori. Non è un grande importo, ma è un grandissimo importo se commisurato a quelli che è l'impatto che viene dato a questi soggetti. Perché tanto questi finanziamenti a questi giovani, a questi ricercatori, arriveranno comunque, se non arriveranno da noi, arriveranno da qualcun altro e questo qualcun altro evidentemente ci li porterà via. Il secondo pezzo dell'intervento vale mezzo miliardo di euro, riguarda gli investimenti in startup che esistono già e che fanno applicazioni di intelligenza artificiale e che meritano di essere supportate per poter scalare e poter crescere. Ultimi 300 milioni riguardano l'identificazione di un campione nazionale. Ci sono dei soggetti che sembrano essere promettenti, ci sono dei soggetti che stiamo guardando, che stiamo analizzando, bisogna fare evidentemente valutazioni approfondite perché come è stato detto da chi mi ha preceduto, non siamo in una fase matura del mercato. Non abbiamo di fronte Google le ricerche su internet. Noi non le facevamo su Google, abbiamo cominciato a farla su altavista.digital.com. Se oggi andiamo a provare a riaprirla, ci compare una scritta che ci dice che il sito è stato chiuso 15 anni fa. Ecco, noi siamo in quella fase lì. Siamo in una fase della rampa in fortissima crescita dove non sappiamo quello che succederà. Però riteniamo che uno spazio ci sia e siamo fortemente intenzionati a percorrere. Grazie. Marta Dassou, con la sua aspenia, sta seguendo lo sviluppo sia industriale che soprattutto strategico di tutto questo. Come vedi, non da persona che si occupa dell'intelligenza artificiale, ma di persona che si occupa anche di intelligenza normale. Che vista vedi di quello che sta succedendo. Abbiamo parlato molto di enabling qualcosa, forme di normativa abilitante, di investimenti abilitanti, di cultura abilitante. Poi naturalmente abbiamo parlato di interpretazioni diverse da un punto di vista della civiltà proprio che si confronta con le altre. Però dal punto di vista di un geopolitico. Abbiamo sentito molte cose interessanti. Volevo farvi vedere il numero di aspenia così faccio una cosa utile alla mia causa e alla nostra, perché anche Luca ha scritto una rivista del solo 24 ore. Il numero su intelligenza artificiale mi sembra interessante per chiunque voglia entrare nel tema. Dirò 3 cose che molto rapidamente mi sembrano importanti. La prima è che l'intelligenza artificiale è in genere la competizione sugli strumenti che la compongono, perché poi parliamo dell'intelligenza artificiale, ma la definizione dell'intelligenza artificiale è sempre abbastanza sfuggente. Una vecchissima definizione degli anni 1940 che si concretizza oggi mettendo insieme la quantità di dati, di algoritmi e il quantum computing. Quindi è questa triade che rende oggi l'intelligenza artificiale così importante. Il primo punto che vorrei dire è che sarà fondamentale nella competizione geopolitica fra Cina e Stati Uniti. È già stato accennato perché la competizione Cina e Stati Uniti in effetti avrà al centro, ha al centro la competizione tecnologica, una specie di shadow warman neanche tanto. Tutte le misure di restrizione sui semiconduttori sono un'indicazione di questo da parte americana, ecco la risposta cinese, e questo spiega anche l'importanza specifica di Taiwan. Taiwan come grande polo di costruzione con TSM, CM, MC dei semiconduttori rimane appunto l'hot spot. Quando pensiamo ai problemi della sicurezza del domani, a mio modo di vedere, quello che può accadere nell'Asia Pacifico sarà molto più rilevante di quello che già sta accadendo in Europa e in Medio Oriente. Quindi la centralità per la competizione geopolitica è in dubbio. Secondo punto credo che Roberto Viola abbia detto giustamente l'EU AI Act è Europa su Europa perché fondamentalmente è impensabile che essere una potenza normativa globale senza avere la capacità finanziaria e tecnologica per essere una potenza anche in quei casi. Europa si trova appunto in questo scisma se volete. Ha regolato quello che le interessava di regolare internamente con costi però secondo me abbastanza rilevanti per le imprese, costi di tipo ad empitivo se così posso dire, cumbersome in qualche modo per le imprese. Chi frequente al mondo delle imprese sa che questo regolamento non è che sia stato apprezzato così tanto, ma fondamentalmente stiamo parlando ancora di Europa su Europa perché nel mondo non abbiamo le risorse finanziarie e non abbiamo neanche le risorse energetiche. È un punto di cui non abbiamo parlato ma che è molto importante perché questa intelligenza artificiale è molto energy intensive e se c'è un campo in cui l'Unione Europea sta purtroppo, l'Europa sta purtroppo perdendo posizioni è proprio quello. Gli Stati Uniti dopo la rivoluzione energetica che hanno compiuto sono fondamentalmente autosufficenti, la Cina ha ereditato dalla guerra in Ucraina la Russia come grande serbatoio di energia, l'Europa sta pagando l'energia tre volte di quanto la pagano gli Stati Uniti e questo spiega la nostra perdita di competitività e l'artificial intelligence è veramente energy intensive, sarà un problema ulteriore per noi. La terza cosa che volevo dire è che entriamo attraverso i large language models in uno scenario secondo me di balconizzazione, di frantumazione, cioè in cui c'è spazio anche per iGenius naturalmente, così come c'è spazio però per chat Xi-GBT, cioè per una visione cinese in cui le macchine vengono allenate anche su migliaia di parole scritte da Xi Jinping, quindi ci sarà una frantumazione, una balconizzazione in cui anche gli europei avranno i propri sistemi LLM, vedremo se riusciremo a finanziarli. L'ultimissimo flash è che l'intelligenza artificiale pone due diversi problemi di sicurezza, uno di sicurezza interna, i diritti dei cittadini, la cyber security, l'informazione, la disinformazione, ne abbiamo parlato, quello che si potrebbe chiamare safety in qualche modo, dove si stanno tentando vari accordi internazionali, c'è stata un'importante riunione a Seul ad esempio la settimana scorsa tra 10 paesi, e uno invece di sicurezza militare in senso proprio, l'applicazione dell'intelligenza artificiale al dominio militare sarà una cosa molto rilevante e si incrocerà con due temi che determineranno il futuro della sicurezza, uno è la deterrenza nucleare, cioè quanto più aumenterà l'automazione dei processi nel campo della deterrenza, tanto di più corriamo dei rischi di escalation, questo è quello che tutti gli studi in materia sostengono, è una cosa da tenere particolarmente sotto osservazione perché ci vorrebbe una nuova forma di controllo degli armamenti perlomeno fra Stati Uniti, Cina e Russe, cioè le tre potenze nucleari che si esercitano in questo campo, il secondo problema connesso a questo è quello delle cosiddette armi autonome che applicano già l'intelligenza artificiale, tra cui alcuni droni usati in Ucraina, e che vengono difficilmente regolate, sono 10 anni che si sta tentando una regolazione ma questo ancora non sta avvenendo, quindi se mettiamo insieme armi autonome per così dire e problema della deterrenza, lo scenario dei futuri conflitti cambia in modo molto notevole e in modo veramente preoccupante, quindi insieme al problema di un sistema, io direi di guidelines internazionali che è il massimo a cui si può aspirare sul tema generale, credo che ci vorrebbe un serio sforzo di arms control adattato all'intelligenza artificiale per ciò che riguarda tutta la questione di armi autonome e deterrenza nucleare. Buone notizie, a parte il fatto, no, poi c'è un aggettivo che ha usato Marta che va sottolineato all'intelligenza artificiale, è vecchissima ha detto, in particolare è nata 15 giorni prima di me e quindi è fondamentalmente per la proprietà transitiva dei vecchissimi, sono vecchissimo pure io, però il momento è propizio per un sforzo di sintesi da parte di un'unica persona che abbia la voglia di intervenire con una domanda ai nostri ospiti perché abbiamo ancora solo un minuto, se questo è un'apertura che vi sembra sensata, alzate la mano soprattutto agli studenti, io chiederei se invece vi rendete conto che è ridicolo, finiamo con un ultimo giro di opinione ma brevissimo, sì, direi che questa è la cosa migliore perché fondamentalmente da un nato abbiamo capito che la normativa è abilitante o non abilitante per come è fatta, per il suo intento e per le sue conseguenze di lungo termine. È chiaro che è importante in un contesto geopolitico che va preso in considerazione, vale per quello che vale, non vale per il militare e questo è un altro delle strane fenomeni che dobbiamo affrontare. Se volete, la cosa che mi ossessiona è che la pensiamo bene questa cosa qua, perché alla fine dei conti è complesso, non possiamo dire che è colpa di qualcosa o che qualcuno non... è veramente complesso, quindi se ci fosse un tema di investimento sulla comprensione di questa materia io credo che dovrebbe essere il fatto che non è vero che non ci sono alternative ma che le alternative vanno raccontate sulla base empirica delle cose che effettivamente si possono vedere. Ho l'impressione che da questo punto di vista vi sto guardando perché vedo che vi sembra giusto però che cosa potrebbe essere detto di importante a questo livello? Voglio semplicemente dire che noi dobbiamo renderci conto che dobbiamo rispettare quella come è stato detto, la specificità dell'Europa e dell'Italia e quindi la dimensione applicativa e la dimensione verticale io credo sia una leva imprescindibile su cui concentrare le risorse. In questo senso, parlando dell'Italia, visto che siamo in Italia, qui c'è un grande tema, come far leva sull'intelligenza artificiale per rilanciare da un punto di vista competitivo il Made in Italy. È un dibattito assolutamente non in corso in Italia e io auspico che in questo Paese si prenda coscienza che dobbiamo assolutamente discuterne. Bisogna applicare le leggi. Io non vorrei dare una brutta notizia, ma tra qualche giorno dobbiamo applicare il regolamento. Quindi mi sembra che si sia dimenticato il dato di partenza. Non è più una cosa che potrà accadere. Ci sono delle regole obbligatorie, vincolanti. Non ci illudiamo. Le imprese, anche la splendida iniziativa che è stata prima raccontata, deve verificare innanzitutto se rispetta il regolamento domani, ma non tra un mese, domani, perché altrimenti non può svolgere quell'attività economica. È un tema di compliance, come ha detto il direttore. La prima cosa è verificarlo. Finisci, finisci. Sì, sì, no, certo, ma il piano era per l'appunto a questo, ma lo rispetta il tuo... Ma certo lo rispetta. La breve risposta è sì, ma comunque rendiamoci conto che il regolamento dice non costruire armi e non andare a calpestare i diritti umani. E' di questo che stiamo parlando. Cioè, il regolamento è un vantaggio competitivo, perché rallenta chi entra e dà un punto di forza a chi, in questo caso, dall'Europa deve competere nel mondo. Quindi, dal nostro punto di vista, da costruttore dei modelli, io non vedo il problema del regolamento. Lo vedo come un vantaggio competitivo. Prego, Roberto. No, grazie. Io ho parlato poco, perché era giusto che parlassero i panelist, chi fa le cose deve ascoltare gli altri. Piccolissime precisazioni, proprio piccole. Non c'è nessuna prova che le IACT sia un costo così insopportabile per imprese e che era uno scenario alternativo. L'Europa non faceva nulla. E 27 Stati, vedo uno in particolare che subito si è, però dica a fare una norma nazionale, che avrebbero fatto una cosa abbastanza irrazionale, sarebbe stato meglio, o migliaia di giudici sarebbe stato meglio. Perché le IACT molto è self-compliance. Nel caso di IGENIUS è un algoritmo che sta, così detto, sotto la soglia ed è aperto, quindi sostanzialmente non ha nessun particolare obbligazione rispetto alle norme. L'unica cosa dovrà pubblicare un riassunto molto succinto come ha fatto il training dell'algoritmo, e questo è. Per cui voglio dire che non bisogna adesso trammatizzare. L'altra cosa è, l'ha detto benissimo Marta Dassou, c'è un lavoro non molto noto, i principali cosiddetti uffici per l'intelligenza artificiale, quello dell'Europa, degli Stati Uniti, del Giappone, dell'Inghilterra, sono facendo un lavoro di armonizzazione della cultura della sicurezza. La definizione delle IACT non è esoterica, viene dall'OXE, dal lavoro che è stato fatto in comune, ed è la definizione adesso utilizzata. Certo, è un po' esoterica, perché comunque rende in termini giudici l'intelligenza artificiale non è proprio facilissimo. Quindi voglio dire, c'è questo tipo di lavoro proprio per evitare che comunque l'aspetto della compliance, che è importante in questo settore, si prenda al settore dell'aviazione. La Boiga ha pagato un prezzo altissimo per aver gestito in maniera non trasparente un problema di software, sarà così anche nell'intelligenza artificiale. Per cui il tema della compliance in un'industria come questa, sarà come nell'aviazione un tema importante, fondamentale, perché ovviamente con algoritmi che influenzano tutto, dalla salute alla gestione della cosa pubblica, all'impresa, è chiaro che il tema della sicurezza e la trasparenza sarà un tema fondamentale. E l'altro tema, indubbiamente, è quello geopolitico. Cioè, il tema geopolitico si inserisce in un mondo meno globalizzato, più polarizzato, con grandi punti interrogativi rispetto a quello che abbiamo fatto in due mesi. Per cui su questo ci sono questi tentativi di dialogo, diciamo, un po' ostentati, ma necessarie di nuovo, perché la storia dell'uomo insegna che tutte le grandissime rivoluzioni, e questa è una di queste, abbiamo fatto la cività delle macchine e abbiamo inquinato il pianeta e adesso dobbiamo cercare di capire come riparare la cosa. Abbiamo compreso l'energia atomica e abbiamo inventato le armi atomiche. Quindi è chiaro che c'è un'altra faccia di tutta la questione dell'intelligenza artificiale, che la società delle nazioni deve cercare di tenere, diciamo, una narrativa che deve cercare di evolvere. Non sarà facile, perché il mondo in questo momento non si parla, sostanzialmente, però ci si deve provare. Io ringrazio tutti i panelist e il pubblico per questo tema. Se ci avete... Se ci avete ascoltato fin qua, perché è oggettivamente un tema appassionante da comprendere, tutti ci hanno messo il loro punto di vista e spero che in qualche modo una geografia della comprensione di questo fenomeno sia migliorata. Se vi è piaciuto questo panel, ce ne saranno altri su questo argomento, sulle infrastrutture, e oggi alle 4, di nuovo con Roberto Viola per parlare delle AI Act del libro che ha appena scritto su questo argomento. Grazie a tutti. Grazie a tutti. Grazie a tutti.
{{section.title}}
{{ item.title }}
{{ item.subtitle }}