Geopolitica e nuove armi dell’intelligenza artificiale
Incorpora video
Geopolitica e nuove armi dell’intelligenza artificiale
Un dibattito su come l'intelligenza artificiale e le nuove armi stanno trasformando la geopolitica, con focus sulla difesa, la sicurezza nazionale e il ruolo della società civile.
intorno a questo argomento. L'intelligenza artificiale, la guerra, le nuove armi è naturalmente un pensiero sulla geopolitica di fondo, questo cambiamento così clamoroso che stiamo vivendo sia per le scelte che negli ultimi dieci anni sono state fatte dalla Russia, sia per le scelte che negli ultimi due mesi sono stati fatti dagli Stati Uniti. Noi siamo l'Europa, siamo al Bivio, siamo di fronte a scelte molto significative, identitarie, chi saremo fra cinque anni dipende anche da quello che decidiamo adesso e purtroppo dipende anche da quello che diciamo adesso sulla difesa. E allora parliamone con prima di tutto Stefano Mannino, presidente del Centro Alti Studi della Difesa, un'istituzione che fa parte di un sistema educativo del mondo militare che quando un civile, come loro ci chiamano noi civili, è bello essere dei civili, anche in questa epoca essere civili, quando noi civili ci approcciamo al loro mondo, una delle tante scoperte che si fanno è un'attività di educazione permanente straordinaria con continui nuovi corsi di aggiornamento sia specialistici sia strategici, specialmente per le persone che hanno delle responsabilità ufficiali. Poi abbiamo Sara Tonnelli che è responsabile dell'unità di ricerca alla fondazione Bruno Kessler a Povo, a Trento, che si occupa di disinformazione e tutto ciò che viviamo quotidianamente nella nostra vita digitale. Abbiamo Pier Domenico Garrone che è un comunicatore, ha una responsabilità anche di advisor al Ministero della Difesa e ci aiuterà a definire quali sono gli obiettivi di una difesa soprattutto nel mondo dei media che viviamo quotidianamente. Infine Michele Corradino, presidente di sezione del Consiglio di Stato, una delle massime istituzioni della nostra Repubblica per quanto riguarda come organizziamo il nostro rapporto con il diritto e con soprattutto il diritto pubblico, la nostra vita giuridica profonda. E quindi ne parleremo di questi argomenti con questi interlocutori, cominciamo con Stefano Mannino, dove siamo, qual è la situazione in questo momento, che cosa vediamo rispetto al tema armi, intelligenza artificiale. Grazie Dottor De Biase, innanzitutto buongiorno a tutti, è per me veramente un piacere, un onore poter essere qui e condividere con voi riflessioni che scatoliscono dalla mia esperienza professionale e progressa e attuale come rettore della Università della Difesa ma anche quella del Dicastero che rappresento. Innanzitutto vorrei dire che sono estremamente contento di vedere a tanti ragazzi giovani, perché Dottor De Biase lei ha detto cosa saremo tra cinque anni. Io tra due anni sono in pensione, quindi non so cosa saremo tra cinque anni, ma una cosa è certa che i ragazzi che oggi sono qui presenti saranno sempre più gradualmente nel futuro gli attori principali e speriamo protagonisti del futuro di questo Paese e delle organizzazioni a cui partecipiamo. Quindi uno stimolo ai nostri ragazzi a prestare attenzione, io cercherò di parlare, e me ne scuso con chi porta i capelli bianchi come me, un linguaggio molto semplice, ma per far capire a questi ragazzi quello di cui discutiamo oggi non è un qualcosa che deve riguardare solo chi in un certo momento storico si trova nei posti decisionali ma riguarda ogni singolo cittadino e riguarda loro oggi, perché domani mattina, ripeto, diventeranno loro i protagonisti di questa situazione. Partirei, se mi permette, da una definizione, prosperità. Cos'è la prosperità? La prosperità è sostanzialmente la mission principale che qualunque governante in un Paese dovrebbe avere come riferimento nell'attività quotidiana. Cos'è prosperità? La prosperità di un Paese, di uno Stato, di una Nazione è innanzitutto la tutela e la salvaguardia delle sue istituzioni. Le istituzioni sono il portato e sono il crogiolo di tutti quelli che sono i valori della nostra cultura, della nostra società, del nostro popolo. Quindi quello che ragazzi voi oggi vedete in termini di istituzioni dovete vedere è quello che è il portato della nostra società nel corso della storia. Prosperità è anche il fatto che ognuno di noi possa avere libertà di parola, libertà di pensiero. Prosperità è il fatto che un Paese possa avere un impianto industriale o economico che permetta ognuno dei vostri genitori o ognuno di noi di poter vivere una vita quanto più decorosa. Tutto questo ha a che fare con quello che se viene messo in discussione la prosperità si chiama sicurezza nazionale. Quindi tutte le minacce che da qualunque dimensione possono andare a intaccare la sicurezza nazionale diventano un problema non solo dei governanti ma di ognuno di noi perché hanno a che fare con il nostro Paese e con la nostra società. Subito dopo la seconda guerra mondiale per la tragedia immane alla quale l'umanità si era trovata di fronte si era capito che bisili stati nella tutela degli interessi nazionali dovevano tra di loro collaborare. Ci sono creati le grandi agenzie internazionali, le Nazioni Unite sono una di queste. Ci si era ripromessi le controversi internazionali di risolverle pacificamente dando alla diplomazia ai nostri rappresentanti in queste organizzazioni la possibilità di poter confrontarsi a divenire soluzioni pacifiche. Vi erano tutto un sistema di relazioni internazionali e vi era un mondo che girava a una velocità relativamente lenta per cui i problemi che erano complicati potevano essere singolarmente risolti e si viveva relativamente bene. Oggi il mondo è completamente cambiato, oggi non si parla più di collaborazione ma si parla di competizione spinta tra gli Stati. Gli Stati oggi hanno difficoltà a parlare tra di loro perché le risorse disponibili sono sempre di meno, quelle necessarie aumentano perché è entrata in gioco un fattore abilitante straordinario che sono le tecnologie emergenti di cui l'intelligenza artificiale è solamente una di queste. Voi vi troverete a vivere in un mondo dove sentirete parlare di tecnologie quantistiche, dove sentirete parlare di accesso allo spazio, dove sentirete parlare di accesso all'underwater, quindi voi vivrete una complessità ancora maggiore. Quindi si è passati da collaborazione a competizione, una competizione molto spinta molto forte, si è passati da un mondo che andava relativamente piano a un mondo che ogni mattina ci presenta una complessità diversa, quindi da problemi complicati a problemi complessi. Oltre a questo gli Stati hanno perso un po' quella che era la loro singolarità. Oggi abbiamo attori internazionali che svolgono anche attività nell'ambito politico e di politica internazionale che sono le grandi compagnie high tech, sono i grandi gruppi finanziari. Avrete notato? Cioè sono i civili privati, oggi gestiscono e cogestiscono con i nostri governanti che sono i nostri rappresentanti le dinamiche del mondo, non essendo stati eletti da noi. Non vi sarà sfuggito che la presentazione dell'inaugurazione del presidente Trump, mancano tanti capi di Stato non invitati, in compenso c'erano tutti i CEO, gli amministratori delegati o presidenti delle grandi compagnie tecnologiche. Oggi loro svolgono ruolo che fino a ieri gli avrebbe svolto un ente governativo. Perché dico questo? Andiamo alla sua domanda. Perché noi siamo a questo punto completamente esposti, noi italiani ma lo sono tutti i paesi, quotidianamente veniamo minacciati da attentativi di attori terzi, alcuni anche vicini a noi, che per tutelare e valorizzare i loro interessi nazionali vengono a attaccare i nostri. Lo vediamo in campo economico e infatti si parla di guerra economica, i dazi sono una guerra economica, però una guerra che non fa paura perché non porta sangue e macerie, ma è una guerra altrettanto straordinariamente impattante su quello che il nostro sistema economico produttivo e quindi quelli che sono poi la nostra prosperità. Si parla di guerra nel campo cognitivo, cos'è il campo cognitivo ragazzi? Voi ogni singolo minuto siete esposti a questo tipo di minacce. E' sostanzialmente il tentativo da parte di attori terzi, facciamo anche nome e cognomi, Cina, Russia sono i principali, che studiando quelle che sono i nuovi risvolti sul studio della mente umana cercano con campagne informative, mediatici e strumentali di poter modificare il vostro modo di pensare. Il vostro modo di agire, il vostro modo di comportarvi ma anche il nostro, anche il modo di agire e comportarsi dei nostri decisori politici o di altri ambiti, addirittura le elezioni, come lo fanno? Lo fanno attraverso lo strumento, il veicolo più innocuo che possiamo pensare, i telefonini, l'accesso alla rete, internet, un qualcosa dove chi sta da questa parte non ha il controllo, i vostri genitori non hanno il controllo di cosa andate a leggere o a fare, quindi non è un'opinione. La politica non ha il controllo di che informazioni passano e quindi attraverso i telefonini, attraverso questa guerra cognitiva, viviamo e siamo tutti immersi in un mondo di disinformazione, di misinformazione, non si riesce più a capire chi è chi attacca e chi è chi difende, cosa è vera e cosa è falso. Vi assicuro che con la mia precedente esperienza da capo dell'intelligenza militare, cioè di uno che doveva consigliare il ministro, il primo ministro, sugli aspetti di sicurezza, avevo anche a difficoltà a dirgli esattamente quale fosse la verità, perché talmente c'è disinformazione a tutti i livelli per cui si ha difficoltà, quindi è una guerra, è una guerra cognitiva. E poi abbiamo le guerre che invece conosciamo, quelle che tendono in termini di prosperità a togliere il terreno al nemico, quindi vanno a toccare la sovranità territoriale, l'integrità territoriale, quella che vediamo in Ucraina. L'Ucraina, anche se con altri fini, è una guerra che è combattuta per avere porzioni di territorio ed è quella che ci fa più paura, Gaza, Gaza è il controllo del territorio, di chi ci sta dentro. Quella logicamente scuote il cuore e le menti, ci pone di fronte al sangue, alla morte, alla carestia, alle macerie, però non è solo quella, non è solo quella. E quindi quando molti vanno a criticare oggi l'investimento, l'attuale o futuro, nella difesa, intanto non userei più la parola difesa, parlerei di sicurezza, si parla di sicurezza nazionale. Quando si parla di investimenti, da aumentare, da aumentare di x punti percentuali sul prodotto interno lordo, non è per andare a fare la guerra, ma per mettere in campo un sistema, un'articolazione istituzionale in grado di gestire tutta questa complessità di minacce che provengono. Nessuno probabilmente si ipotizza che Putin passerà con i suoi carri armati sotto il lungotevere di Roma, penso di no, insomma, anche perché vedendo i risultati territoriali che ha conquistato in tre anni prima che arrivi da noi ce ne vorrà. Ma la Russia, la Cina sono costantemente una minaccia per i nostri interessi nazionali. Lo sono anche con attività che non svolgono direttamente in Italia o su reti e sistemi nostri, come potevano essere magari attacchi cibernetici, ma magari andando a influenzare e occupare persone del territorio molto lontane. In Africa, perché questa attenzione all'Africa? Se voi avete la fortuna di viaggiare, come ce l'ho io, in giro per il mondo, troverete cinesi ovunque. L'Africa è un paese che ormai è presidiato da cinesi, perché lì ci sono le terre rare. Le terre rare sono quelle terre che permettono la produzione delle schede, le GPU che sono oggi fondamentali per tecnologie di natura, intelligenza artificiale quantistica. Quindi quello che oggi è, parleremo dopo, la necessità di essere competitivi, essere autonomi, essere urani nell'intelligenza artificiale, parte magari da una miniera di terra rara che sta in Sudafrica, etc. Taiwan, si parla tanto di Taiwan. Molti continuano a dire che il problema di Taiwan è perché nell'ottica della mentalità cinese di Wanchina, quello era un territorio che ideologicamente apparteneva alla Cina. Sì, è vero, ma in realtà Taiwan ci sono due delle quattro uniche aziende al mondo che producono le stampanti per produrre le schede grafica per l'intelligenza artificiale. Quindi, per esempio, la terza in Norvegia e la quarta in Stati Uniti. Avere accesso a quelle due fabbriche, il congine del controllo di Taiwan, permetterà Xi Jinping di raggiungere l'obiettivo nel 2030, che lui ha dichiarato, di essere il primo paese al mondo proprietario dell'intelligenza artificiale, che è uno dei livei straordinariamente importanti per la gestione della geopolitica. Ecco, quindi voi dovete essere sensibili a queste tematiche, non fermarvi solo a quello che leggete sul titolo di un giornale. Anzi, vi consiglio di leggere per ogni argomento due o tre giornali di natura diversa, allora vi potrete fare una idea chiara di quello che avviene. Perché queste sono cose che poi avranno un impatto anche, soprattutto, per voi, e qui poi passo la parola, perché la stampa ha una funzione fondamentale. La stampa ha la responsabilità di fare informazione, ma la deve fare in maniera importante, serena e chiara. Capisco che ci sono problematiche di natura politica che intervengono, però la tenuta di una società è funzione di quanto la società è acculturata, educata e educata bene. Altrimenti partiamo male, altrimenti siamo anche noi stessi a creare disinformazioni, a creare ancora confusioni, ma su questo penso che il comunicatore, il consigliere Garrone, ci potrà dare un'indicazione. No, perché i giornali sono queste cose qua, non so se le avete mai visti. Obiettivamente non sono male. Se cascano non si rompono, non hanno bisogno della pila, funzionano sempre, non si ricaricano. Poi contengono delle informazioni che sono fatte quando ci va bene, non per spaventare ma per informare, cioè per documentare quello che si dice, al di là degli scherzi. Da questa parte vedo qualcuno che si ricorda ancora che cosa sono i giornali, ma obiettivamente il tema non è tanto i giornali, quanto un metodo di informazione che stiamo un pochino dimenticando, un metodo che ci aiuti a vedere quali sono le notizie documentate, verificate in maniera indipendente, non di propaganda ma di ricerca e quelle che sono titoli o informazioni che servono soltanto a spaventarci e quindi in qualche modo a governarci. C'è una cosa che ci toglie la libertà e la paura e infatti stiamo parlando di sicurezza. Quindi questo investimento nella sicurezza ha degli aspetti concreti. Fino adesso Stefano Manino ci ha parlato dello stato strategico nel quale ci troviamo da un punto di vista culturale e ha sottolineato queste parole prosperità e sicurezza per darci un po' le motivazioni sul perché stiamo parlando di queste cose. Obiettivamente io ho cercato e cercherò durante questo panel di puntare in avanti. Noi siamo l'Europa, chi siamo come Europa, cosa decideremo, come decideremo di fronte a un mondo che c'è stato sottolineato, è un mondo nel quale c'è una competizione forte per le risorse, risorse che fino a qualche tempo fa non tenevamo un po' in giro. Noi siamo presenti, la geopolitica una volta era il petrolio, adesso sono questi luoghi nei quali si formano le tecnologie dell'intelligenza artificiale che a questo punto diventano la nuova risorsa strategica. La Cina, l'Africa, la Russia, la Russia che ha preso il Sahel, non so se questo è tutto il braccio di territorio alla fine del Sahara dove ricomincia la vegetazione verso sud in Africa ed è come la sponda sud del Sahara dove lì i russi hanno occupato gran parte del territorio. E lì ci sono terre rare, uranio e altre cose, oltre che le persone che ci vivono che francamente stanno imparando il russo. Sappiamo dell'Ucraina e delle armi governate dall'intelligenza artificiale dove sistemi di attacco terribili agiscono strada per strada con dei droni che inseguono i civili. Quindi di fronte a questo sono cose che noi non possiamo non tener presente. La Fondaline ha parlato di un piano per difendere il berlemon, cioè il palazzo della commissione, da un attacco di droni. Non è che lo abbia fatto perché si sogna di notte, non lo ha neanche fatto perché ha letto su internet una notizia probabilmente, o sì. Vediamo un po' Sara Tonnelli come ci aiuta a difenderci dalle informazioni che per motivi strategici, per motivi militari, per motivi di business, per motivi politici interni, perché poi noi abbiamo anche il problema che all'interno siamo molto competitivi. Succede che abbiamo una quantità di informazioni strumentali che vogliono in qualche modo toglierci la capacità di leggere la realtà e darci un comportamento etero diretto. Sì, buongiorno a tutti intanto. Appunto io mi occupo di intelligenza artificiale e inevitabilmente l'impennata che ha avuto il fenomeno della disinformazione va a bracetto con la migliore qualità delle tecnologie di intelligenza artificiale di cui disponiamo adesso. Penso che tutti abbiamo provato ad usare chat GPT e siamo rimasti stupiti dalla qualità del testo che ci ha composto. La differenza rispetto a tecnologie esistenti in precedenza che comunque c'erano ed erano in grado di generare testo, la differenza è nella personalizzazione che è la chiave per riuscire ad accedere agli utenti a convincerli. Il fatto che il sistema, una volta che comprende il nostro profilo, le nostre preferenze, anche i punti deboli su cui è più possibile convincerci, riesce a auto-tararsi in modo da generare messaggi pensati proprio per noi. E' uno studio proprio di alcuni colleghi di FBK che hanno dimostrato che GPT4, se ha accesso alle informazioni della persona con cui sta dialogando, è considerato più persuasivo, più convincente di un interlocutore umano. Questa cosa la vediamo applicata anche in casi con cui ci scontriamo tutti i giorni. C'è uno studio che dimostra che news di matrice rusta, che sono state diffuse in Europa in lingue diverse, parlano dello stesso evento, ma il framing che gli è stato dato è diverso, targetizzato a seconda del paese in cui sono state diffuse. Per cui in alcuni paesi la leva è più sul motivazione politica, per altri è più economica, per altri magari è più sentimentale. Quindi questa modifica in base a chi sarà il target della mia news, del mio messaggio, è una cosa che l'intelligenza artificiale purtroppo a oggi fa molto bene. In alcuni casi l'intervento virtuale addirittura arriva ad anticipare quello poi reale ancora. C'è solo degli studi che dimostrano come anni prima dell'invasione dell'Ucraina in realtà la Russia ha iniziato a lavorare sulla narrativa dell'Unione Europea come nazista. Questa narrativa ha iniziato a circolare 7-8 anni prima dell'invasione e narrative simili diciamo, e hanno quasi preparato il terreno poi per l'azione vera e propria. Parliamo per esempio di bot, anche qui il fenomeno bot in realtà non è così nuovo, probabilmente da quando c'è Twitter o da quando ci sono queste piattaforme di micro-messaging, esiste anche il fenomeno dei bot. Il fatto è che una volta si parlava di eserciti di bot, quindi migliaia di utenti fake che in qualche modo autonomamente postavano contenuto. Adesso arriviamo a un'orchestrazione più sofisticata, perché appunto questa intelligenza artificiale, adesso siamo arrivati a parlare di augmented human, cioè un setting in cui c'è una persona con un'intenzione di diffondere un certo tipo di informazione che dispone di una sorta di esercito di bot, però più intelligenti che quindi per esempio conoscono la rete in cui si vanno a diffondere le informazioni e sanno su quali punti della rete andare a fare il intervento, quindi a intervenire per esempio in un social network sugli utenti, quindi sui nodi più attaccabili, magari quelli più visibili per cui se loro mi retweetano sono quelli che mi fanno raggiungere più persone. Poi questo viene da tecnologie che appunto si basano su intelligenza artificiale e sugli studi delle reti, poi c'è il caso più eclatante probabilmente quello delle elezioni in Romania, anche qui degli studi hanno dimostrato il ruolo fondamentale che hanno avuto i social network e la manipolazione dei social network. C'è stata un'elezione l'anno scorso che poi è stata annullata dalla Corte Costituzionale e lì si è visto proprio come su alcune piattaforme ci siano stati delle azioni orchestrate dall'esterno della Romania per spingere un candidato. Studi per esempio su Facebook hanno visto come prima delle elezioni ci fossero una serie di account che postavano contenuti a distanza di 10 secondi l'uno dall'altro, quindi chiaramente non un intervento umano che andava a scrivere i post ma un intervento automatico e anche lì con un design del tipo di informazione da diffondere. Quindi un certo periodo prima dell'elezione si sono creati questi account e iniziavano a postare contenuti più sentimentali e emotivi, quindi compleanni, bambini, anziani, in modo da creare una prima cerchia di amici o di follower sensibili a questo tipo o che apprezzavano questo tipo di contenuto. Appena prima delle elezioni poi il contenuto è virato su temi politici e contenuti più finalizzati a suscitare paura nell'elettore, quindi notizie su disastri, su attacchi e tutto questo orchestrato in qualche modo da influenzare l'esito delle elezioni TikTok e in un certo senso ancora peggio. Lì proprio TikTok ha dovuto silenziare due network, due sotto network diciamo di TikTok in cui si è visto che appunto si postavano, che erano intanto account Fasulli, che postavano delle pseudo news quindi informazioni che sembravano reali ma in realtà erano fake news anche in questo caso in modo orchestrato molti account diciamo che partivano da account turchi. Addirittura nel periodo preelezioni appunto dell'anno scorso il candidato che poi ha vinto in un certo punto era nono nel ranking mondiale di visibilità dei video che è una cosa data la dimensione della Romagna, chiaramente qualcosa di orchestrato, non normale. La storia d'attenzione era comunque alta anche in queste nuove elezioni che ci sono state da poco quindi il fenomeno è stato controllato però comunque si sono osservate delle cose che sono successe su TikTok per esempio siccome l'algoritmo è sensibile agli emoji, se uno mette degli emoji l'algoritmo capisce che il contenuto probabilmente è emotivo e quindi lo spinge lo rende più visibile allora c'è stata diciamo la campagna a favore del candidato di TikTok che è un'idea di estrema destra postava messaggi molto brevi con il nome del candidato e una sfilza di emoji faccia con i cuoricini in modo molto simile uno all'altro migliaia di messaggi postati così che hanno aumentato tantissimo la visibilità di questi contenuti quindi è davanti ai nostri occhi, ecco come l'intelligenza artificiale viene usata per questo tipo di attività mi sento anche di dire che anche l'arma per combattere questo fenomeno viene dall'intelligenza artificiale quindi ci offre tutti degli strumenti per esempio per capire quando un contenuto generato è fake, per fare queste analisi della rete, per capire quali sono i punti più deboli in cui un attacco potrebbe andare a colpire quindi provare a prevenire, quindi per capire questo tipo di attacco noi lavoriamo molto con fact checker, l'attività di fact checking è un'attività molto dispendiosa che viene inevitabilmente fatta a mano perché bisogna valutare le fonti, ci vuole conoscenza di domini quindi lì è ancora difficile che un'intelligenza artificiale sostituisca l'esperto ma possiamo fornire con le tecnologie strumenti per velocizzare moltissimo questo processo che ora è lento quindi reperimento di informazioni, informazioni addirittura multilingue quindi permettendo al fact checker di andare ad attingere a notizie che lui non riuscirà a leggere e addirittura come diciamo i bot in automatico postano contenuto nulla ci vieta anche se vogliamo contrastare questo tipo di propaganda anche noi di utilizzare dei sorti di bot che postano contenuto che sia però efficace per contrastare per esempio l'odio, c'è tutto un lavoro sulle contro narrative come contrastare in modo targetizzato come fanno i bot anche nel combattere la disinformazione o l'odio online quindi le armi sono anche dalla parte di chi vuole contrastare la disinformazione, la propaganda e sono armi della conoscenza, della ricerca io parlo poi per il mio campo come vedete il tema della ricerca è a sua volta coinvolto in pensieri che magari dieci anni fa non facevamo insomma il senso di quello che si fa a povo insomma ripeto dieci anni fa si parlava di fact checking anche a Trento c'è nato un'iniziativa che si chiamava factchecking.it e aveva uno scopo diciamo pacifico adesso qui stiamo parlando della stessa cosa ma in un contesto che sta cambiando ora io non voglio fare drammatica anche perché vorrei che riuscissimo a pensare tutto questo in maniera orientata al futuro per costruire una nostra mentalità attiva non tale da subire questi fenomeni come se fossimo delle marionette ma noi siamo gente intelligente grazie agli scienziati anche molto intelligente possiamo sviluppare strategie diverse torniamo poi a parlare di queste cose ma magari non riusciamo in un secondo giro ma una delle cose che possiamo in qualche modo difendere coltivare sviluppare la nostra stessa identità chi siamo perché siamo fatti in questo modo perché abbiamo qualche cosa da affermare i nostri valori che valgono il fatto di non essere violenti a prescindere nei confronti degli altri è un valore ha un senso e questo tipo di identità va in qualche modo preservato da molti punti di vista sia noi stessi che ci riflettiamo sopra sia con delle azioni strategiche una delle quali riguarda la reputazione che è l'aspetto esteriore della nostra identità in qualche modo forse ne vuole parlare Pierdomenico Garrone che è di questo si occupa la reputazione come risorsa come possibile modalità con la quale in qualche modo isolare gli attacchi alla nostra identità e trasformarli in qualche cosa di meno credibile di quanto sono grazie al Sole 24 Ore che ha posto un tema che per le voci del domani che sono rappresentate qui in sala credo che sia fondamentale qui intanto capiamo subito una prima cosa che questi sono argomenti interdisciplinari non ci può essere una sola professionalità che li affronti qui vediamo il mondo della ricerca, vediamo il mondo che lo usa la ricerca, usa i contenuti, l'informazione che diventa sempre più importante siamo arrivati se per non dire siamo tornati se lo dice il Sole 24 Ore una volta si diceva se lo dice la RAI o se lo dice l'ANSA è una notizia cioè quello che appunto si parlava prima della certezza dell'informazione parlerà il presidente Corradino dei temi giuridici per dire questa complessità questa gestione e complessità non è un derby tra intelligenza artificiale e l'uso forse un po' più accentuato degli 80 miliardi o 100 miliardi di neuroni che ciascuno di noi dispone che nel nostro ecosistema ma è quello di un'apertura più serena più tranquilla nel essere protagonisti di una contemporaneità che in questo Paese nata nel 2000 il nostro Paese è stato il primo a adottarsi di una rete UMTS che ha consentito poi la creazione di questi modelli nel 2000 con il 3G e quindi con la possibilità di uno scambio in mobilità questo scambio in mobilità si è amplificato con dei modelli che sono diventati modelli di cui oggi parliamo il tema fondamentale è la percezione e quindi le azioni che noi mettiamo in campo ogni giorno nel nostro vivere che generano delle percezioni e queste percezioni diventano poi fatti reputazionali e che possono impattare nella relazione sociale o nella relazione anche professionale l'approfondimento su questi temi fa sì che l'Italia esposta nell'ambito dei suoi impegni internazionali in questo periodo abbia dovuto affrontare con una crescita e un'accelerazione verso la quale bisognerà adottare diversamente anche le strutture dello Stato mentre c'è un'accelerazione tecnologica noi dobbiamo rapidamente far sì che le decisioni non mantengono questa dimensione da moviola non è più possibile avere delle istituzioni che impiegano tanto tempo per assumere una decisione quando nel resto del mondo la stessa decisione viene assunta in tempi molto più rapidi questo ci esporrebbe a condizioni di fragilità la reputazione è un'infrastruttura personale riguarda la sovranità digitale oggi di ciascuno di noi e complessivamente di un paese quando si parla di sovranità digitale negli anni passati si veniva attacciati come nazionalisti oggi riguarda invece quello che appena ha parlato il dottor De Biase cioè il fatto che bisogna essere coscienti della propria identità e imparare a collaborare ad aprirsi con tutti nessuno di noi è più esaustivo vi è una necessità di confronto costante e queste complessità che riguardano queste integrazioni tra diritto e comunicazione dimostrano che la vita di ciascuno di noi deve essere realizzata con un'attenzione particolare e quando realizziamo oggi un fatto non è più un fatto che rimane tra di noi ma viene divulgato e qui passiamo a un tema che è quello della eternizzazione del dato qui siamo nella casa di una compagnia di assicurazione una volta le polizie di responsabilità civile professionale riguardavano i pochi fatti che un professionista poteva realizzare e apriva dei sinistri per i propri errori quando siamo nell'ambito digitale l'eternizzazione del dato oltre che a generare il tema del sinistro e quindi del risarcimento determina anche un tema del ripristino della reputazione perché un tema fondamentale è quello di ritornare a essere percepiti prima del fatto per il quale noi siamo stati magari additati per un avviso di garanzia che poi sia risolto in una soluzione o per un'altra controversia questo del ripristino della reputazione è un fatto concreto, un fatto che può limitare per un'azienda anche l'accesso al credito o per uno stato ampliare le proprie opportunità di progresso per quello che occorre soprattutto quando si fanno delle scelte meditare quali sono questi impatti e questa valutazione degli impatti scende poi nel campo di cui il presidente Corradino sono certo avrà ad entrarsi di tutti gli aspetti giuridici e di cambiamento quello che noi abbiamo vissuto fino a oggi è un modello di vita che non esisterà più a breve noi dobbiamo abituarci ad affrontare nuove metriche di misurazione, dovremo anche cimentarci con la nostra creatività a generare una cultura contemporanea perché è la cultura che ci può veramente tutelare nell'ambito dell'applicazione oggi parliamo dell'intelligenza artificiale e domani di altri strumenti uscendo da quello che io, scusate se banalizzo il paragone, confondere il televisore con la televisione, gli strumenti dalla qualità e dalla capacità dei contenuti perché con la cultura possiamo dominare e far vincere costantemente l'intelligenza artigianale sulla qualità e sull'intelligenza artificiale che deve essere uno strumento utile all'uomo per il proprio progresso e deve essere assolutamente alimentato, ieri Seminenza Ravasi ha dato giusto un senso perché su questo tema dell'intelligenza artificiale il confronto credenti e non credenti troverà anche dei punti di congiunzione sull'essere e la presenza dell'uso dell'intelligenza artificiale questo secondo me è il primo aspetto anche importante, quello che parlando di tecnologie e ritornando all'essere delle persone le affrontiamo anche rispetto alla base valoriale che ciascuno di noi intende rappresentare nella propria vita Questo è appunto un lato che dobbiamo affrontare in maniera evolutiva, quando uno dice che il modo di vivere del passato non esisterà più potrebbe alludere a qualcosa di triste ma la questione è che è sempre così, siamo sempre in evoluzione, stiamo sempre trasformandoci, il bello se possiamo dire così di vivere è proprio quello di riuscire a trasformarsi in maniera consapevole, capaci di leggere la contemporaneità e viverla fino in fondo, questo è poi quello che veramente vogliamo fare Evidentemente è una contemporaneità estremamente sfidante a livelli profondi, come siamo organizzati collettivamente, come decidiamo insieme, che tipo di linee guida ci diamo per decidere, per dire cosa è giusto e cosa è sbagliato in questo momento Tenete presente per esempio che l'EIAGT, la legge che l'Europa si è data per governare l'intelligenza artificiale, non agisce, non ha competenze sul mondo militare, sul mondo delle armi E di questo tipo di cose ce ne sono molte, molte realtà sono governate in un certo modo ma per il mondo militare non lo sono, per esempio le conseguenze ecologiche degli strumenti militari non sono regolate nello stesso modo degli altri Una nave militare ha meno obblighi o obblighi diversi da una nave civile, quindi c'è una dimensione che dobbiamo riconquistare, la nostra visione civile, con quali strumenti affrontiamo le regole civili, le regole e i nostri valori nel mondo militare che diventa più grande, ha una dimensione più importante nella nostra vita M. Corradino Grazie, buongiorno a tutti Dottore De Biaserei ha detto una cosa importante, questa contemporaneità sfidante è caratterizzata dalla velocità, dalla velocità con cui la tecnologia si evolve e gli strumenti che abbiamo, forse parlo degli strumenti normativi, degli strumenti di regolazione di questa contemporaneità, appaiono immediatamente non capaci di seguire questa velocità Per cui è un paradosso, ma questa normativa che richiamava l'AI Act, che è questa normativa europea che regola l'intelligenza artificiale nella maggior parte dei settori, del settore civile soprattutto E paradossalmente, pensate anche alla normativa che l'Italia sta per adottare, non l'ha ancora fatta, è passata alla Camera, al Senato, in questi giorni viene votata, questa stessa normativa risulta già vecchia, incapace di governare questi fenomeni Ma per un problema strutturale, cioè per il modo di essere di questo fenomeno, per il modo di essere dell'intelligenza artificiale, è pensata questa normativa, sia quella europea sia quella italiana ancora da realizzare Pensando ad un'intelligenza artificiale in cui gli algoritmi erano basati su una legge che precede gli algoritmi, per cui gli algoritmi, l'intelligenza artificiale era solo un modo di velocizzare la realizzazione degli obiettivi individuati dalla legge Era tutto chiaro però, invece oggi noi ci troviamo di fronte ad un'intelligenza artificiale che è generativa, è fondata sulle reti neurali, addirittura oggi si parla di questa agentica, questa in cui c'è un'intelligenza artificiale che addirittura svolge compiti, lo dico in maniera atecnica, perdonatemi, svolge compiti addirittura per il soggetto che li chiede in maniera del tutto autonoma e questi strumenti normativi sono in grado di regolare questa intelligenza artificiale, sapete su che cosa si basano? Si basano su due principi, anzi tre, uno però va bene, è il principio di non discriminazione, i dati che inseriamo devono essere dati corretti, se no, se mettiamo spazzatura all'inizio, c'è spazzatura alla fine, è questo evidente però ce ne sono altri due che insistentemente noi ritroviamo nella normativa europea, nella normativa italiana, nella normativa degli altri paesi europei, sapete invece gli Stati Uniti e tutto l'altro, questo blocco mondiale non è molto portato a regolare l'intelligenza artificiale e sono il primo la conoscibilità, cioè si dice l'intelligenza artificiale va bene, purché però poi la scelta fatta dall'intelligenza artificiale sia una scelta ricostruibile, noi dobbiamo sapere come ha fatto a raggiungere un determinato obiettivo, deve essere conoscibile il sistema, il meccanismo, perché? Perché quando parliamo di amministrazione, quando parliamo di rapporto con il cittadino, quando parliamo di democrazia, l'aspetto fondamentale, è la partecipazione, la conoscenza e la partecipazione alla scelta, alla scelta che viene fatta. In realtà però in questa nuova intelligenza artificiale noi abbiamo un'area che è assolutamente imperscruttabile, nessuno sa perché una scelta è stata presa, c'è quest'area che viene chiamata black box, che è un'area in cui nessuno, neppure chi ha inventato l'intelligenza artificiale, neppure chi l'ha creata, quel programma, quell'intelligenza artificiale, sa perché è stata fatta una determinata scelta, sa la ragione di una determinata scelta e quindi noi abbiamo quest'area un po' grigio, un po' d'area di un po' d'ombra in cui non riusciamo a ricostruire perfettamente la scelta. Questo ovviamente è un problema per la democrazia, un problema per la partecipazione e un problema per l'amministrazione, ma c'è un altro tema, il terzo elemento su cui si basano tutte le discipline. Il terzo elemento è questa, si chiama non esclusività, sapete cos'è? Human in the loop, al centro ci deve stare sempre l'uomo, si continua a dire questa cosa, al centro di tutto deve stare sempre l'uomo. Ma voi ce lo vedete, quest'uomo, e poi andiamo a vedere chi è quest'uomo, un funzionario, un dirigente, un soldato, il quale deve decidere di non applicare una scelta che è stata fatta dall'intelligenza artificiale. Ma quest'uomo a cui abbiamo demandato questa decisione avrà la forza, la capacità, il coraggio di dire no all'intelligenza artificiale, di assumere una decisione autonoma? Ecco, quello che noi rischiamo è stato detto molto bene, è stato detto in realtà rischiamo l'illusione del controllo, cioè noi rischiamo di illuderci del fatto di avere controllo di questa scelta, mentre in realtà stiamo soltanto creando una sorta di delocalizzazione della responsabilità, cioè noi stiamo dando la responsabilità ad un soggetto al quale chiediamo di opporsi all'intelligenza artificiale, e in realtà questo soggetto forse non è alla forza, non è alla capacità, è un mero validatore, allora c'è un problema anche di confusione, sapete si parla di responsibility gap, cioè il fatto che non si riesce ad individuare di chi è la responsabilità dell'intelligenza artificiale, ma qui passiamo da questo vuoto di responsabilità ad una responsabilità oggettiva. Allora forse l'idea potrebbe essere un'altra e sta emergendo nel dibattito, è sempre più forte quest'idea, tra l'altro è emersa anche se avete visto in tutti gli interventi, in quella del general Mannino, del dott. Garrone, del dott. Stato Nelli, cioè l'idea che noi dobbiamo guardare diversamente alla prospettiva e provare a chiederci ma di chi è quest'intelligenza artificiale, cioè chi detiene i dati di quest'intelligenza artificiale, quando noi, parlo della pubblica amministrazione, acquistiamo un prodotto di intelligenza artificiale per applicarlo e per farne il soggetto che farà le scelte, e quindi vediamoci chi è il proprietario dell'intelligenza, chi è il proprietario dei dati, e in realtà andremo a vedere dei dati interessanti, cioè i proprietari dei dati si contano nelle dita di una mano, forse due probabilmente nel mondo, sono dei soggetti che hanno un bilancio superiore, quindi una forza economica superiore alla forza economica della maggior parte degli stati del mondo, anche se è certamente difficile paragonare un bilancio e il pill di uno stato, il bilancio della società e il pill di uno stato, sono soggetti che pongono problemi tipici di uno stato, sono erogatori di servizi che noi definiamo fondamentali, tant'è vero che si parla oggi di un diritto all'accesso digitale, sono soggetti che pongono problemi di sicurezza, si parla di cyber come ulteriore elemento, no? Accanto al cielo, terra, mare, oggi ci abbiamo nel fronte del cyber, sono dei soggetti ai quali noi deleghiamo il possesso dei dati, dati che prima erano tipici dello Stato, erano normalmente dati detenuti da soggetti pubblici, e invece oggi al contrario questi dati sono detenuti da soggetti privati che hanno la capacità di intervenire e di gestire, il dottor De Biase parlava dell'Ucraina e l'abbiamo visto quello che è accaduto quando Starlink ha deciso di staccare per poco tempo i dati, di non fornire più i dati. Ecco, allora probabilmente se noi vogliamo utilizzare questo strumento con maggiore sicurezza, perché è uno strumento dell'intelligenza artificiale che può garantire davvero sviluppo economico, sviluppo sociale, può garantire maggiore democrazia, lo diceva molto bene la Prossessa Tonnelli, con questa capacità dei botti di contrastare, no? Anche le fake news. Allora forse probabilmente potremmo porci qualche problema nuovo, un problema geopolitico innanzitutto, e chi sono questi proprietari dei dati a cui noi deleghiamo le scelte? Beh, quantomeno dovrebbero essere dei soggetti amici, dei soggetti alleati, dei paesi amici, dei paesi alleati. Abbiamo visto, si sta studiando in questi giorni il tema dell'avvelenamento dei dati, cioè la capacità che hanno alcuni soggetti di inserire dati falsi per falsare completamente le scelte, oppure modificare appena l'inserimento dei dati. Quindi dobbiamo essere sicuri dei soggetti a cui stiamo dando questa capacità di scelta. C'è un problema, lo diceva molto bene il Dottor Garrone, di sovranità digitale. E noi oggi abbiamo un tema delicato, cioè i dati sono detenuti da soggetti differenti dalle istituzioni pubbliche e forse probabilmente le istituzioni pubbliche dovrebbero farsi portatori, portatrici di una capacità di gestione dei dati, di immagazzinamento dei dati. L'Italia ci sta provando, non ci sta riuscendo ancora molto bene, ma ci sta provando. Non è di tutti i paesi provarci comunque. La sovranità digitale è molto importante. C'è un problema di formazione, perché questi soggetti ovviamente detengono la capacità tecnologica, ma anche la capacità formativa di chi sa usare questi dati. E poi forse così concluderei l'altro punto importante è quello della creazione di un rapporto forte pubblico-privato. Cioè non pensiamo una partnership tra pubblico e privato importante che faccia sì che noi non acquistiamo un prodotto realizzato da altri, che la pubblica amministrazione non acquisti un prodotto già pronto, realizzato da altri, realizzato da uno di questi soggetti mondiali, questi pochi soggetti mondiali che detengono il tutto. Ma al contrario che inizi a dialogare con l'impresa, l'amministrazione, la difesa, tutti i soggetti che detengono i dati inizino a dialogare con le imprese, a dialogare con l'impresa, a dialogare con queste big tech che oggi hanno questa capacità tecnologica, perché ci sia questa partnership sin dall'inizio? Cioè perché l'amministrazione possa controllare, cioè tutti noi attenzione, cioè la comunità, possa controllare la gestione dei dati, il controllo dei dati, il controllo delle scelte, non tanto nella fase finale, human in the loop, cioè non possiamo pretendere che sia l'ultimo funzionario, l'ultimo soldato a decidere se utilizzare o no la scelta dell'intelligenza artificiale, ma al contrario che sia la comunità nella fase di progettazione dell'intelligenza artificiale ad individuare le scelte da fare. Ora, non vorrei annoiarvi, non avremmo il tempo, ma posso assicurarvi che nella legislazione europea e nella legislazione italiana noi oggi abbiamo degli strumenti straordinari, si chiamano contratti innovativi, che hanno proprio questa capacità, questa capacità di mettere insieme amministrazione e impresa, che credetemi è un fatto del tutto nuovo, fino a qualche anno fa mettere insieme amministrazione e impresa avrebbe portato immediatamente ad un'inchiesta, avrebbe portato immediatamente all'annullamento degli atti. Oggi si può fare, e addirittura lo si può fare non solo nella fase della progettazione, ma ancora prima, cioè nella scelta dell'individuazione del bisogno della comunità, cioè l'amministrazione può insieme alle imprese cercare di capire esattamente di che cosa ha bisogno la comunità e attraverso questa individuazione, attraverso questa scelta, e provare a costruire degli strumenti tecnologici che però siano rispettosi della democrazia. Ecco io credo che questo sia molto importante sia il modo di assicurare che l'intelligenza artificiale sia strumento di sviluppo, di ricchezza e non di violazione dei diritti fondamentali o peggio di violazione della democrazia. Grazie Corradino. Leggiamole nel sottotesto, c'è una serie di indicazioni, di priorità. Adesso, nell'ultimi minuti, vorrei che ciascuno dei nostri interlocutori ci dicesse una priorità per noi europei di cose che dobbiamo fare, ma giusto per contestualizzare le cose che ci ha detto Corradino. Chi è che ha mai sentito parlare di Stanislav Petrov? Qualcuno sì? Perché questo signore nel 1983 era un colonnello russo-sovietico e vede sui suoi monitor l'arrivo di cinque missili americani che stanno per colpire la Russia. Il suo protocollo, le sue cose che dovrebbe fare, sono avvertire i superiori del fatto che la Russia, l'Unione Sovietica, è attaccata da missili nucleari americani. Cinque missili stanno per arrivare, lui li vede sui monitor e deve decidere di dirlo ai superiori. Se lo sapranno i superiori, i superiori diranno, bene, contrattacchiamo e mandiamo i missili sull'America. 1983, è un momento nel quale il mondo poteva finire nella guerra nucleare, ma Petrov, che non è un'intelligenza artificiale, ha deciso che non ci credeva, non credeva che fossero veramente cinque missili americani. Credeva che fosse, ha deciso che era un errore del suo sistema e ha avuto ragione e ci ha salvato. Un'intelligenza artificiale oggi non lo avrebbe fatto. Ci sono degli esperimenti recentissimi che ne mostrano che le intelligenze artificiali delle quali abbiamo la disponibilità non sarebbero state in grado di scegliere quello che ha scelto Petrov. Il Human in the Loop è effettivamente troppo lento per le situazioni nelle quali ci vibremo e probabilmente l'ipotesi di Corradino è quella giusta. Dobbiamo pensarci profondamente adesso. Quello che dobbiamo fare è progettare fin dall'inizio in maniera umana queste macchine. Noi siamo europei, siamo di fronte al bivio, dobbiamo pensare ai nostri prossimi cinque anni, ho detto cinque solo perché non volevo esagerare, perché saranno cinquanta, perché sono le grandi scelte profonde che stiamo facendo adesso. Nessun paese che abbia una sua sovranità, una sua strategia digitale, una sua bisogno di difendersi è un paese che non ha le sue piattaforme, che non ha le sue tecnologie. Noi in questo momento siamo un po' scoperti da questo punto di vista. Quali sono le priorità, le cose che dobbiamo scegliere velocemente adesso e che dovremmo osservare attentamente? Le chiedo con questo stile che rende la vita difficilissima agli interlocutori, ma vorrei provarci. In generale, che cosa dobbiamo fare, la singola più importante cosa degli europei? Riportando a livello un po' strategico, comprendere e affrontare queste che sono le implicazioni geopolitiche di questi scenari complessi, in particolare della implementazione attuale e futura dell'intelligenza artificiale, è una mission impossible se pensiamo di doverla fare da soli e non mettendo addirittura in sistema quello che il pubblico privato, come diceva il presidente Corradino. Mi auspico che in ambito europeo si possa finalmente trovare un punto di raccordo che metta un pochino da parte gli interessi nazionali, per pensare invece agli interessi di questa collettività che comunque ci riguarda in prima persona, perché anche da un punto di vista di autonomia strategica della sicurezza del vecchio continente non possiamo e non dobbiamo sempre fare affidamento su qualche amico che ci venga a dare una mano. Quindi in maniera molto serena, parlarne, trovare una soluzione politica, decidere chi dovrà essere il lead per questo viaggio insieme, perché il tempo sta passando e stiamo perdendo tutti l'opportunità di poter fare qualcosa che ci riguarda direttamente come singoli cittadini, come paesi e come Europa. L'intelligenza artificiale, qui chiudo, non è solamente una tecnologia, è una straordinaria leva di riequilibrio dei poteri del XXI secolo, riguarda tutti i domini, non è sotto il nostro controllo e quindi quanto prima ci mettiamo a parlarne, capire che cosa vogliamo e dove vogliamo andare, meglio è. Dall'ultimo punto di vista tecnico, il fatto che un grosso ostacolo per noi è che i modelli migliori di AI generativa adesso sono in mano di questi grandi player che non sono in Europa e che per noi sono modelli chiusi, inaccessibili, non riusciamo a modificarli, facciamo fatica a farci ricerca sopra. Quindi secondo me come ricerca dovremmo spingere un po' l'acceleratore sulla ricerca su modelli più piccoli performanti che ci permettono di tenere i dati e tutta la conoscenza qua. Ed è una cosa che già quando lavoriamo con le pubblica amministrazione, con le aziende italiane, è già un requisito che noi abbiamo, al momento sacrifichiamo un po' la performance. Nel futuro il nostro auspicio è quello di invece riuscire a investire anche su questo aspetto per la privacy dei dati, tutte le questioni che sono state menzionate prima. Uscire dal 900, dotarsi di un bilancio della comunicazione che mette in contemporaneità le risorse a disposizione e faccia comprendere come la buona fama è una metrica che ogni giorno va considerata nell'azione che ciascuno di noi svolge. C'è un romanzo, so velociissimo, di Ian McEwan, si chiama Macchine Come Me. C'è un menage à trois tra una macchina o un robot e una coppia. L'uomo di questo menage rompe a colpi di martello la macchina, non quando ci potremmo immaginare quando nasce il menage, quando nasce tutto questo rapporto, ma quando sta per rendersi conto del fatto che il robot ha avuto delle informazioni a causa delle quali ci sarà una condanna di una persona, una condanna teoricamente legalmente giusta ma in realtà sostanzialmente ingiusta perché questa persona aveva ucciso per proteggere un altro e lo rompe perché non vuole che l'intelligenza artificiale, non vuole che la robotica determini una condanna che appare giusta algoritmicamente ma che l'uomo sente come ingiusta. Allora io credo che oggi, che oggi è la giornata della legalità, lo devo ricordare, la decisione di Falcone e Borsellino, è un giorno molto importante quello di oggi, è quella della ricerca di una giustizia corretta, non dobbiamo secondo me dimenticare la nostra grande civiltà, la nostra grande tradizione giuridica, la nostra grande tradizione di valori valoriale e provare secondo me a inserirla nell'intelligenza artificiale, a farle capire che questo è quello che vogliamo o altrimenti prima o poi saremo rischierevoli, saremo avremo il rischio di comportarci come questo protagonista e di uccidere questa intelligenza artificiale perché non ci piacerà. Credo che questo sia molto importante. Ma io vorrei ringraziare tanto i nostri interlocutori. Il finale di questa storia naturalmente non lo scriviamo adesso però provate a vedere il punto che unisce tutte queste cose che ci hanno detto. Il punto è siamo europei, abbiamo qualcosa in comune, abbiamo qualcosa che vale, siamo gente che vuole vivere in modo pacifico, costruttivo, per la prosperità è stato detto, ma una prosperità che non è solo materiale, è anche profondamente spirituale, culturale, stiamo cercando e possiamo fare le nostre tecnologie, non siamo dei pirla, abbiamo sempre fatto molto bene dal punto di vista scientifico, abbiamo una buona fama, si può migliorare da questo punto di vista perché noi siamo stati anche quelli che hanno inventato la colonizzazione più orientata allo sfruttamento degli altri popoli, abbiamo inventato il nazismo e la Shoah, abbiamo inventato delle cose delle quali dobbiamo essere consapevoli, ma noi europei di adesso siamo gente che sta testimoniando, le vicende americane lo dimostrano da soli l'idea di democrazia, di tolleranza, di conoscenza dei valori della convivenza civile. Questo tipo di informazione, di conoscenza di noi stessi dovrebbe renderci abbastanza orgogliosi da dire affermiamoli questi valori, difendiamoli e operiamo coerentemente con questi valori anche nell'ambito di un confronto che è violento, che è duro con paesi che non condividono questa nostra impostazione, testimoniare i valori democratici anche con coloro che non sono democratici, credo che sarà la sfida profonda ma della quale potremmo avere un nostro orgoglio. Grazie di essere stati qui. Grazie a tutti. Grazie a tutti. Grazie a tutti.
{{section.title}}
{{ item.title }}
{{ item.subtitle }}