L’intelligenza artificiale e l’uomo
Incorpora video
L’intelligenza artificiale e l’uomo
Il dibattito sull'intelligenza artificiale generale (AGI) e i suoi impatti economici e etici. Differenze tra chi crede in un futuro sovrumano e chi ritiene impossibile raggiungerla. Investimenti massicci e preoccupazioni per il controllo delle risorse.
che ha detto l'intelligenza artificiale attira molte persone. E l'altro l'ha guardato e gli ha detto speravo che lei dicesse che è l'essere umano che attira tante persone. Ecco, questo è un po' l'incipit, il dietroleguinte del nostro panel. Tuttavia, noi ci troviamo in un momento molto particolare e anche diverso per chi c'era lo scorso anno da quello in cui ci trovavamo appunto solo un anno fa. Fino a qualche tempo fa ci si interrogava se le macchine sapessero ragionare. Ora abbiamo capito che a modo loro, con tutte le dovute differenze, però possono ed è possibile. Ci interroghiamo adesso se verrà mai raggiunta la cosiddetta agice, l'intelligenza artificiale generale, cioè chi dice che è una stupidaggine e che nessuno, non ci sarà mai un momento in cui le macchine sapranno svolgere tutti i compiti che svolge l'essere umano. Tuttavia, ci sono dei test scientifici che ci dimostrano un po' il contrario. E c'è un professore di Bath che si chiama Annello Christianini che si domanda questo se raggiungere l'intelligenza artificiale generale costa tra i 100 e i 1000 miliardi. Una volta che questi soldi verranno spesi, perché fermarsi al fatto che le macchine possano svolgere i compiti degli umani e non andare oltre e fargli svolgere dei compiti da sovrumani? Il dibattito tra chi dice che non raggiungeremo l'aggi e chi intravede il sovrumano è molto molto molto aperto. Tuttavia, la differenza tra i due tipi di intelligenza, ma questo è un parere mio, è una differenza che prevederebbe di superare questa comparazione che resiste anche perché ha un valore proprio economico. Siamo al festival dell'economia, se investire tra 100 e 1000 miliardi è un investimento molto molto importante, capiamo anche il perché si continua a dibattere tra uomo e intelligenza artificiale in ambito economico perché una volta che si sono investiti, ovviamente le imprese guardano anche al risparmio che potrebbero ottenere a causa di questo investimento e questo è quello che un po' preoccupa le nostre società. Bisognerebbe forse abbandonare questo confronto, ma invece noi lo affrontiamo oggi di petto con un postulato che viene da un altro studioso tecnologo massimo che è Chiriatti, che dice ma forse dobbiamo spostare un po' il dibattito sulla concentrazione del futuro del pensiero e la ripartizione di questo tra macchine e umani in un mondo in cui, come ci dimostrano le chat che utilizziamo ormai tutti i giorni di intelligenza artificiale generativa, le intelligenze artificiali operano sempre più numerose scelte sulle quali l'uomo decide e quindi di fatto c'è una ripartizione. Ma andiamo a incontrare i nostri ospiti che appunto si scaldano nel backstage. Paolo Benanti della Pontificia Università Gregoriana, benvenuto. Massimo Lapucci, International Fellow AI, Yale University e Giuliano Nocci, prorettore del Politecnico di Milano. Benvenuti, grazie per essere qui. Allora cominciamo con padre Benanti. Pare Benanti, sono passati dieci anni da quando individuammo un po' la religione, non come un... cioè l'intelligenza artificiale non come un competitor della politica ma, se vogliamo usare questo termine, come un competitor della religione in quanto in grado di orientare i comportamenti degli individui al di là delle leggi nazionali. Da allora, quando ci fu la prima call for AI ethics in Vaticano è passato molto tempo e oggi abbiamo un papa, Papa Leone XIV che motiva la scelta del nome Leone proprio per la priorità data alle trasformazioni operate dalle AI e indica la via della dottrina sociale. Lei ha detto in una recente intervista che la Chiesa non è più la piazza dove accogliere le voci ma la via per la risoluzione dei problemi. La Chiesa sta prendendo in mano, diciamo, questo tema dell'intelligenza artificiale. Cosa è successo in questi anni? Cosa sta succedendo adesso? Bene, buonasera. Capisco dalla seduta che a me tocca fare quello di sinistra stasera quindi giocherò il ruolo. Penso di aver detto esattamente il contrario, cioè... Sendo in forza... Riportato nell'artico di Repubblica. E hanno capito male, va bene, meno male. Proprio in forza della dottrina sociale della Chiesa che è stato il termine di paragone di Leone XIV parlando delle trasformazioni indotte dalle AI emerge una questione differente. Innanzitutto, lasciatemi dire, che il nuovo pontefice dica che ciò che la Chiesa ha da offrire rispetto ai cambiamenti indotti socialmente dalla intelligenza artificiale e l'esperienza della dottrina sociale della Chiesa ci deve mettere in una posizione molto interessante perché non stiamo parlando di un dibattito stile Galileo se il telescopio è buono, cattivo, dannato e santo ma ci stiamo in una posizione analoga a quella della rivoluzione industriale in cui la domanda è aumacis tumac, o meglio come orientare tutto ciò che è innovazione verso un orizzonte che è un orizzonte di un'innovazione orientata al bene dei singoli e dei gruppi cioè di quello che normalmente si parla, si prende il nome di sviluppo. Allora, già questo è una postura interessante di una Chiesa che, e questo dice la dottrina sociale della Chiesa non cerca direttamente quelle che sono le soluzioni ma si offre come spazio di confronto perché tra gli uomini di buona volontà, quindi non per forza cose confessionali possa emergere una via compatibile di accompagnare questa forma di innovazione verso forme di sviluppo. C'è una Chiesa che si capisce in questo senso come compagna di strada e come una piazza dove le altre persone con le altre persone si cerca di addomesticare lasciatemi usare questa metafora, questa nuova presenza. Sapete, i sociologi parlano di agentività come della capacità che ha un soggetto che appartiene a un ambito sociologico di far accadere delle cose. E allora, siccome le intelligenze artificiali nelle mediazioni sociali di tutti i giorni sono dietro alla curatela del feed di notizie che ci appare cioè fanno un contenuto editoriale, sono dietro agli algoritmi di raccomandazione che ci suggeriscono quali contenuti o cosa acquistare sono dietro ad alcune delle più interessanti questioni che si connettono all'aumento della produttività nel manufacturiero. Ecco, questo è uno dei temi. Ultimo elemento, e questo ci porta però a dover spacchettare questo termine etichetta che applichiamo a tutto che è intelligenza artificiale, perché rischiamo di confondere qual è il problema. L'intelligenza artificiale si presenta a noi come un'architettura dove a livello più basso abbiamo degli elementi che sono dei grandi motori che sono le GPU, questi chip speciali. Le GPU da sole non fanno niente, hanno bisogno di essere connesse tra di loro per ricevere energia, essere raffreddata, scambiare dati e sopra ci sono le infrastrutture. Sopra questo ci sono delle capacità che si chiamano modelli e ancora sopra ci sono quelle che sono le applicazioni cioè ciò che poi sta in relazione con l'utente. La sfida è nella gestione di questi quattro modelli. Le GPU sono in mano a una nazione. Ecco l'infrastruttura a un livello interessante. Un data center è qualcosa che consuma energia, acqua e telecomunicazioni e cade in un contesto come quello italiano dove l'infrastruttura è da sempre, dal tempo degli antichi romani, sono qualcosa di pubblico. E allora il data center sarà un superutente che sottrae risorse agli altri utenti o deve essere qualcosa che contribuisce nella stessa logica al pubblico? I modelli sappiamo poco appartengono al nostro territorio e sul lato delle applicazioni abbiamo tanto da dire. Ecco il bello del fare il mio mestiere, di fare l'itichista, è quello di poter fare domande e lascio le risposte a qualcun altro. Allora... Per fortuna è anche il mio mestiere quello di fare delle domande e allora le faccio a Giuliano Noci che ha scritto un libro che si titola Disordine in questo momento mentre Massimo Lapucci ne ha scritto uno insieme a Stefano Lucchini che si titola Ritrovare l'Umano in cui parla di nuovo della centralità dell'umano. Giuliano Noci, siamo in un periodo in cui quella parte di mondo che è quella asiatica, dove ci sono diverse culture che dipendono meno dall'umano per ragioni anche di religioni diverse, non vedono questa contrapposizione che vediamo noi tra umano e macchine ma creano un ecosistema con maggiore facilità in un momento come questo e anche con tempi acceleratissimi. Lei come vede il futuro anche nostro? In quanto il mondo che se ne voglia è molto e molto connesso, abbiamo una deglobalizzazione che vediamo tutti i giorni con queste guerre a pezzi ma poi abbiamo una globalizzazione della memoria del linguaggio dell'uomo con l'intelligenza artificiale che non abbiamo mai visto prima. Sono solo le società non democratiche a poter andare veloce, sono solo le società che poggiano su culture e religioni non monoteiste in realtà a imbracciare con questa velocità il futuro creando delle società digitali già avanzate e noi che fine saremo? Saremo marginalizzati? Ma innanzitutto la ringrazio molto per questa domanda perché di fatto noi dobbiamo rendersi conto che stiamo entrando in un mondo in cui l'ontologia delle comunicazioni sta cambiando. Sta cambiando nel senso che noi siamo abituati a un concetto, siamo sempre stati abituati a un concetto di possesso, a un concetto di individualità nelle culture occidentali e è arrivata la transizione digitale. La transizione digitale non è un'evoluzione tecnologica. La transizione digitale mette in crisi l'identità culturale di taluni modelli, quindi la sua considerazione è molto rilevante. In primo luogo mette in crisi il concetto di possesso e competitivamente mette in crisi il concetto di economia e di scala su risorse possedute. La transizione digitale mette in crisi, o meglio, esalta l'economia delle connessioni. Esaltando l'economia delle connessioni afferma e mette in crisi alcuni principi di individualismo che sottendono la cultura occidentale. Ma mi lasci dire, siamo a Trento e siamo in Italia, mettono in crisi un modello culturale di successo in ambito manifatturiero che è figlio di una prospettiva storica di Campanile e di città-stato. Il tema è un modello individuale, un modello che mette al centro l'individuo, è palingeticamente, geneticamente superiore o è in grado di affrontare una trasformazione che nell'intelligenza artificiale vede il completamento della transizione. Perché l'intelligenza artificiale non è altro che la chiusura di un cerchio, di un nuovo architettura sociale in cui ci sono persone e oggetti e agenti che tra loro dialogheranno. In questa prospettiva, la mia seconda casa è stata l'Asia. Io per vent'anni ho vissuto tra San Pietroburgo, Mosca, Yekaterinburg, New Delhi, Pechino, Shanghai. E lì ho avuto modo di apprezzare un modello che è un modello che non mette al centro l'individuo, ma che esalta la proiezione nell'individuo in una dimensione sociale. Questi modelli culturali sono modelli culturali che in qualche misura hanno intrinsecamente, nativamente, nel sistema operativo il tema della connessione. Sono modelli culturali a cui evidentemente io mi dissocio, ma sono modelli culturali che danno un vantaggio comparato su alcuni aspetti nella dimensione della connessione e nella dimensione delle economie di rete e arete in cui vale la legge di Metcalfe. Cioè il valore del sistema cresce quadraticamente con le connessioni. Quindi il primo tema, e a me con Padre Paolo ci confrontiamo spesso, io credo che sia molto opportuno che la Chiesa su questo rifletta e mi fa molto piacere che la Chiesa sia uno spazio aperto e non dogmatico. Perché l'altro tema che io affronto nel mio libro è il tema che il codice, la società, diventa codice digitale. Gli algoritmi che sono dentro gli oggetti, influenzano i comportamenti. Quindi di fatto è come se noi avessimo nuovi cantori di valori, nuovi cantori di comportamenti, che sono gli algoritmi. Ma nell'algoritmo chi sta dietro? L'uomo. Quindi vedete signori, e chiudo, non esiste una reale dicotomia tra intelligenza artificiale e uomo. È una falsa dicotomia. L'intelligenza artificiale deve essere un copilota nativamente al servizio dell'uomo ed è un qualcosa che non può essere fermato. Anche mi lasci dire, qui non faccio filosofia ma faccio l'ingegnere, il mio ateneo, il Politecnico di Milano, ha Leonardo, come nel luogo, la scuola di Leonardo. Scuola di Attene e poi Leonardo. Leonardo ha postulato il principio delle leve. L'intelligenza artificiale è una leva che ci deve aiutare a fare di più e meglio a sforzi inferiori. Evidentemente deve essere opportunamente governata. Facciamo un paio di esempi in giro per il mondo per chiarire un po' quello che è stato detto da Giuliano Noci. Parliamo dell'educazione dei ragazzi. Tanto in Cina quanto ora esportato nei paesi del Golfo c'è un sistema che prevede che ogni ragazzo fin dalle scuole elementari abbia un sè sfidante nell'intelligenza artificiale. Una sorta di doppio che lo accompagna e gli invia notifiche per esempio sulle materie scolastiche su cui è carente. C'è matematica, ti mando la notifica invece che del video di Fedez di una notizia di matematica. E pian piano si fonde e cresce con lo stesso ragazzo. Quando si arriva a cercare un lavoro, e questo già accade per esempio in Arabia Saudita, la domanda, ma anche in Cina, la domanda è non tanto il rating dell'università da cui provieni, quanto sai usare la tua propria intelligenza artificiale personale verticale in modo da poterla introiettare nell'intelligenza artificiale verticale dell'azienda e costruire così un sistema in cui siccome le aziende in quei paesi sono allineate al progetto nazione, l'individuo si trova automaticamente allineato nel suo intimo al progetto nazione. Altro esempio, vengo adesso dalla Carabac dove stanno ricostruendo dopo 30 anni di guerra, degli smart village sono stati creati con l'agenti che hai. Cioè è l'intelligenza artificiale che ha scelto dove, come ha disegnato il villaggio, quali sono le funzioni, come far arrivare l'energia, come redistribuirla e via andare. Un'altra società che ha accolto per fare un esempio opposto in maniera assolutamente disincantata e con una compenetrazione culturale insospettabile l'ingresso dell'intelligenza artificiale sono le popolazioni indigene dell'Amazonia raggiunte solo nel 2019 dalla connessione in cui per loro dire che un albero parla, comunica quando sta per essere tagliato dai deforestatori attraverso le vibrazioni dei sensori e quindi loro vanno a lanciare il drone e poi vanno a fermare i deforestatori e che quindi anche le piante, gli animali si sono fatti ricreare una Google Map con la loro cosmologia da appunto Google. Per loro la connessione è normale perché diciamo quegli oggetti, le culture animiste, gli oggetti, gli animali hanno sempre parlato. Ritorno su Padre Beranti. Questa centralità dell'uomo in culture che si basa su religioni diverse, come dobbiamo vederla? C'è questa efficienza apparentemente maggiore creata da queste culture o questa non resistenza culturale? Ma, dunque, secondo me c'è un problema anche nella tradizione con cui capiamo il cattolicesimo, il cristianesimo perché non ci scordiamo che per noi non esiste l'individuo, esiste la persona che è in relazione, anzi siamo così strani di avere un Dio che è Trinità, ha tre persone in un'unica sostanza. Ecco, cosa ha prodotto questa cultura dell'individuo è in realtà uno shift della modernità su Cartesio dove l'unica certezza e l'ultima certezza era l'io percepente. Quindi a me sembra che quello che sta scendendo adesso è una crisi della modernità. L'ultima crisi della modernità, e questo è interessante perché quando Shakespeare nella Amleto fa esclamare da Amleto the time is out of joint, indica semplicemente una cosa molto chiara all'esperienza di Amleto che il padre gli è stato ucciso ed era una cosa contro natura. Ma nel XV secolo quello diventa l'espressione metaforica di un cambio, l'ingresso nella maternità in cui improvvisamente si è dato una nuova nazione, c'erano le Americhe, un nuovo continente. Una nuova scienza si è passata a Galileo e a Newton, una nuova religione, c'è stata la frattura all'interno del cristianesimo con il luteranesimo e la forma politica che fino a quel momento aveva strutturato il potere inizia a vacillare verso le nuove forme della modernità. Ecco, forse tutto questo secondo me significa the time is out of joint, dove abbiamo un nuovo continente prima sconosciuto, la Cina in quanto tale, o se volete la luna e Marte, se volete dare letta a Musk o ad altri, dove abbiamo la nuova scienza, si è passata da questo studio della causalità, della razionalità novicentesca a questa correlazione pervasiva che di fatto è ciò che ha introdotto l'intelligenza artificiale, abbiamo nuove forme religiose, i tescri, alle post-umanisti, trans-umanisti della Silicon Valley e anche la struttura con cui avevamo in qualche misura domesticato il potere che la struttura democratica sembra in qualche misura in una certa difficoltà. E allora che cosa significa tutto questo? Significa che siamo in una giuntura d'epoca in cui si sentono i gemiti di alcuni conquisti radicali dell'umano che cercano di ridirsi nella nuova cultura. Una di queste è la dignità umana. Quello che oggi è in questione, al di là dell'efficienza, è il poter ridire in nuove categorie culturali che cosa significa questa unicità dell'essere umano che ha diritto a un proprio percorso di autodeterminazione sociale. Perché quello che veramente c'è in ballo qua è riconoscere che l'unica vera profonda piattaforma abilitante per un'innovazione tecnologica nell'epoca delle AI è l'essere umano. Perché se l'essere umano non viene educato, formato e adeguatamente preparato all'impatto dell'intelligenza artificiale, la produttività non aumenta, si genera una tensione sociale, si generano degli squilibri. Allora rispetto a questo penso che viviamo un tempo fantastico, perché ci possiamo di nuovo interrogarci su questi temi. Perché possiamo trovare tra di noi nella diversità, nella pluralità, nella molteplicità degli approcci quelle ragioni di autoevidenza che ci dicono perché come l'umano rappresenta un momento di autocoscienza che si interroga su se e sul destino del mondo. Questa è qualcosa che è aperto alla filosofia, ma è anche un pensiero profondamente aperto al religioso. Ecco perché è interessante questa interesse alle religioni. Perdonatemi, aggiuro in pratica, come qualcuno che lo deve dire per contratto, ma è assolutamente questo. Cioè ci sono delle domande che pensavamo di aver lasciato a una stagione precedente che prepotentemente rientrano all'interno della nostra contemporaneità. La tecnologia ci tradisce. Questo penso sia l'approccio, e in questo senso con il professore siamo molto d'accordo, ci siamo detti prima. Siamo come due piastre di un condensatore che in qualche misura generano un campo. Siamo due antinomie che richiedono una sintesi. E poi si può fare la sintesi. Quale è il punto su cui non siete d'accordo? Non mi fare litigate come tutti, dietro le quinte, pariate qui e siamo d'accordo. Qual è il punto su cui divergono i vostri pensieri? Perché in questo punto c'è anche il dibattito che va avanti da tanti anni. Il tema di fondo è questo, che Alfred Nobel ha inventato la dinamite. Nessuno gli imputa che la dinamite possa avere usi negativi. E che ha, perché la dinamite può fare tante cose. Il tema di fondo è che la mente umana e l'uomo in realtà viene sublimato dall'intelligenza artificiale. La sublimazione umana dell'intelligenza artificiale sta nella capacità dell'intelligenza artificiale e negli agenti dell'intelligenza artificiale di opportunamente servire l'uomo per elevare l'uomo nell'esercizio delle attività per cui è stato creato dal Padre Eterno. L'esercizio non della dura esecuzione materiale, ma nell'esercizio di una dimensione spirituale del pensare e del fare. Ancora una volta il tema è che la cultura hollywoodiana occidentale ha rappresentato i robot come robot grandi e li ha chiamati transformer e spesso gli ha dato un colore scuro. I giapponesi, i robot li fanno piccolini, li fanno bianchi e li mettono al servizio dell'uomo. Allora il tema è non esiste il bianco e il nero, non esiste una caccia alle streghe all'intelligenza artificiale, esiste la necessità di incorporare e governare una forzante di cambiamento che, se presa e governato opportunamente, sublima l'individualità, perché che cosa c'è di più bello di far fare a dei robot agentici delle attività che mi danno la possibilità di leggere la Bibbia o di leggere il Corano? Io guadagno tempo per la mia spiritualità, fuori di metafora. Al Politecnico ho creato da ingegnero un laboratorio che lavora sulle emozioni e ho studiato molto Daniel Kahneman. Daniel Kahneman, premio Nobel, come voi sapete, qualificava la mente umana come sistema 1 e come sistema 2. E il sistema 1 è quello viscerale. E Daniel Kahneman ha detto che la mente umana, in realtà, per il 95% delle sue azioni e decisioni, è viscerale. Poi molto spesso crea dei sovracostrutti razionali. A dire che cosa? Che l'intelligenza artificiale, siccome ha semplificato il funzionamento della mente e l'agire della mente, è un qualcosa di inarrestabile. Se noi palengeticamente cergiamo come nemici dell'intelligenza artificiale, in realtà entiamo in un medioevo della società occidentale. Guardate che dalle altre parti, e chiudo, mentre noi discutiamo e freniamo lo sviluppo dell'intelligenza artificiale, gli Stati Uniti investano 50 volte di più di quello che investiamo noi e la Cina al 30%. Questo non vuol dire che non ci debba essere un governo, ci mancherebbe. Quello che ritengo è attenzione a giocare una partita da caccia alle streghe e attenzione soprattutto a giocarla in un Paese come l'Italia, che ha quella prassi culturale che purtroppo è antitetica al sistema di valori emergenti, conseguente la transizione digitale. Massimo Lapucci, andiamo a vedere qualcosa che è accaduto negli ultimi 12 mesi. C'è la possibilità per le varie dimensioni dell'intelligenza umana, attraverso dei test, di poterla misurare. In vari test, tirando a indovinare, l'uomo ci prende al 25%. Dando questi test alle macchine, adesso si è visto che rispondono al 90% delle domande e a volte sempre più spesso ci prendono molto più dell'umano. Questi che fanno questo tipo di lavoro sono i valutatori. A quel punto gli addestratori delle macchine si sentono sfidati e cercano il modo di fargliene superare ancora di più che ti hanno risultati ancora migliori. In tutto ciò ci sono dei mondi, come quello della finanza, in cui possiamo vedere questo, tra virgolette, sovrumano già applicato. Perché la velocità con cui gli algoritmi fanno dei calcoli nel mondo della finanza non si è mai visto finora. E quello è un settore più che sensibile. Ora lei ha scritto, non a caso, ritrovare l'umano, perché probabilmente questo punto di vista lo vede già molto bene. Come funziona questa fiducia estrema che abbiamo negli algoritmi in ambito finanziario? E anche se ha delle riflessioni su quanto è già stato detto naturalmente. Grazie innanzitutto, perché la domanda mi obbliga a scendere un po' di strato sfera e di entrare su alcuni elementi di maggior praticità. Innanzitutto non è una fiducia cieca negli algoritmi, quindi partirei soprattutto da questo elemento che mi pare importante. Gli autorevoli interventi che mi hanno preceduto, sicuramente mi verrebbe da dire che l'intelligenza artificiale non la dobbiamo inquadrare come un semplice strumento, ma direi come una sorta di partner. Un partner che in qualche maniera non è neutrale, come spesso accade anche nella vita, i partner non sono sempre neutrali. Ma in qualche maniera è un partner che ci aiuta in molti ambiti, ma in qualche maniera se non ben guidato è in grado anche di creare distorsioni, di creare addirittura dei fenomeni di discriminazione o di esclusione. Quindi la fiducia non è sicuramente una fiducia cieca verso gli algoritmi. Ha citato ritrovare l'umano perché credo che nell'epoca che stiamo vivendo il fatto di riaffermare la necessità, non dico la centralità, ma comunque la necessità di ritrovare alcuni aspetti dell'umano siano fondamentali anche nell'ambito dell'intelligenza artificiale. Quando noi parliamo di sostenibilità, modello che anche esso sta entrando in qualche maniera in una fase di ridiscussione, di crisi, guardando un po' alla governance globale, penso in particolare a quello che sta accadendo negli Stati Uniti, questo modello che normalmente è caratterizzato dalle tre lettere ESG, cioè la sostenibilità ambientale e sociale, e di governance, ci impone una riflessione anche in ambito AI. E soprattutto richiamava prima il professore il tema anche della governance, di quella G che finora è stata molto trascurata e che l'abbiamo ridotta spesso alla necessità o all'obbligo di avere parità di genere nei bordi o nei consigli, che va benissimo, ma questo saremmo tutti d'accordo, lo dovremmo dare un po' per un concetto scontato. Ma anche quando parliamo di intelligenza artificiale dobbiamo parlare di una corretta governance e questo ci porta a dire che l'uomo deve sì mantenere una sua centralità. La finanza, ebbene sì, la finanza essendo quantitativa lo usa come strumento, strumento importante, io ho una formazione economista, finanziaria, e benvengano strumenti che ci aiutano, ma non sono strumenti ai quali guardare con fiducia appunto cieca, ma sono strumenti che devono obbligarci a metterci in discussione. In questo, e qui parlo del senso pratico, l'AI Act di cui l'Unione Europea si è fatta, diciamo, promotrice, criticato quanto volete, è stato detto è troppo presto, interviene su un ambito che ancora non è conosciuto, però io credo che abbia avuto e ha il beneficio di far passare il principio che c'è bisogno di una regolamentazione, che io non trovo scandalosa. Noi viviamo in una economia orgogliosamente di mercato, ma alcuni business sono regolati, le infrastrutture, gli aeroporti, l'acqua, l'elettricità, ci sono regole che gestiscono alcuni business, non credo che possa essere considerato scandaloso considerare che anche l'intelligenza artificiale debba avere alcune regole all'interno delle quali potersi in qualche maniera muovere. Vengo però alla domanda sulla finanza. L'anno scorso c'è un articolo che diceva che un algoritmo ci mette quattro secondi a cambiare direzione ad un investimento. Certo, è molto vero. Quindi lì, esattamente come le armi autonome, non è che c'è questo gran tempo di riflessione dell'umano. No, però è vero che ad esempio l'AI Act ci dice questo. Sapete che l'AI Act stabilisce quattro categorie di rischio, inaccettabile, un rischio alto, un rischio limitato e un rischio basso. La finanza rientra quasi tutti in un rischio alto, prima perché abbiamo a che fare con risorse finanziarie, secondo proprio per questo la velocità e anche se consideriamo oggi la volatilità dei mercati. Voi vedete oggi quello che succede. Basta semplicemente paventare un dazio un po' più alto in questo e in quell'altra area del mondo. I mercati girano molto rapidamente. L'intelligenza artificiale ha impattato sulla finanza in molti ambiti. Ne cito solo alcuni. La gestione dei portafogli, le consulenze personalizzate, anche l'analisi predittiva, cioè capire appunto dove vanno i mercati. In un altro ambito molto importante del quale vorrei pure parlare, che è il credit scoring, cioè l'analisi dei rischi legati alla concessione di credito. Questo l'AI Act ci dice, a mio modesto avviso, giustamente che in alcuni ambiti noi dobbiamo monitorare un rischio alto nell'uso dell'intelligenza artificiale. Badate bene, l'intelligenza artificiale a cui spesso facciamo riferimento, già gli diamo un po' come una sorta di, non voglio essere blasfemo, ma quasi di un'entità divina che non si capisce bene dov'è e cosa faccia, si basa sui dati. Prima della parola AI noi eravamo bersagliati, mi darete atto, dalla parola big data. Ogni giorno sui giornali sentivamo parlare di big data e big data. Bene, l'intelligenza artificiale si basa nelle sue risposte, pure in centesimi di secondo, sui dati che trova disponibili, dati che molto spesso vengono ancora immessi da centinaia di migliaia di operatori e che se sono errati noi riceviamo risposte non corrette, mi viene da dire errate. Quindi dobbiamo dare anche una certa maggiore concretezza a cosa intendiamo con l'intelligenza artificiale. Bene, in Europa l'AIAC ci dice che comunque in ambito finanziario noi dobbiamo innanzitutto garantire una analisi di coerenza e di preventiva coerenza prima dell'utilizzo di questi algoritmi. Perché gli algoritmi comunque sono scritti ancora in buona parte dalla mano umana, in alcune parti vengono generati anche da programmi, ma all'interno di quell'algoritmo, cioè della regola con cui io vado a elaborare i risultati, se metto degli elementi che noi definiamo bias, cioè degli elementi che non mantengono l'equilibrio ma inseriscono delle discriminazioni di razza, di genere, di reddito, allora il risultato che io otterrò non è un risultato oggettivo. E allora perché noi abbiamo la necessità anche ai clienti del settore finanziario, che tra l'altro ricordo è uno dei più regolati giustamente, e allora se è regolato il settore, perché se inserisco l'AI non dovrei regolare l'intelligenza artificiale che va a regolare un settore regolato. E allora ecco che dobbiamo essere anche trasparenti, trasparenti cosa intendo? Poter dimostrare sulla domanda del cliente se ho applicato un algoritmo di intelligenza artificiale o se quella decisione di investimento l'ha presa un operatore. Devo anche dare una certa capacità appunto di risposta, cioè di rendere chiaro come e dove sono intervenuto e in alcuni casi è garantito un monitoraggio spesso permanente sulle aree più rischiosi da parte di un operatore umano. Ma io vi invito anche ad una riflessione, mi occupo molto anche in ambito universitario, tema per me affascinante, del processo di decision taking, ad ogni livello come vengono prese le decisioni. Ma noi siamo certi che è solo la logica che deve garantire o elaborare la decisione finale. Ci fu un test sempre in Inghilterra che dimostrò che il nostro cervello prende le decisioni in qualche centesimo di secondo prima che noi arriviamo a capirle. Questo fu abbastanza scioccante, era una decina di anni fa se non sbaglio. C'era un famoso… Da qui il libro di Kahneman poi sui pensieri veloci. Dico assolutamente, ma se io penso anche al mondo della finanza degli imprenditori, quante decisioni gli imprenditori hanno preso talvolta? Naturalmente con raziocinio, ma basati anche su quella che è la propria capacità di sentire, quello che noi diciamo ha deciso con il cuore, ha deciso di pancia. Non sempre le decisioni, anche quelle di investimento prese soltanto sulla base di dati statistici storici poi dimostrano di essere vincenti. Esiste una branca della finanza che si chiama behavioral finance, finanza comportamentale, che invece in realtà sviluppa tutta una serie di altre teorie pure affascinanti. Allora ecco, torno alla domanda. Certamente i valutatori fanno il loro lavoro, lo fanno bene, io credo affinano uno strumento. È tanto più importante migliorare i dati sottostanti e quindi verificare la bontà delle risposte che riceviamo. Ma quello non può essere l'unico elemento a cui noi lasciamo la decisione. Ecco, mi piacerebbe che accanto ai valutatori che verificano la bontà delle risposte e la portano a percentuali sempre più prossimi ai 100, noi parlassimo anche di curatori, che accanto ai valutatori innanzitutto verifichino che le macchine siano al servizio dell'uomo e non il viceversa, perché è lì che noi altrimenti abdichiamo alla nostra funzione di essere umani. E soprattutto utilizzare le macchine, quindi la capacità per liberare l'uomo da alcuni elementi che come è stato prima torivolmente ricordato sono elementi pesanti, pensiamo ai processi ripetitivi piuttosto che ad alcuni elementi che giustamente vogliamo nel progresso liberarci. L'uomo ha sempre cercato nel suo percorso di ridurre la fatica, di poter, ma per avere tempo per fare altro, per essere creativo, per decidere, per pensare e non abdicare a questa funzione. In questo dico ritrovare l'umano. Bene, grazie. Cambiamo un attimo argomento ma non troppo. Con Padre Benanti andiamo a esaminare un po' quello che sta accadendo negli Stati Uniti. Negli Stati Uniti abbiamo visto Trump dire che c'era stata una mano divina nel dirottare Proiettile e quindi creare poi alla fine la possibilità che lui andasse al governo non morendo in quell'occasione. E c'è anche una piattaforma che è Palantir, che è una delle piattaforme più importanti al mondo, che contiene i dati di tutte le nostre intelligence, delle forze di polizia, del mondo occidentale, in cui il fondatore che è Peter Thiel sta operando, diciamo, una reontologizzazione, addirittura, della nostra società in termini di protezione della cristianità. Cioè lui intende come occidente, questo l'ha detto in più occasioni, l'occidente cristiano. E quindi che ci sia una piattaforma che reontologizza in qualche modo per una parte così delicata della nostra società il mondo intero, che ci sia dietro da parte del fondatore ma anche dell'amministratore di country management, insomma di Palantir UK, che l'ha espresso recentemente in un convegno questa volontà di difendere la cristianità. Che cosa ci dice, prima di tutto, e lei che ha incontrato anche Peter Thiel, quello che intende Peter Thiel per cristianità è quello che intendiamo noi? La risposta è onesta e non lo so, nel senso che parlavamo di tecnologia. Però la questione è questa, c'è una tendenza mai sopita a partire dalla fine dell'ottocento, che parte in Francia, poi si sposta negli Stati Uniti, oggi sembra riemergere in alcuni ambienti, di dire che in fondo l'unica cosa che conta sia l'efficienza e di riconoscere nei processi decisionali democratici un'assenza di efficienza, perché sono lenti. Se Compt pensava alla Repubblica degli Ingegneri, nel 1930 il TechNate of America ha avuto un movimento di questo tipo, in cui diceva che la classe politica era una classe sorpassata e ha emesso anche dei bond elettrici al posto della moneta, e proponeva di sostituire quello che era il meccanismo democratico americano con questo sistema di elezione. Sono state arrestate nel 1933 dall'FBI, tra questi c'era anche qualche parente di qualcuno dei grandi magnati tecnologici attuali, e oggi sembra riemergere in altre interpretazioni. È interessante, visto che abbiamo citato Palantir, che l'ultima pubblicazione del CIO di Carp è sostanzialmente un libro che si chiama The Technological Republic, dove si parte da un'idea. C'è un problema di dominazione o di predominio in ambiente internazionale di quella che è una cultura tecnologica statunitense, che viene definita come in qualche misura minacciata o in crisi in una competizione internazionale. L'amministratore del Regato di Palantir dice che potremmo vincere questa competizione solo se formiamo delle nuove elite che sono in grado di vincere tutto questo. E' qui il titolo del libro, perché non è The Technological Democracy, ma The Technological Republic riprendendo l'idea di quello dialogo di Platone, che è la Repubblica, in cui c'è una sola classe al governo. La stessa classe che immaginano al governo è questa classe di ingegneri o di nuova elite che, essendo nuova elite, penserà anche al bene di tutti gli altri, che vedono per esempio espressa nel funzionamento di Palantir da quella che è la classe dirigente. Quale è la novità qua? La novità è che secondo me ci si confonde o ci si muove come se fosse la stessa questione tra strutturazione di un'azienda o strutturazione di un gruppo sociale che gioca in un ordine costituito e il fondamento stesso di quell'ordine costituito. Se un'azienda può funzionare e prosperare in questo è forse perché c'è un ordine data a priori e indotto dagli ordini democratici con tutto il sangue che sono costati in tempo recente che garantisce a quell'azienda anche di prosperare. Io non lo so se surrochiamo le due cose, se trasformiamo nell'ordine dell'efficienza, un'ordine che invece è un'ordine di democrazia, se le cose sono lo stesso. È chiaro che il dibattito c'è, dobbiamo essere coscienti che oggi l'idea di una nuova sostituzione di un paradigma politico con un paradigma tecnocratico viene detta a gran voce da una serie di persone. Questa è un po' la complessità di questo momento, stiamo parlando sostanzialmente di antropologia o di tecnologia? Stiamo parlando di sociologia, stiamo parlando di politica, stiamo parlando di geopolitica? Cioè la cosa interessante su cui siamo tutti d'accordo è che parlare di questo tema è parlare di uno dei temi più sfidanti che si danno all'incrocio della nostra contemporaneità. E siccome è sfidante e plurale, se c'è un vero problema in tutto questo è ridurre questa pluralità a una monolicità di approccio, come se fosse un'unica sola prospettiva da mettere in atto. Questo è il motivo per cui parlo per esperienza personale, un soggetto strano come il sottoscritto è stato invitato a fare parte di una commissione dell'ONU voluta dal Secretario Generale, che è Guterres, per parlare della governance globale dell'intelligenza artificiale. Sono stati scelti 38 persone e tra queste 38 persone c'era anche il sottoscritto. E lì guardate, io mi sono reso conto di una cosa, che a noi ci piace a volte andare per slogan, l'America è innova, la Cina copia, l'Europa regola, ma chi qui in questo momento regola l'AI e la Cina? Che decide cosa un AI può dire o non può dire? Provate a chiedere a Dipsic qualcosa su piazza Tiananmen. L'Europa che viene da un'altra storia che ha visto 6 milioni di persone uccise per un semplice dato che era una credenza religiosa, ha detto che questo non deve accadere più e che ogni volta che si fa una decisione sull'essere umano c'è un fattore di rischio, come abbiamo detto prima, che deve essere tenuto in conto. Evitiamo di essere vittime degli slogan. L'Europa in questo momento, l'intelligenza artificiale industriale, non la sta regolando. Perché nessuno vi viene a dire con quale tecnologia aumentate la produzione dei bulloni, con quale tecnologia selezionate i chicchi di caffè che vanno in torrefazione, con quale tipo di tecnologia mettiamo a terra i nastri con i quali facciamo l'assemblaggio delle parti all'interno di un processo produttivo. Questo semplicemente non c'è. E allora cosa c'è? Una consapolezza profonda. Che nessun artefatto tecnologico, una volta che impatta la società, non funziona come un dispositivo d'ordine o una forma di potere. Quando io costruisco una ferrovia, dove metto le stazioni? Sto decidendo con quelle stazioni chi può prendere il treno e chi no. Ecco, la tecnologia non c'entra niente, ma l'impatto sociale è materia di regolamentazione e di confronto sociale. Questa consapevolezza deve emergere e deve appartenere ai dibattiti pubblici. Come dicevamo prima, ci sono soggetti che nella liceità della pluralità delle opinioni pensano che il dibattito debba essere contenuto su alcuni specialisti che sono alcune elite. Questa voglia di creare intorno all'intelligenza artificiale un clima religioso, che aveva evocato anche Massimo. E quindi in un mondo che è troppo complesso per poterlo spiegare, questo lo dico anche da giornalista, ci sono bisogno di un'ora per riuscire a far veramente capire un concetto e comunque raccontarlo bene. E aumenterà sempre di più questa compresità. C'è chi dice che un po' quest'idea di far passare delle intelligenze artificiali, perché noi siamo nel plurale, per forme religiose o vicine alle religiose, è un modo per far aderire la gente senza che capisca. Lei cosa ne pensa? Allora, mettiamola così, la modernità ci ha lasciato un modo di validare le informazioni che molto ben definito e canonizzato. La dico attacco se mi permettete il tema con una provocazione, ciascuno di noi crede. Perché se io vi dico che questa superficie del teatro è fatta di atomi, e voi siete d'accordo, nessuno di noi ha visto gli atomi. Avete creduto a una fonte affidabile che vi ha detto che la realtà è fatta di atomi. Questa è la conoscenza umana. Io ho passato la mia infanzia all'elementaria a disegnare funghi rossi con i pallini bianchi, fino a quando non ho creduto a una voce credibile che mi ha detto che era meglio non provarli. E sono qui a parlare teoricamente del fungo. Ecco, allora capite, questo è il modo con cui funzioniamo come specie. Come abbiamo passato le informazioni, aperte virgolette, credibili, chiuse virgolette fino a adesso? Mediante una disposizione che possiamo definire architettonica. Quando voi entrate in una biblioteca, sullo scaffale di medicina sono insieme tutte le informazioni mediche. Oggi il modo non è più questo. Oggi abbiamo una macchina che di fronte ad una interrogazione mi risponde con un testo sufficientemente complesso, in alcuni casi degno di quello che è un'azienda di consulenza, di 3-4 pagine con note e riferimenti scientifici, che tecnicamente però non è prodotto secondo quel canone di verificabilità. Lo potremmo definire oracolare. E allora il problema è credere o non credere a quella fonte affidabile? Allora capisco che un discorso pseudoreligioso che confonde i livelli del credere dal livello razionale a un livello di orizzonte oltre, possa cercare nel cambio di passo, nel creare una fiducia particolare, fatemelo dire con una battuta, non nel cielo ma nel cloud, di far passare l'affidabilità di una macchina che siccome si risponda su paradigmi statistici, come abbiamo sentito poc'anzi in ambito finanziario, non è detto che sia affidabile ma ha bisogno di uno spazio significativo dell'essere umano per poter controllare, validare e giustificare questi contenuti. E allora io non lo so se è un bisogno religioso o un bisogno di marketing. Quello che so è che però l'impatto di questa macchina all'interno dei percorsi educativi ci sta iniziando a creare dei problemi anche nella capacità che hanno le nuove generazioni di validare alcuni contenuti. Ecco questa è una domanda che rispetto alle altre secondo me assume più urgenza e più importanza, perché potremmo essere la prima generazione che non riesce a tramandare una serie di informazioni necessarie per la sopravvivenza, i cosiddetti funghi rossi a pallini bianchi della contemporaneità, alla generazione che segue. E allora la sfida improvvisamente non è sulla macchina ma è sull'educazione, è sull'umano. È come fornire a qualcuno una sorta di brain helmet, qualcosa che lo difenda da una certa troppa ingerenza della macchina, a qualcun altro delle competenze che lo mettano in grado di riconoscere la credibilità di alcune fonti informative. Cioè è un nuovo analfabetismo. Se l'analfabetismo nel medioevo era entrare in una biblioteca e non saper decodificare le lettere sui manoscritti, oggi l'analfabetismo è essere all'interno di questo flusso informativo e non saper distinguere cos'è quello che vale da quello che non vale. Quando in Italia abbiamo voluto vincere l'analfabetismo e abbiamo fatto la scuola pubblica, questo probabilmente è un tema che ci interessa anche per noi, che vogliamo offrire un'istruzione che sia un'istruzione pubblica. No, si voleva replicare. Rappidamente siamo in chiusura. Il padre ha parlato, quindi vorrei parlare anche io, il nome di un ordine sociale. Questa volta Paola mi ha mandato un po' in loop, nel senso che alcune delle affermazioni fatte sono affermazioni che vanno un po' circostanziate. Allora, noi abbiamo il problema di vedere sempre un qualcosa contro. Abbiamo il problema di noi contro la macchina. Trump, che è molto umano, vede tutto contro. L'estate di fondo non è buleiano, uomo-macchina. Il tema è molto più sofisticato ed è quello di andare a capire se e come la macchina può essere messa al servizio dell'uomo. E non raccontando cose gratuite. Chi può negare, caro dottore, le AI Act? Chi può negare il principio che un algoritmo deve essere supervisionato dall'uomo? Ma è scontato, è facile fare affermazioni così e trovare il consenso di breve. Il problema di fondo è che le AI Act, definite dall'Europa, è una forma di regolamento in un campo di gioco in cui chi regola non controlla il campo di gioco. Perché? Perché le AI Act, che definisce che io vorrei fosse applicato a livello mondiale, le AI Act fanno entrare le imprese europee in un campo di gioco storpie. E abbiamo altri attori che entrano col doping. E allora? È sociale questo? Mette al centro l'uomo? Quando questi col doping nel campo di gioco ci fanno 5 gol e noi avremo decine di milioni di disoccupati? È sociale? Allora il tema non è l'antinomia uomo-machina. Il tema è trovare una sintesi egheliana tra l'uomo e la macchina. E che cosa vuol dire la macchina come dispositivo d'ordine? È un'affermazione che prende potere, un'affermazione un po' così. Vi faccio un esempio. Io sono più contento di una macchina concepita come dispositivo d'ordine, ma che nella sua ripetitività garantisce una prevedibilità di un uomo che nell'esercizio di una sua attività, a un certo punto con la sua mente, tira fuori la pistola e spara. Quindi attenzione signori, cioè paradossalmente la tecnologia come forma può diventare una forma d'ordine e una forma di prevedibile ordine se evidentemente opportunamente progettata. E anzi, la progettazione che deve essere il vangelo del codice che anima la società, giusto per restare il tema, perché voglio chiudere con elemento. Cioè io ho la sensazione, non che Padre Benanti con cui con Paolo c'è un raffinato confronto intellettuale, ma io sto come percependo che ci sia in alcuni culti religiosi la percezione di essere messi in discussione come forme di orientamento valoriale. Perché tutto quello, e chiudo che ci siamo detti, cosa cambia? Cioè cosa cambia dire che le decisioni deve prendere l'uomo? Ma ci mancherebbe! È una novità. Il vantaggio dell'intelligenza artificiale è che io sviluppo centinaia di scenari molto velocemente e prendo poi delle decisioni, introducendo esattamente quella discontinuità logica e acorrelativa, associativa, in senso privativo, che è tipico della mente umana. Bene, grazie. Io lascio l'ultima parola a Massimo Lapucci tra questi due punti di vista. Grazie, grazie. In pochi secondi, perché siamo già usciti di 30 secondi. Credo che uno dei punti fondamentali, perché lo vedo anche rispetto all'università, diciamo che è l'università di Yale nella quale ho, però in realtà invece in molti aspetti si mette in discussione che debba essere l'uomo a prendere la decisione finale e in molti campi viene lasciato ad un algoritmo che, non mi ripeto, e come detto prima, ha in realtà degli elementi distorsivi per cui la decisione presa potrebbe non essere buona. Chiudo dicendo che comunque noi come europei, sicuramente l'ho detto prima, l'AI Act è intervenuto in un momento e non è la Bibbia per tornare nel Vangelo, però io credo, e questo lo faccio un parallelismo con quanto avvenuto nella protezione dei dati con il GDPR che è stato pure sviluppato a livello europeo, che non esiste negli Stati Uniti, che in linea generale come cittadini italiani e europei siamo sicuramente più tutelati nella gestione dei nostri dati che non vivendo in altre aree del Paese. Certamente è chiaro che tutti auspicheremmo che alcuni principi venissero presi a livello globale, ma dobbiamo pure diciamo cominciare e in alcuni casi come europei per la storia che ci ha caratterizzato, dare il buon esempio perché altrimenti torniamo come in economia a questi discorsi, li ho sentiti spesso fare, al liberismo sfrenato dove non c'è bisogno di alcun regolatore che interviene, però le conseguenze penso che spesso le abbiamo viste sotto gli occhi. Un po' l'ambizione di tanti politici che vediamo oggi in giro per il mondo. Allora grazie, grazie ai nostri segretari, grazie alla Città di Trento, sempre così, partecipe ai nostri eventi e ci vediamo nei prossimi panel. Grazie. Grazie. Grazie. Grazie. Grazie.
{{section.title}}
{{ item.title }}
{{ item.subtitle }}