Cyberumanesimo
Incorpora video
Cyberumanesimo
L'intervento si concentra sull'impatto dell'intelligenza artificiale, in particolare dei Large Language Models, sulla società e sull'umanità, esplorando i rischi e le opportunità connessi. Camisani Calzolari discute l'importanza della consapevolezza digitale e della regolamentazione per contrastare la disinformazione e il potenziale abuso di queste tecnologie. Vengono inoltre affrontati temi etici e filosofici legati al long termism e alla necessità di mantenere l'uomo al centro dello sviluppo tecnologico.
Eccoci, se sentite che ho il fiatone è perché ho il fiatone. E quindi il fiatone, perché sono arrivato, Super di Corsa, questo è un festival meraviglioso dove succede tutto contemporaneamente e quindi la sperimentazione è quella della moltiplicazione degli universi contemporanei nei quali vi posso assicurare è vero, si può vivere contemporaneamente in più posti. Infatti i camisani calzolari è un doppio plurale, ci sono moltissimi camisani, moltissimi calzolari che sono nati da un 1.0 iniziale. Che bella questa cosa che ha detto. Allora, aspetta, perché me l'ha lanciata senza fare una domanda. Avevo 2-3 anni, no, siamo qualcosa di più, però diciamo che era al 90 qualcosa e io avevo fatto le mie prime cause online. Tra cui, siccome c'era questo grande problema della regolamentazione dei domini, perché c'era l'ICAN americano che dava domini come se fossero Marchi, così, il primo first cam first served, il primo che arrivava, Marchi, plurale di Marchio, questo sempre legato al Majestatis che mi ha il concesso. E praticamente cosa è successo? Che io ho cominciato a registrare Marchi, ma non perché non per Domain Squatting, era per dire, ei, serve fare qualcosa. E poi negli anni successivi le sentenze hanno poi chiarito la prevalenza del Marchio sul dominio e questo anche il concetto del, guarda che non è tuo, però c'è stato un momento e tra le cose che avevo registrato c'era anche Coca Cola. E a un certo punto io che non nessuno aveva mai scritto di me, un giovane ragazzo, cioè apro panorama e trovo un articolo su di me. Allora mi chiamavo 1.0 perché avevo anche il vezzo di usare uno pseudonimo 1.0 perché la prima versione di ogni software è la parte più piccola dell'informazione. E' un tale Luca De Piase aveva scritto il primo articolo su di me raccontando questa cosa e ovviamente essendo un film intellettuale il titolo era, quel ragazzo si è rifatto un nome. Non so se ti ricordavi il titolo, quindi in questo momento per me essere qua con Luca è come dire amore, proprio che devo fare. E queste sono cose contagiosi, speriamo che lo sia anche per il nostro pubblico che oggi ha la scusa di essere qua per il libro, si può dire cyber o cyber? Come preferisci? Qualunque cosa tu dici, tu dici che c'è un perché dietro e quindi anzi io mi chiedo come mai hai detto cyber? Per cui hai capito il riflecchio? No, perché c'è una polemica, cyber security si può dire, cyber sicurezza non si può dire. Quello che tu usi a me piace va bene. E l'umanesimo, insomma, il tema è un filosofo digitale che si pone di fronte a questa enorme trasformazione cercando di interpretarla, cavalcarla, aiutarci a viverci in mezzo con prospettive lunghe. Quindi questi sono gli elementi che ci dobbiamo cercare di dipanare in questa presentazione sono dove siamo e dove andiamo come ogni bravo filosofo che si rispetti. Il dove siamo è già importante, voi lo seguite anche nelle sue varie incarnazioni, è un punto plurale, e quindi anche ci spiega dove ci fregano, come facciamo a difenderci dalle truffe, dagli imbrogli, dalle cose che non si capiscono, eccetera. Ma è solo una parte del ragionamento perché il nostro non è negativo, è positivo nei confronti del mondo digitale, ci mancherebbe altro affatto di questo, il suo ruolo nella società, e farci comprendere meglio che cosa succede è il suo compito. Quindi fondamentalmente, se vuoi, partiamo da dove siamo, perché ci lamentiamo tanto col fatto di restare umani? A parte che gli umani fanno un sacco di casini, perché dovremmo rimanere umani. Poi, una volta che abbiamo capito che rimaniamo umani, perché pensi che la tecnologia ci faccia essere meno umani? Allora, innanzitutto, le varie attività, compreso l'aiutare le persone a non cadere nelle truffe, fa sempre parte del desiderio di spiegare agli altri quello che un po' sono io, sin da piccolino, con quell'approccio un po' hacker, che di base ha dentro una specie di diavoletto che dice sempre, hey, tu devi vincere sulla macchina. C'è l'ai di natura, l'approccio hacker è quello, ti devo far fare quello che voglio io, quindi nasce già così. Le persone che cadono nelle truffe o nelle fregature varie, che a volte sono di ogni tipo, da quelle economiche al click, al credere che esistano mondi che non ci sono, nuove hype che non esistono, ne sono passate tante, non le nomino perché non è indifferente, non è il punto della cosa. È un'altra forma di essere padroni di questo, capire ed essere, comprendere dove c'è il vero e dove non, vuol dire comunque sempre essere, dominare il digitale, dominare la macchina. Voglio che tutti lo continuino a fare, lo facciano, sono anche lì, sono dalla parte dell'uomo, infatti spesso magari capita che nei sociali, eccetera, mi dicono, tu con questa tecnologia, e dico no, non è che io sono un tribuno del digitale, io sono uno che vuole davvero in tutte le attività che ho ritrovato negli anni mettere l'uomo al centro. Capo redattore dice, mettere l'uomo al centro con un platea nel quale le donne sono in prima situazione. L'umanità, è vero, però si usa a volte questa, no, umanità. Io solo capo redattore. Giustamente, precisi, usiamo le parole, umanità. Ma, ecco, deve sempre stare davanti, infatti l'idea del libro arriva da una persona che dice, ascolta Marco, ma tutte queste cose che hai fatto, no, ha unito un po' i puntini, dice, ma Raffine, hai sempre voluto tenere l'uomo al centro, no? Anche perché raccontavo un po' la filosofia del libro, senza che esistesse ancora il libro, ho detto, wow, allora da mettere giù per il scritto, e certo, anche perché i puntini se vuoi, quindi mi hanno aiutato a unire questi puntini qua. Quindi, l'uomo al centro oggi, come mai, più che mai. Allora, fino, durante la rivoluzione digitale, almeno le due che sono passate fino ad adesso, già abbiamo cominciato a perdere un po' di potere, no? Nel senso che i processi democratici già erano stati inquinati, no? Come umanità, dico. Pensate ai social network più potenti dei presidenti degli Stati Uniti, perché spengono quelli, loro non hanno più modo di essere eletti. E quindi, di conseguenza, ci sono piattaforme che oggi sono più potenti di loro. E poi, in un certo punto, quando in questi ultimi anni, perché solo un anno e mezzo fa, Cia GPT ha reso disponibile a tutti la sua versione del sistema DLM, quindi del Large Language Model, che era oggi poi quello di cui piano piano tutti stiamo parlando, ma nel frattempo stava arrivando questa ondata, quelli dei settore, noi lo sapevamo. E quindi, sapevamo anche che, in qualche modo, sarebbe stato uno step successivo. Cioè, se prima, degli intermediari, potevano inquinare o comunque guidare i processi democratici, che in qualche modo ci coinvolgono, o le nostre opinioni, con la polarizzazione che poi è avvenuta, con gli algoritmi dei social che ci portavano a pensarla sempre più in un modo o nell'altro, perché tendevano a privilegiare contenuti discussi piuttosto che di qualità, e così via, che poi hanno inquinato l'editoria, hanno inquinato un po' tutto, qui addirittura, al posto di passare attraverso gli intermediari, o quindi chi avrebbe rappresentato nel caso dell'editoria, avrebbe scritto, nel caso di Cedè, sono arrivati direttamente a scrivere loro. Perché è il segreto di Buccinella, ma molti studenti usano questo per scrivere direttamente, molti ricercatori utilizzano sistemi come questi basati su questa pseudo intelligenza artificiale, poi magari entro più nel dettaglio, per scrivere paper, giornalisti utilizzano quello per scrivere articoli, e quindi se io sono un astronauta per un modello di quei tipi rimango un astronauta. Peraltro se chiede, non sono più Marco Camisani Calzolari quello che faccio, ma divento un astronauta, e nel mondo sarò sempre un astronauta, forse dovrò iniziare a fare l'astronauta perché è più facile cambiare mestiere che non cercare di cambiare a loro, perché cosa fanno? Prendono i dati che una volta anche lì esistevano, cioè c'erano dati, tu andavi dal garante e dicevi, ehi puoi andare a vedere quello là, come mai c'è questi dati che non doveva avere o che li tratta in modo inappropriato? Loro cosa fanno? Prendono tutti questi dati, ma poi li buttano via, cioè li usano, li svuotano, li trasformano in reti neurali per semplificare, in vettori, ma il dato non c'è più. Quindi io sono un astronauta all'interno di meccanismi, di reti per cui lì dentro sono astronauta e loro dicono, guarda se vuoi posso mettere un filtro esterno che dice che ogni volta che sostituisce il nome con l'astronauta, ma io come far far sparire dal dentro il fatto che tu sia astronauta non ho mai più quali idee. Ma io non sapevo che eri un astronauta. Eh ma io sono un astronauta. E dillo che sei un astronauta. No ma senti, perché in pratica ci stai dicendo che il sottolineare il bisogno dell'umanesimo nella epoca della tecnologia della quale stiamo parlando è fondamentalmente un tentativo di mantenerci soggetto, attivo, della nostra storia e non subire quello che avviene, cosa che succederebbe se noi non comprendessimo il sistema che si sta creando. È chiaro che la tecnologia è il nostro prodotto e quindi è umana, ma se noi non la comprendiamo genera un sistema così complesso che alla fine ci induce a subirlo senza la possibilità di guidarlo. E quindi descrivendo questo sistema tu hai sottolineato il fatto che è un sistema per esempio che decide con un suo errore che tu sei un astronauta e fai fatica a liberarti di questa cosa, ma più in generale c'è effettivamente l'idea che noi siamo immersi già in un'intelligenza artificiale complessa che per esempio guida le nostre scelte nei social media con i sistemi di raccomandazione che sono delle intelligenze artificiali che hanno il loro scopo e hanno la loro identità e che con la nuova ondata di Ciat GPT aumenta ulteriormente il suo potere, la sua capacità di ingannarci, di farci credere cose che poi subiamo e elimina le nostre capacità di essere azioni tanto è vero che non si dice Ciat GPT ma si dice CIT GPT, cioè in broglie. Quindi il punto numero uno è umanesimo nel senso di restare liberi e autori di questa camionetta. Il punto è come si fa? La prima domanda automatica è come faccio a tenere lo grazie, ma cosa devo fare? Innanzitutto la conoscenza è fondamentale, sapere ed essere consapevole di cos'è oggi questo, cosa c'è dietro il muro, senza entrare nel tecnico ma almeno sapere come funziona, è un po' come un'automobile, non è che sappiamo tutti i dettagli dell'automobile però sappiamo che ci sono le ruote che sono collegate a un motore che di solito funziona a benzina, dei pistoni nel caso del motore termico, delle cose di base le sappiamo quindi se c'è del fumo non diciamo che c'è un motore termico, potrebbe essere che bla bla bla, se buchiamo una gomma sappiamo che è pneumatico, quindi dentro c'è dell'aria ci sono delle cose di base che ci permettono di sopravvivere nel rapporto tra noi e un'autovettura. In questo momento manca quel tipo di consapevolezza, perché è troppo veloce, troppo nuova, già mancava prima, era già veloce quello che c'era prima, figuratevi questo quindi la consapevolezza ci aiuta a scegliere, dice quante scelte posso operare? Innanzitutto fino a quando siamo in democrazia, già possiamo scegliere dei rappresentanti che rappresentino la nostra visione ad esempio di questo mondo perché dietro in questo momento non solo scrivono testi, ma accendono e spendono la macchina, le intelligenze artificiali, accendono e spengono la nostra presenza online se decidono che tu hai violato qualche policy, le aziende in questo caso attraverso dei sistemi automatici che spesso dietro poi non hanno neanche un umano, tu vedi sparire le foto della famiglia di 20 anni perché questo è. E allora l'ha deciso un'intelligenza artificiale, senza arrivare al giudice che ti condanna, che viene vietato ad esempio adesso dalle IAC europeo e quindi probabilmente sarà adottato questo principio anche da altri paesi ma di base già succede, non c'è nemmeno appello, quando io provo qualcuno di voi sarà successo di dire no, ma aspetta mi appello, di là fan fatica a rispondere, non si sa, ti dicono anche che non viola le policy e quindi la nostra vita è sempre più attaccata a dei sistemi automatici di pseudo intelligenza artificiale che in qualche modo dobbiamo essere consapevoli anche di cosa sono perché a volte si parla di intelligenza artificiale, io uso il termine intelligenza artificiale in tutto il libro, ma dichiarando all'inizio che in realtà è un po' errato come termine perché qui stiamo parlando di sistemi che statisticamente utilizzando alla fine l'algebra lineare i vettori cercano di indovinare più o meno ripetendo senza capire nulla delle cose che possono essere testi, immagini faccio sempre l'esempio della stufa a gas, la cucina a gas, dove se chiedi di disegnartene una, spesso fa l'errore di non far corrispondere il numero di fuochi al numero di pomelli perché quella sarebbe un'associazione che non è in grado di fare, mette pomelli perché sa che ci sono dei pomelli, mette dei fuochi perché sa che ci sono dei fuochi, lo fa anche in modo realistico ma non associa le cose e quindi noi spesso stiamo lasciando, bisogna saperlo però, lasciando che questa sorta di ripetitore statistico stocastico si occupi di scelte nostre e quindi questo è un momento in cui i large language models con questa pseudo intelligenza sono solo all'inizio perché pare che dietro l'angolo, non si sa ancora se è un rumor, se è realmente così, se si sta aspettando ci sia l'intelligenza artificiale generale quella per cui vengono riprodotti i meccanismi di apprendimento dell'uomo, quindi molto più simili a noi, e in cui non c'è bisogno di training, pare, non si sa se è un rumor che OpenAI abbia appunto Q star, Q asterisco, che dovrebbe essere questa sorta di intelligenza artificiale generale che a quel punto diventerà molto simile a noi e i ragionamenti siano simili, ma per ora non ce l'abbiamo, quindi stiamo lasciando che dei sistemi statistici decidano parte della nostra vita quindi più che la consapevolezza, il nostro potere non c'è perché non possiamo farne a meno, le invenzioni non possono essere disinventate, non possiamo smettere di utilizzare tutto questo, ma saperlo è la chiave E questo, dal punto di vista dei cittadini, è la prima difesa fondamentale, però ci sono anche altre cose che la società fa, per esempio le leggi le hai accennato, per esempio una teoria secondo la quale i principi e i valori dei progettisti della tecnologia poi si embeddano nei loro prodotti C'è un'idea dei principi, delle immagini, delle metafore che hanno in mente quelli che hanno fatto l'intelligenza artificiale attuali che si è incarnata nei loro prodotti ed è la seguente Noi abbiamo visto che fin dall'inizio era un imitation game con Turing, quando quella dozzina di scienziati megagalattici si sono riuniti per fare il primo pezzo di ragionamento su quella che loro hanno chiamato intelligenza artificiale 15 giorni prima che io nascessi Tanto per dire che non è proprio di ieri questa cosa qua, come vedete dai miei capelli, questa cosa che loro facevano l'avevano descritta dicendo, noi sappiamo che possiamo descrivere i ragionamenti, qualsiasi aspetto del pensiero, dell'apprendimento, di quello che succede nell'attività cognitiva degli umani così precisamente da poterlo replicare e simulare con i calcolatori e quindi lo simuleremo, imitazione, simulazione, questa è l'immagine che ha condotto a quello che noi abbiamo e che Marco ci ha descritto come pappagalli stocastici, questo genere di cose che ci sono potete acquistare in ogni libreria Quindi con il discorso di questo, se ci sono altri valori, altre metafore, altre indicazioni vengono fuori altre cose, per esempio noi potremmo pensare che diventando consapevoli di questo con delle leggi che spingono in questa direzione si voglia non più cercare di imitare gli umani che quindi induce nell'idea di sostituirli, ma fare soltanto cose che migliorano le nostre capacità, che fanno cose che noi non sappiamo fare Inoltre qui arriviamo anche alla singolarità, quindi a quel punto in cui l'intelligenza artificiale ancora è utopico ed è ancora molto distoppico ma poco ancora non esiste, però si immagina un punto in cui potenzialmente l'intelligenza artificiale diventerà magari più intelligente di noi a livelli che ancora oggi non comprendiamo ma senza arrivare lì, tornando almeno all'intelligenza artificiale generale, i valori di cui parlava Luca, tornando indietro ricordiamo il don't be evil di Google che però si è perso semplicemente non per altro perché i fondatori non sono più lì e quindi adesso sono solo logiche di business con tutto il bene che vogliamo al business, mancarebbe altro, ma sappiamo che hanno obiettivi diversi, un'esempietta di importanza della nostra consapevolezza, nel mondo degli esperti ci si confronta, e io ne conosco tanti di esperti, non di valuba che si inventano, che dicono che la regolamentazione dell'intelligenza artificiale sia un male ce ne sono tanti, uno dice da che parte devo stare, perché dicono che siamo mali, perché ne limita lo sviluppo, lasciamo che la tecnologia cresca e faccia il di al suo meglio, perché dobbiamo imbregliarla, ok? e qui anche lì ne parlo, bisogna scegliere da che parte stare, questa è una divisione, una polarizzazione importante, cosa dobbiamo fare? Regolamentarla o pure no? e io sono tra quelli che dicono dobbiamo regolamentarla, perché è un po' come il traffico, spiego, le automobili belle in giro, ma c'è il codice stradale, altrimenti è un guaio, bellissima la tecnologia che ci permette di volare, ma voliamo sicuri e safe grazie a tutte le regole, le norme che sono imposte al mondo aeronautico, in generale, aereoporti, veri, un piccolo interruttore deve passare 77 controlli per essere messo su un aereo, eppure gli aerei volano e fanno il loro servizio, cioè ci tutela, ci tutelano, quindi in quel caso regole, leggi, norme, codici ci tutelano, e io ritengo che sia fondamentale che ciò avvenga, perché altrimenti, giustamente con l'ottica solo del profitto, perché in fondo poi è così, rischiano oggi sistemi che guidano direttamente la nostra vita, rischiano di diventare pericolosi, quindi anche lì bisognerà decidere da che parte stare, solo la cultura, solo la conoscenza ci porterà poi a ognuno, dirà aspetta, poi ci sono questioni internazionali importanti, ne parlo, parlo di long distance nationalism, cioè il fatto che oggi quando si parla di regolamentare tutto questo, il problema è che viviamo in un mondo che non è la globalizzazione, è un'altra cosa, cioè viviamo contemporaneamente in due mondi, quello culturalmente fisico della nostra vita, delle amicizie che abbiamo fisiche, cioè è di quello digitale, ovvero dove viviamo, lavoriamo, vendiamo, compriamo, amiamo, ci influenziamo e allora cosa accade? Vi faccio un esempio molto semplice, a volte le persone mi scrivono, Marco ma è possibile che la polizia non faccia nulla contro quel deep fake, contro quella, contro la truffa? Però pochi si rendono conto che la maggior parte di queste provengono magari da delle strane, dei paesi diversamente democratici, con dei dittatori che vivono nel loro mondo, che però oggi dalla loro piccola penisola possono in italiano, perfetto, o nelle varie lingue, produrre contenuti di disinformazione o fregare i soldi o possono fare un mucchio di cose. E tu come li fermi? Cioè parte la polizia da qua, arriva là con la paletta? Cioè no, non riesci, non puoi, è complicato, riusciamo già, ma la pena, con fatica, non ce ne accorgiamo tutti i giorni perché è roba poco dal telegiornale, difendere il perimetro nazionale da tacchi importanti alle nostre centrali, alle nostre tutte le infrastrutture che funzionano. Per cui figuratevi quello lì che arriva, e va a sparare il deep fake o il coca. Per cui viviamo su questo doppio livello, quindi anche quando regolamenti, regolamenti cosa? Allora dici, allora dai Marco, siccome sappiamo che il limite è questo, lasciare la regolamentazione, lasciare aperto, tanto non riuscirai. Però io preferisco un cola brodo, una scola pasta con i fiotti che escono perché continua a uscire l'acqua piuttosto che un tubo dove l'acqua arriva secca, decisa e che mi fa negare. Per cui va bene, è una scola pasta, almeno rendo conto, non si può fermare la disinformazione, non si può fermare, non si può controllare tutto anche perché poi queste intelligenze artificiali si basano tutte anche se sono mille software apparentemente, si basano tutte su sette, otto modelli di base foundation mode, cioè motori che sono sempre quelli lì. Perché oggi crearne uno costa decine di miliardi, tant'è che in Europa facciamo una gran fatica ad averne uno ed è per quello che tra l'altro, poi chiudo il tema della regolamentazione, c'è stata anche una grossa tensione non solo tra le persone ma anche internazionale nel dire sul tema soprattutto AI-ACT, quindi l'approvazione di regole o come dire di regolamenti o di, no, che poi verranno ovviamente adottati dai vari paesi, noi tra l'altro stiamo per farlo in Italia, in cui uno dice sì, ma ci tiriamo la zappa sui piedi, cioè stiamo regolamentando quando i buoi sono già scappati, cioè quelli hanno già indicizzato tutto, hanno già preso tutto e noi diciamo che non si può fare, così non lo possiamo fare nemmeno noi. Non è una gran prospettiva ma effettivamente è una delle possibilità, così come appunto vedremo, l'AI-ACT è anche molto grazie soprattutto all'intervento dei francesi che vanno da proteggere, Mistral è anche molto facile da usare per le aziende piccole, per le state. E' un model europeo francese però piccolino rispetto ai big. Certo, insomma, vedremo, questa è una, come? Sei tu il capo qua, c'è la mano alzata. Una mano alzata, noi siccome siamo contrari alle regole, prego, dica. Su chi potrà gestire da un punto di vista proprio di potere questi sistemi, perché le regole che si possono anche creare, le abbiamo create. E' giusto, in pratica lei ci sottolinea un punto che è molto interessante per passare al prossimo capitolo ed è questo, siamo di fronte a una competizione di tecnologie oppure siamo di fronte a una competizione economica di business oppure siamo di fronte a una competizione di potere tra grandi regioni del mondo? Siamo di fronte a una competizione soprattutto di potere, perché evidentemente, insomma, come dire, per quanto siano tanti miliardi in circolo sono pochi rispetto in fondo a quello che oggi i paesi strategicamente investono per sopravvivere, no? Questo è un po' il punto. Immagino che il secondo sia etico, vero, quello dove stai arrivando, tu o se no volevo passarci io, non so se... Beh io volevo, sì, ma inquadrandolo, perché avevamo detto... Tu inquadra e io... Perché avevamo detto, no, dove siamo e abbiamo descritto, per quanto ci sia ancora molto da dire, però abbiamo capito che non è che siamo in un posto tanto facile, ma ci sono delle cose che possiamo fare e alla fine ce la possiamo fare, ma dato dove siamo, dove andiamo, ma è questa cosa nel libro che serve da spunto per questa conversazione, che serve da fine di questa conversazione, che serve da contesto di questa... C'è tutto il passaggio che poi è introdotto dalla questione filosofica del lungo termismo, del long termism e delle varie, tra virgolette, dottrine filosofice con le quali si interpreta quello che succederà, perché naturalmente noi sappiamo che il futuro non esiste, esistono solo le sue narrazioni, e una delle narrazioni è quello che conta non è tanto quello che sta succedendo adesso, ma quello che succederà nel prossimo milione di anni, perché le persone che vivranno nei prossimi milioni di anni sono molte di più di quelle che vivono adesso. Questo assunto che sembra quasi, insomma, non problema, diventa un grande problema, perché induce a dirci sì e quindi che cosa dobbiamo fare adesso in nome per conto di queste generazioni future? Allora, questa è un'altra... la risposta sta in tanti libri, nel mio provo solo a trovare delle risposte a delle verticalità, però sicuramente oggi abbiamo dei long termisti, alcuni un po' matterelli come il Omask, però riesce a ragionare così, e altri che sono magari un po' meno matterelli, un po' più legati al business. Che cosa dobbiamo fare? Dobbiamo soprattutto guardare a lungo termine, nel senso che è l'unico modo per affrontare il futuro, poi si tocca il senso della vita, cosa che non sono all'interno del libro. E credo che l'etica, perché ce la volevo ficcare dentro... Che cosa dobbiamo fare? Credo che l'etica sia centrale, però il secondo step è quale etica? Faccio sempre vedere nei miei speech la moral machine, che è qualche anno, del Massachusetts Institute of Technology, in cui mettono a disposizione delle persone la possibilità di scegliere cosa fare in una serie di scenari. E c'è l'automobile che si guida da sola, nello scenario base, come concetto, che deve decidere, perché è di fronte a questa scelta, se ammazzare, perché si trova in difficoltà, la vecchietta o il bambino. E allora lì hanno verificato, perché era già nota questa cosa, ma è venuta fuori, chiara che, in esempio, in Asia tendono a salvare l'anzia, e in occidente tendiamo a salvare il bambino. Tendiamo di più. Poi ci sono altri scenari, quello dove può succedere il conducente, però nel conducente c'è un bambino, e ogni volta cambia. E allora ognuno, poi, alla fine, culturalmente, macroscopicamente, più microscopicamente, ha proprio approccio etico alle cose. E dal momento in cui c'è una sorta di macchina che prende decisioni per noi, che noi deleghiamo, perché l'uomo ha mentato, un altro concetto che c'è nel libro, cioè l'uomo che utilizza le tecnologie per essere più performante, ma non vengono integrate, perché quello è il transumanesimo ed è un'altra cosa, è un po' contrario quasi alla filosofia che esprimo con il cyberumanismo, che sarà necessario, perché saremo tutti aumentati, ma è automatico. Dal momento in cui le tecnologie sono comode, veloci, semplici, a poco basso costo, che ci permettono di fare cose in più, noi le utilizziamo, anche i meno innovatori, anche quelli più tradizionalisti tendono poi ad utilizzarle. E allora, quindi, deleghiamo delle pseudo-intelligenze artificiali per fare cose per noi, ma quando devono prendere delle scelte per noi, e vi assicuro che sarà sempre più comune che glielo faremo fare, perché ci impigriremo anche, su quale base etica lo faranno? E allora, io immaginavo un futuro in cui ognuno di noi avrà il proprio file etico che verrà integrato, e quindi questa è l'idea che mi auspico, dove alla fine uno dice sì, però la macchina in fondo interpreta un po' quello che voglio essere io. Perché se ci basiamo sull'etica che in teoria dovrebbero preinserire, non solo rispecchia la nostra, ma poi non è ovviamente uguale per tutti. E allora la parte etica attualmente non esiste, cioè non c'è. In questo momento siamo completamente scheveri. Cioè non esiste, non c'è un insert etico, nemmeno, non solo personale, neanche globale. E questo è un problema, se non quello comune, cioè il foundation model non ha alcuna etica nel fare le prendere le scelte, la parte interfaccia sì. Per cui se chiedete a Ciao GPT, dimmi come creare una bomba in casa, Ciao GPT ti dice non lo posso fare, ma non perché il modello non lo può fare, perché l'interfaccia ha una filtro che dice no, non fare, infatti ci sono sempre tentativi di aggirare questa roba. E quindi questo è un altro importante punto. Ci ancherebbe, infatti questo è poi connesso all'argomento della visione di lungo termine, perché ci poi questo tipo di discorso che è, come tu ricordi, motivato in un movimento culturale di altruismo efficace, che si occupa di sviluppare metodi per essere... Perché in fondo l'altruismo è una specie di etica, è un frutto comportamentale di un'etica, l'altruismo efficace del quale tu parli è un altruismo pragmatico, non ideologico, che si basa sui risultati, eccetera eccetera. E tutto questo è in qualche modo il contesto, se non sbaglio, che ti piace, che è positivo, pragmatico, eccetera. Indubbiamente questo è anche interpretato in maniere molto diverse che hanno delle conseguenze molto gravi sulla nostra vita. Il guardare a lungo termine come se il futuro fosse necessariamente positivo dei techno utopisti, oppure come se fosse necessariamente negativo, come molti appunto di zastrologi ci raccontano. Lì il dibattito è filosofico, ma pragmatico. Tu come fai? Qual è il tuo metodo per entrare in questo dibattito in maniera che abbia una certa efficacia? Tutto questo una volta si traduceva in bit, adesso si traduce in vettori e tra un po' si tradurrà in qubit con i computer quantici. E quindi riuscire a schematizzare, ad avere la visione dall'altra parte del muro, per cui banalmente dico sempre che manca più che l'informatica a scuola, la mentalità computazionale insegnata a scuola, che serve così come il resto. Non devono diventare tutti programmatori, ma così come non dobbiamo diventare tutti matematici quando facciamo anni di matematica tra elementari, medie e superiori. Però la studiamo, poi ce la dimentichiamo, ma non è vero, perché in realtà ci ha formato. La formazione di quel tipo di mentalità, non c'è poco, bisognerà aumentarlo. E quindi un modo per interpretare come ne esco, come riesco poi a scegliere da che parte stare, perché poi la solita divisione non solo catastrofisti e positivisti, ma anche simile a quella del regolamentare e dell'elementare. Come vedete sono tante poi le scelte da operare personali di fronte a tutto questo. E quindi io come faccio cerco di comprenderne i meccanismi che li fanno funzionare, anche se a volte non hai le leve per guidarli tutti, perché ovviamente non ho un foundation model in casa da utilizzare per le mie cose, però per lo meno ne comprendo dei meccanismi. Ad esempio banale, che deriva semplicemente dal conoscere cosa c'è dietro. Si parla di regolamentazione, quindi diciamo, tu open AI, tu LAMA, Facebook Meta, non puoi fare questo, puoi fare questo, questo è forse. Questo lo puoi fare solo qui e non là. E siamo fermi un po' lì, almeno io vedo che nella maggior parte del dibattico tocca e questo, e ci siamo spesso dimenticati che esiste l'open source di questa roba. E quindi, e lì ne parlo. Se andate su Hug in Face, che è un sito diventato famoso perché raccoglie tutti i modelli di intelligenza artificiale, compresi, soprattutto quelli open source, dove con alcuni strumentelli, anche uno non proprio altamente informatico, è in grado di far funzionare uno di questi modelli localmente. E più passeranno i giorni e le settimane, perché qui non parliamo più di anni, e più ci saranno strumentini per poterlo fare in modo facile, si può installare localmente uno di questi modelli qua. Alcuni di questi completamente sbloccati, liberi. Per cui io posso dire, ad esempio questo è poco noto, posso dire, hey, open AI, abbiamo fatto l'AI Act, che in realtà nelle AI Act io ho insistito moltissimo durante la discussione, non ero a Bruxelles, ma da fuori rompevo le scatole via Twitter, e dicevo, hey, ma scusate, open source? Sì, adesso poi ti dico. E alla fine non è venuto fuori un granché sull'open source, è stato quasi lasciato lì, perché in effetti è un problema gigantesco. Da una parte è un'opportunità, io sono sempre stato un fautore, un sostenitore del mondo open source, perché per quello che significava fino all'altro giorno. E oggi comincio a porre delle domande anch'io, perché, ad esempio, produrre immagini di terzi che li vedono in situazioni imbarazzanti, è un reato, e non solo è un reato se lo fai, ma per di più queste piattaforme ti impediscono di farlo. Perché, ovviamente, hanno il famoso filtro, e ma localmente fai quello che vuoi. Poi anche vietare ai big di farmi fare il deep fake di Biden, tornando ad una cosa più civile come esempio, no? Ma localmente io faccio quello che mi pare, localmente posso veramente fargli creare, così come oggi le intelligenze artificiali in medicina ci stanno aiutando a scoprire nuove cure che nemmeno avevamo immaginato poter fare. E se adesso resistere, probabilmente la famosa bomba da fare in casa con un modello open source in casa, posso progettare bombe che non erano mai state pensate prima, o distruzione dell'umanità che non era mai stata pensata prima. E quindi l'open source è completamente libero da questo punto di vista, per cui anche lì sapere questa differenza è banale, no? Che si può fare, non si può cancellare, non si può disinventare, però sapere che si va benaldilà. Quindi magari qualcuno sostiene fortemente la voglia di regolamentazione, di regole, di college, e poi dice non sa che invece con tre click localmente puoi fare tutto quello che ti pare. E quindi, allora, per tornare a dove siamo, quindi le scelte che noi compiamo adesso, che avranno delle conseguenze sul lungo termine, anche sul breve, anche sulla nostra vita di domani, domani proprio domani, come tu ti alleni, come ti abbeveri di informazione, che approccio suggerisci a tutti noi per restare critici, attivi, e in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, in generi, non capiamo che c'è una forte differenza, forse perché non sappiamo ancora bene quante possono essere, quante sono le interazioni che forse non conosciamo neanche sino in fondo, tra umani fisiche, quello che poi state percependo ora non è paragonabile a quello che potete percepire di quello che ci siamo detti fino adesso digitalmente, ma soprattutto il grande step è che tutto può essere falsificato, e può essere falsificato ad un livello estremamente realistico. Piano piano stiamo imparando, perché un po' come, credo di aver fatto un esempio anche nel libro, un po' come fratelli Lumiere, sì l'ho fatto, dove, eh, che quando si dice poi era in realtà una fake, ma che nella sala fossero scappati tutti quando il treno arrivava, in realtà poi era stata una notizia falsa per far parlare di quello, pensate il paradosso, e, e, e in realtà anche noi, le prime immagini dell'intelligenza artificiale, adesso incominciamo a vedere, un po' perché sappiamo che nelle prime versioni le mani non venivano bene, e poi perché ci sono quelle particolarmente colorate che sono tipiche di, avete presente, di un modello e le riconosciamo subito, ah, è un'intelligenza artificiale, e poi quando vediamo alcune immagini le riconosciamo subito fino ad arrivare a non capire più, e adesso sarà così, addirittura a pensare che immagini vere siano false, no? Il fotografo che ci ha messo vent'anni per riuscire a beccare su Superga la foto della Luna, si è beccato una marea di commenti dicendo che le sue foto in realtà erano false, questo è stato lì analogico, fisico, con il rullino a fare quella foto. E allora come si fa dal momento in cui sono raricolosi e quindi la gente ha infämissime queste occasioni nella nostra dieta informativa e la maggior parte delle volte tutto è digitale e quindi è un po' di tecnica non informarsi banalmente, solo attraverso il social network come fa l'80-90% delle persone, banalmente. Andare a rivalutare la autorevolezza delle fonti, no? La reputazione delle fonti perché alla fine ci si deve basare su questo, di una persona è più importante poi di quanto io si ingaro, cioè mi fido perché ha un'altra reputazione, un'altra reputazione. Quindi questa è la fonte, quale fonte? E in questo momento aiuterebbe anche tanto i produttori di contenuti che in questo momento a volte sono costretti ad abbassare la loro qualità per fare i numeri e sopravvivere. Invece sarebbe molto meglio se rimanessero là in alto. E quindi ad esempio io utilizzo molto i feed rss abbandonati da tutti, che vuol dire ogni sito ha un, dietro nella maggior parte dei casi, ha un robino, che è una specie di spina da cui puoi andare a prendere l'informazione pura, cioè l'immagine, il test senza tutta la graficina del singolo contenuto. E dove, che fa male ovviamente a chi vende pubblicità, ci mancherebbe, però fa bene a me che mi devo informare, e dove sostanzialmente riesco ad avere con un software di lettura i contenuti delle singole categorie aggregati. E quindi quello è un modo in cui mi informo, oltre ovviamente ad andare nei siti dei più autorevoli. Dopodiché, un'altra cosa, quindi già da lì mi sono scelto le fonti e le leggo velocemente tutte insieme. Un'altra forma è quella del frequentare molto gruppi reddit cuore, andare a raccogliere informazioni lì, dove a volte si annidano, soprattutto nelle nostre verticalità, io la mia, ognuno di voi alla propria, si annidano delle grandi verità e delle cose molto molto interessanti, ci sono grandi discussioni e questo è la mia dieta mediatica che mi aiuta, non so se può essere l'ispirazione a qualcuno. Con la massimo della ipocrisia, questo è il momento della domanda che abbiamo per l'ultimo minuto di questa, se ci fosse, e se per caso è imbarazzante fare, eccolo. No, perché non potevo fare la figuraccia di essere beccato a scriverlo con ciaggipetti, però mi sono fatto aiutare, mi sono fatto aiutare, in senso che ci sono stati dei momenti in cui ho detto, ascolta, ma soprattutto nella bibliografia, dici ma questi concetti qua mi aiuti a ricordare chi altro se ne era, e mi ha aiutato in questo, strumenti verticali, però proprio la scritta, anche lì a proprietà del treno si vede, ogni tre frasi dice inoltre, la scrittura creativa per ora rimarrà tale nella punta dell'iceberg, perché il sotto è completamente portato via da questi sistemi, per cui è così come l'avvocato sotto è portato via, però la lettera di rifida è la scriveci a gpt, l'avvocato aumentato, quindi c'è l'avvocato che verifica che sia giusto quello che scrive, però poi ne scrive 100 a differenza di quello che poteva fare prima. E lo scrittore è effettivamente, via, il traduttore, via, il doppiatore, via, massivamente, poi c'è là sopra la punta, bisogna secondo me cercare di collocarsi là, e piano piano poi succederà, c'è un tema globale di occupazione, però io non posso risolvere, e nemmeno pensare quasi a come risolverlo, ma adesso io suggerirei a ogni singolo, elevati, vai lassù e specializzati, e soprattutto, anzi, usa, cioè una slide che uso spesso nei miei speech è, i primi, i primi, i primi, i primi, i primi, i primi, i primi, i primi, i primi, i primi, i primi, i primi, i primi, i primi, i primi, i primi, i primi, i primi, i primi, i primi, i primi a essere sostituiti dall'intelligenza artificiale saranno quelli che non utilizzano l'intelligenza artificiale. Per fare queste slide? Per esempio. Ho capito, bene, grazie Cyber Urbanesimo.
{{section.title}}
{{ item.title }}
{{ item.subtitle }}