L’intelligenza artificiale di Dovstoeskij
Incorpora video
L’intelligenza artificiale di Dovstoeskij
L'intervento esplora l'impatto dell'intelligenza artificiale, in particolare di ChatGPT. Si analizza l'evoluzione del machine learning, dalla classificazione alla generazione di informazioni e alla capacità conversazionale. Si distingue tra intelligenza artificiale generativa e generale, sottolineando la necessità di responsabilità morale nell'utilizzo di sistemi sempre più autonomi. Si discute il diritto d'autore e l'etica nell'addestramento di questi sistemi.
I giorni alla sensibilità A force cre Piano Regne Oggi Provalici La Fondazione DiCaprio La Fondazione DiCaprio La Fondazione DiCaprio La Fondazione DiCaprio La Fondazione DiCaprio La Fondazione DiCaprio La Fondazione DiCaprio Guest the most combo Before & Before Guest the most combo Whether you like it or hate it La metrologia, che essendo diventati anche amici, posso dire di aver scoperto che è una scienza... ci sono pochissimi scienziati al mondo di questa materia, 200, più o meno. Vi trovate fra qualche giorno a Parigi. Domani a Parigi. Cioè, la scienza che studia la misurazione delle cose? La misurazione. Anche delle abilità umane, per esempio. E' un tema dell'intelligenza, no? Per esempio, se come in quanto è misurabile. Poi lo dico io, perché lui non lo direbbe, perché è anche modesto, insegna oltre la Luke, ha insegnato a Berkeley, ed è stato tra i primi scienziati italiani coinvolti nello studio, nell'elaborazione delle intelligenze artificiali. Allora, se più o meno la tua descrizione è corretta... Sì, va be', dai, è corretta. E appunto, l'ho detto che è molto modesto. Iniziamo da una data. Allora, iniziamo da quel 23-22, com'è? Quello è il numero giusto, di novembre. 30 novembre 2022. Che cosa succede nel 30 novembre 2022? Sì, è una caccia al tesoro che potremmo fare, infatti. E quindi mi dai il lapper. Di intelligenza artificiale si parla, figuratevi, da almeno metà degli anni 50, del secolo scorso. Ma dubito che prima del 30 novembre 2022, teniamo sempre lì questa bandierina, avremmo riempito sale o pagine di giornali, se se ne fosse parlato. Anzi, c'è stato un lungo periodo, anni e anni, in cui intelligenza artificiale voleva dire disciplina screditata, non considerata appropriata, che concretamente vuol dire non solo far fatica a insegnarla in università, ma anche far fatica a trovare finanziamenti. Non che il soldo sia tutto, ma comunque. Quel 30 novembre 2022, persone, appunto non molti, come me, e non molti altri, hanno ricevuto una mail che era pressoché sconosciuta all'epoca, californiana, che si chiama OpenAI, AI come artificial intelligence, che diceva più o meno, ma abbiamo un nuovo oggetto che potresti provare e dirci cosa ne pensi. Perché fino a quel momento questo era stato il modo con cui si era operato. Cioè molto dal basso, gli ingegneri amano dire che si era un'opera di scopo, partiamo dalle cose molto concrete, molto dal campo e vediamo cosa succede, salendo progressivamente, se eventualmente. Faccio un esempio. Due settimane prima, una grande azienda che tutti noi conosciamo, che si chiama Meta, Facebook, aveva fatto un gioco analogo con un oggetto di cui oggi nessuno si ricorda, e 48 ore dopo l'hanno chiuso, l'hanno tolto dall'accessibilità via web. Perché? Beh, allora vediamo. Cos'è successo quel 30 novembre 2022? Nella mail che qualcuno ricevette c'era un'indicazione tipo prova a questo sistema. È un nuovo chatbot. Chatbot è un termine inglese che esiste da tanti anni, bot come robot, cioè entità artificiale, che in realtà si usano, non il termine chattare. Quindi, come noi quando eravamo piccoli avevamo il termine macchina da scrivere. Se volessimo tradurlo, non credo che esista il termine, lo potremmo chiamare macchina da conversazione, va bene, se vi piace, lo potremmo inaugurare. Ecco, una nuova macchina da conversazione. Anche Galactica di Meta, di 15 giorni prima, era una macchina da conversazione. L'ultima volta che era stato con attenzione e nell'arco di pochissime ore si era messo a insultare le persone che dialogavano con. Perché i cosi artificiali non è che possiamo pensare che abbiano le inibizie. Va bene, anche noi esseri umani siamo sempre inibiti in modo appropriato. Quindi, soprattutto considerando che veniva promosso da una grande azienda americana, dove il politico alicorecto è molto, si pensò, ok, esperimento fallito. L'esperimento di OpenAI non solo non fallì, non è fallito, ma sappiamo cosa è successo. Il signore si chiama ChatGPT. È un termine, è una mezza sigla, è una crocchio, perché chat è come chat. GPT vuol dire, in breve, non voglio fare una lezione, ma ti sta per la cosa più strana di tutte. Perché questo coso è una rete neurale, però artificiale, quindi è una cosa che mima il funzionamento del cervello umano, e ne potremmo parlare a lungo, ma di un tipo particolare, è T-Transformer. E sapete, una delle prime cose veramente sorprendenti, tutto questo è un tipo di trance, è che i Transformer li ha inventati Google, che invece da quel momento abbastanza perso il treno. Sì, stanno cercando di recuperare, ma come mai viviamo in un contesto in cui forse in questo momento l'entità tecnologica che produce più competizione, più denaro, più finanziamenti, più venture capitalista, più di più di più di più di più di più di più più denaro, più finanziamenti, più venture capitalista involvement. Cercherò di non usare l'inglese. Google ha regalato al mondo. Ecco, questa è una delle tantissime domande che ci stiamo facendo, su cui, tra l'altro, scriviamo anche, perché l'ultimo articolo che ho pubblicato sul Sole, è esattamente per cercare di rispondere a questa domanda. T sta per Transformer, GPT. E' veramente sorprendente. La rivoluzione che noi stiamo vivendo nasce da un singolo punto che ci riguarda perché per la prima volta succede qualche cosa per cui il software è davvero simile a noi. P vuol dire pre-addestrato, pre-trained. Questi cosi, fatemi chiamare così, per ridurre il peso degli antropomorfismi che inevitabilmente dovrò usare, che ricordano, eccetera. Quindi vi chiamerò così per ricordare a tutti noi, o almeno a me, che non sono esseri umani. Questi cosi hanno un comportamento che deriva, un po' come nel misto psicologico per noi esseri umani, quanto di natura, il DNA, e quanto di cultura, il nostro apprendimento, deriva moltissimo anche da loro apprendimento. P come pre-addestrato. E come? Questo è uno dei cuori del problema. Non ce n'è solo uno, quindi diciamo al plurale. Spesso si sente, nelle conferenze sull'intelligenza artificiale, la seguente frase. Ma tanto questi cosi fanno quello che io gli ho detto di fare. Noi mettiamo dei dati dentro e loro fanno quello che noi gli diciamo di fare. Dentro la P c'è che questo non è vero. Spiegaci perché non prendono i dati e fanno quello che diciamo noi. In italiano il termine software l'abbiamo sempre tradotto con programma. Tanto che quando qualcuno usa la locuzione programma software suona ridondante, enfatico, inutile. Dimmi l'uno, dimmi l'altro. E per molti aspetti c'è una buona giustificazione di questa associazione lessicale che diventa quindi semantica. Programma è l'italiano per software. Non che nei laboratori questo non lo si sapesse, ma da quel famoso 30 novembre 2022 si è mostrato che questo è falso. Il signor C.A.G.P.T. Scusate se lo chiamo così scherzosamente. Naturalmente. Il signor C.A.G.P.T. è software, sì, è un programma solo in modo molto, molto limitato. È un'entità software di un genere diverso che di principio esiste da tanti anni, dalla fine degli anni 50. Il termine inglese per questa entità, che quindi non è software ma non programmato, è machine learning, che di per sé, già a sentirlo dire, se non fosse che ci siamo forse abituati, traduciamolo in italiano. La traduzione che tipicamente usiamo è questa. Sistemi di apprendimento automatico. Due respiri profondi. Aspetta un attimo. Cosi automatici che imparano. Ci sono le due facce della medaglia, anche per noi. Qualcuno ti insegna, possiamo chiamarlo insegnamento, addestramento, etc., e qualcun altro che impara. Quindi training and learning. Queste sono le due facce. Il processo e il risultato. Questo è il punto. Il risultato, che non sia più solo potenziale, deriva prima di tutto da quella P. Dal pre-addestrato. Naturalmente per il signor Cia GPT e i suoi fratelli, sempre terminologia scherzosa, l'associazione psicologica tra cultura e natura, in inglese nature of nurture, quindi si mantiene sempre l'assonanza, non si applica, non si può dire natura, perché il signor Cia GPT è un oggetto artificiale progettato da noi, non naturale, risultato di milioni di anni di evoluzione, diciamo darwiniana, per capirci. Però l'alternativa si pone comunque. La domanda per chiunque di noi dialoghi con un chatbot oggi è che quello che io vedo di questo comportamento deriva dall'equivalente della natura che potremmo chiamare ingegneria, programmazione. C'è una componente di programmazione. Non interro in dettaglio, a meno che non me lo chiederai, o me lo chiederete, Python. Un po' di linee di codice di Python. Ma quello è come il cervello vuoto di un essere umano, un bimbo di un giorno di vita, che è un'immagine che ha una grande capacità di fare tante cose. Ma perché, cito Aristotele, perché diventi in atto qualche cosa deve vivere una società. La sua natura, il suo DNA, il suo cervello che poi non è vuoto, ma non importa, deve immergersi in un contesto in cui cresce culturalmente e si progettano questi oggetti software, ma poi perché abbiano un comportamento appropriato bisogna addestrarli. E qui si apre un mondo. Come li addestriamo? Quando, giustamente, tu dici, hanno un comportamento in parte sorprendente, anche per gli sviluppatori stessi, di nuovo, fatemi fare di nuovo dei paralleli con l'esperienza nostra. Io credo che una delle cose che più ci rimarrà di questi anni che stiamo vivendo insieme, in modo consapevole, sarà che ci avranno aiutato questi cosi a capire meglio noi stessi. Perché purtroppo Lomino Verde, per fortuna come dato di fatto, da Andromeda, da Sirio, etc., non è mai arrivato. E quindi anche quello che leggiamo degli extraterrestri, che vediamo nei film di Santa Scienza, che leggiamo nei romanzi di Santa Scienza, è una proiezione della mente umana. Mentre questi, pur essendo costruiti da esseri umani, hanno una loro autonomia. Stiamo vivendo una fase, perdonatemi se continuo ad antropomorfizzare in modo così diretto ed esplicito, in cui questi cosi stanno vivendo la fase della loro adolescenza. Per esempio, per gli esseri umani, così ci dicono gli psicologi, nella fase della loro scienza passiamo dalla eteronomia, la legge ce la danno gli altri, papà e mamma, genitori maestri, ad autonomia. E noi stessi, insomma, un bimbo di tre anni non è sorprendente, fa tendenzialmente quello che i genitori gli hanno insegnato. In un cazzo di 15 ogni tanto torna a casa e si dice, ma aspetta un attimo, perché ti comporti così? Quanti anni ha il bambino? Siamo nell'infanzia. Nel libro si spiega bene, perché siamo vicini alla cosa più simile all'arrivo di un alieno. Questa è l'ipotesi. E quindi siamo vicini alla... insomma, non sappiamo davvero di fronte a che cosa siamo. Per cui è molto bello l'approccio del libro, perché non è né tecno-entusiasta, né tecnoproibizionista, proprio perché siamo di fronte a qualcosa di completamente nuovo. Per spiegare perché c'è questa novità, ti chiederei intanto di arrivare fino alla G.I.O. Anche perché c'è molta confusione sul tema, di spiegare anche la differenza tra intelligenza artificiale generativa e intelligenza artificiale generale, che mi hai spiegato un giorno. E' fondamentale, chiedo scusa, dico un ultimo fatto di cronaca. Voi sapete che a un certo punto si è avviata una causa giudiziaria tra Elon Musk e Sam Altman, i due guru di questi nuovi mondi. E alla base di questa causa giudiziaria è in particolare la distinzione tra queste due intelligenze, quella generativa e quella generale. Perché qualora l'intelligenza artificiale fosse già arrivata a un'età superiore ai 2 o 3 anni, cioè fosse già generale, sto un po' esagerando. Ma adesso tu mi correggi. Saremmo di fronte a un rischio molto forte, quindi, dice Elon Musk, devi fermarti, devi dare tutto a una fondazione pro bono, non devi più fare profitti con l'intelligenza artificiale perché siamo a un livello troppo alto. Ci spieghi in modo semplice la distinzione tra intelligenza artificiale generativa e generale. Grazie. GPT dicevamo, alla G, che sta per generativo, non generale, sono stati saggi e non hanno messo il generale al posto del generale. Generativo vuol dire nuova versione del machine learning. Quindi se posso usare le mani per disegnare nell'aria degli insiemi, questo è l'insieme dell'intelligenza artificiale al cui interno sta il sottoinsieme del machine learning. Oggi non lo usiamo più, ma c'è stata un'intelligenza artificiale che non era basata su sistemi addestrati, si chiamavano sistemi esperti, sono stati molto di moda negli anni 80 e 90 del secolo scorso. Il machine learning esiste da almeno 20 anni e è incorporato in molte delle cose che noi oggi facciamo del digitale. Faccio solo un esempio, ma insomma, chiunque di noi usi un sistema di posta elettronica implicitamente usa un sistema di machine learning nel filtro antispam, che sa riconoscere, con degli errori, comunque, presunta, quando arriva una nuova mail, se è una mail buona e quindi ce la lascia, o è una mail probabilmente spam e quindi ce la mette nel cestino. Qualcuno ha programmato questo comportamento? No. Il filtro antispam è un sistema di machine learning e quindi ha un comportamento addestrato. Ma il suo risultato è di pura classificazione. Sì, no. Buona o non buona? Ma è una mail da mantenere o buona o maila da mettere nel cestino. Fino a una decina di anni fa, si diceva machine learning e si intendeva sistemi che classificano oppure che fanno previsioni. Non parlerò dei sistemi che fanno previsioni per il mercato borogano, perché non voglio infilarmi in un ginefraglio. Ma c'è stato un momento in cui il break tutto sommato l'abbiamo metabolizzato e è stato comunque tecnologicamente marcato, e cioè quando abbiamo cominciato a usare sistemi di machine learning per fare traduzioni. Credo che tutti noi abbiamo vissuto magari in modo non completamente consapevole il fatto che c'è stato un periodo in cui i sistemi di traduzione automatica, per continuare a non far nomi Google Translate, hanno avuto moltissimo le loro capacità. Perché? Perché si è passati da un'intelligenza artificiale vecchia, programmata, sistemi esperti, a sistemi di machine learning. Ma un sistema che traduce, genera informazioni. Quindi i sistemi di traduzione automatica sono stati i primi esempi di sistemi di machine learning generativo. Quello che mancava era di trasformarli in un'intelligenza artificiale, scusate se sono così didattico, sistemi generativi, che cosa mancava ancora? Cioè la rivoluzione che noi oggi stiamo vivendo deriva da un sotto insieme. I sistemi di intelligenza artificiale con apprendimento automatico, generativi conversazionali. Noi esseri umani viviamo la nostra esperienza sociale, perché viviamo in un contesto culturale. Pensate invece come è diverso il mondo delle traduzioni. Io ti faccio una domanda, tu mi rispondi e poi ci dimentichiamo di noi. Pensate come Google è ancora così. Il motore di ricerca Google non ha un contesto. Ci consente di fare una domanda, quella che chiamiamo query, condizioni di ricerca, ci dà una risposta e si dimentica di noi. In realtà si ricorda di noi ma dietro le quinte. Ma non ci consente di fare una seconda domanda del tipo, aspetta spiegami meglio. Tra il 2015, il 2020, 2022, la ultima rivoluzione che ci hanno proposto i signori è stato il trasformare sistemi che apprendono, che si riempiono, in sistemi che, oltre che generare informazioni, sanno mantenere il contesto. E il contesto di uno scambio testuale è quello che noi chiamiamo dialogo-conversazione. Quindi sistemi conversazionali, chat, bot. E questo ha cambiato tutto, perché questo ci fa vivere per la prima volta un'opera di un'opera di un'opera di un'opera di un'opera pensate, noi per 2500 anni nella cultura occidentale ci siamo identificati alla domanda noi esseri umani, cosa siamo. Fino a pochi anni fa non potevamo rispondere alla domanda che in fondo ci soddisfa poco siamo ciò che è il nostro DNA. E come rispondevamo? Rispondevamo in modo diretto, indiretto e esplicito o implicitone, la forma di noi siamo quelli capaci di logos. Quindi di parola, di discorso, di dialogo, di razionalità, di argomentazione, di contraddittorio. Ora non siamo più i soli. Generele? Bravo, parlo troppo. Generele, questo è un quasi sinonimo, ma in realtà la differenza è completa. Generali invece vuol dire, a prescindere se conversazionale o no, ma includendo la componente conversazionale, l'ipotesi che questi sistemi abbiano una capacità di risolvere problemi. Se volete chiamiamola intelligenza, ma tanto neanche noi sappiamo bene la nostra intelligenza in cosa consiste. Quindi una capacità di risolvere problemi non specifici. Facciamo un esempio di un sistema di machine learning estremamente sofisticato, ma palesemente incapace di risolvere, se non i suoi propri problemi, i famosi programmi che giocano scacchi. Scusate, non programmi, i famosi sistemi di machine learning che giocano scacchi. Ormai sono capaci di abilità super umane. Cioè nessun essere umano ha più la minima possibilità di vincere a scacchi contro questi problemi. Non di meno sono capaci di fare solo quello. Il giorno che avessimo sistemi di machine learning con abilità non specifiche, non focalizzate, li chiameremmo AGI, artificial general intelligence. C'è una discussione in corso se il CiaGPT sia già un sistema AGI o sia solamente verso un sistema AGI. In realtà il mio parere è che non sia così importante, perché è il vero problema, quello per cui i catastrofisti, quelli che in America chiamano i P-DOOM, non so se avete mai sentito, P come probabilità e DOOM come le cose brutte che possono succedere. Quindi il P-DOOM che noi tutti paventiamo, l'estinzione della specie umana, non deriva dall'AGI in quanto tale, ma dalla superintelligenza. Cioè, che è anche il titolo di un libro che venne pubblicato nel 2016 da un filosofo di Oxford che si chiama Nick Bostrom. Cioè un'intelligenza o come la volete chiamare, una capacità di risolvere problemi di queste cose che è talmente superiore alla nostra e non ci sono più a capirla. E a quel punto... C'è sfuggita di mano. Diciamo che dovremmo essere molto bravi per evitare che ci sfugga di mano. Allora, la ragione per cui è molto importante la distinzione tra generativa e generale è che nello statuto di OpenAI, correggimi sempre se sbaglio, dovrà essere utilizzata a fini economici, profettevoli, di vendita di servizi, per capirci, ma dovrà essere consegnata a una istituzione che agisca solo per il bene, quindi per ragioni extra economiche, perché a quel punto sarebbe di portata decisionale pazzesca, quindi a livello quasi politico. Voi che lo possa dire in termini economici, sarebbe un asset universale. Se avete in mente la distinzione, faccio il saccente come al solito, tra beni privati e beni pubblici, c'è una terza categoria, i beni comuni, come l'aria, i commons. C'è qualcuno che sta intuendo che l'intelligenza artificiale, almeno quella generale, potrebbe diventare un asset, un patrimonio, un bene dell'umanità, un commons. Segui, voglio lasciare qualche minuto per le domande perché penso che sia giusto, quindi vado un po' più veloce su alcune tematiche e scendo un attimo su tematiche più specifiche. Lasciamo da parte oggi la privacy, perché è un tema molto trattato, il garante italiano è intervenuto, il CIPT ha cambiato alcune regole, e voglio andare sul diritto d'autore. Questo settimana avrete letto sui giornalik che una nota attrice Scarlett Johansson si è arrabbiata e ha minacciato una causa contro un soggetto dell'intelligenza artificiale che utilizza una voce simile alla sua, se non addirittura alla sua. Il concetto di diritto d'autore è fondamentale nell'informazione e nell'editoria e vuole anche poterne usufruire del ritorno economico. Questi soggetti, perché mettono in crisi totalmente il concetto di diritto d'autore e perché non è così facile schierarsi come sta avvenendo tra editori che bloccano completamente l'utilizzo da parte di questi soggetti, dei dati da loro creati, e invece altri editori che vogliono parlare con questi soggetti per avere un ritorno economico dall'utilizzo delle loro informazioni. Perché il diritto d'autore è così messo in crisi dall'intelligenza artificiale? Non sono realmente esperto sull'argomento, però ne ho scritto e propongo una risposta in una prospettiva cognitiva e non giuridica. Mi concederete se non cito delle voci del codice civile. La risposta breve è perché il diritto d'autore è fondato su una convenzione. Ed è una convenzione, e adesso lo spiego, cerco di spiegarlo, che finora abbiamo sviluppato e mantenuto sulla base di un'ipotesi, e cioè che si applicasse a una società di esseri umani. Nel momento in cui la società risultasse abitata, e ormai è così anche da entità artificiali che entrano in questo gioco, la convenzione ce la dobbiamo rifare. E quindi è in discussione tutto. Perché dico che il diritto d'autore è fondato su una convenzione? La risposta non teorica a me pare semplicissima. Qualcuno di noi può pensare di ritenere protetta dalla sua proprietà intellettuale la singola lettera che ha pronunciato. Adesso io dico A. Posso dire, sono io che l'ho pronunciata, quindi ho i diritti di no. E le singole parole? Le frasi? I periodi? Dove finisce la materia grezza di cui tutti siamo dotati per poter comunicare? E ho fatto un esempio testuale, ma avrei potuto fare l'esempio della musica. Si può brevettare il do? No. Volete l'esempio del codice del software? Si può brevettare il loop? No. Però si può brevettare, non si chiama brevetto, si chiama, appunto, protezione in copyright, un libro. Ma tra le parole o le lettere di cui il libro è fatto e il libro, c'è una continuità. E quindi ho l'accordo che c'è una lunghezza sotto la quale, caro mio, hai usufruito della disponibilità, anche le lettere dell'alfabeto, sono un commons. Non sono né pubblici né privati, sono di tutti e basta. E sopra quella lunghezza, invece, no. Sei tu che l'hai generato, sei tu che ne sei il detentore di proprietà intellettuale. E molto ragionevolmente c'è un'area grigia. Ecco, non solo intorno a quella area grigia, ma in generale, intorno alla generazione di informazione, entità artificiali con capacità generative ci dimostrano che c'è da ripensare a quello che sta succedendo. Perché prendono un do, un la, un re, da più parti, è molto difficile risalire a dove hanno preso il do, il la, il re, per fare la loro canzone. O semplicemente lo fanno e basta. E se non lo fanno da te, lo fanno da altri. Allora, per lasciare almeno una decina di minuti alle domande, perché credo ci saranno, visto il numero di persone, veniamo al tesoro. Abbiamo fatto la caccia al tesoro. Se queste intelligenze artificiali, già da generative, ci danno l'idea di saper fare più o meno tutto, figuriamoci da generale, forse lo sanno fare il tutto meglio di noi, a noi, che cosa resta? Cioè che cos'è che l'intelligenza artificiale o le intelligenze artificiali non potranno mai fare? Allora, Daniele mi ha presentato come modesto, io cerco di rimanerlo, ma provare a rispondere a questa domanda è ovviamente molto presuntuoso, ma io ci provo lo stesso. Abbiamo titolato il libro L'Intelligenza Artificiale di Dostoi Vassili. Il titolo l'hai inventato tu. Però c'entra con quello che ci devi dire. Allora, una domanda che faccio quasi tutte le volte che mi propongono di parlare in pubblico, e nell'ultimo anno è successo molto frequentemente, la domanda è questa. In tutto ciò, in questa rivoluzione cognitiva che stiamo vivendo, più o meno consapevolmente, c'è qualche cosa in cui noi esseri umani non sono costituibili. Domanda cruciale, ovviamente, perché avendo probabilmente una vita sola, tanto vale cercare di vivere al meglio possibile e di dotarci degli strumenti per farlo, noi stessi e le persone a cui vogliamo bene. Credite che la risposta sia qualche cosa che ha a che vedere con le capacità cognitive, con l'intelligenza? Sempre meno convincente. Molto spesso le risposte, che quando c'è un po' più di tempo e quindi si dialoga, che mi sento proporre sono legate alla sfera emotiva o relazionale. Le emozioni, la capacità di prendersi cura, ecc. E io su questo non ho molto da commentare se non fare un'osservazione. Se chiedete agli adolescenti qual è uno degli usi più frequenti che fanno già oggi di ciaggpt e glielo chiedete in condizioni protette, cioè dove non sono inibiti a rispondere, la risposta che danno è per supporto psicologico. Che ci piaccia o no. Cioè, chiedono... Compagnia. Compagnia, consigli, perché tanto non si sentono giudicati, ecc. Non sto sostenendo che sia una bella cosa. Perché hai visto sguardi atterriti. No, ma certo, perché è una cosa che ci destabilizza. Hanno gli adulti in particolare. No, di nuovo sto solo osservando, non sto giudicando, non è assiologica la mia affermazione, è perché evidentemente funziona. Non sto sostenendo, funziona meglio o peggio degli psicologi. Questo è un tema diverso. Però che costi di meno di una consulenza di uno psicologo è plausibile. No, quindi non sono convinto che nel medio o lungo termine questa sarebbe pure una risposta. Quindi non siamo insostituibili nella dimensione cognitiva. Non siamo insostituibili nella dimensione relazionale, psicologica, affettiva, ecc. Cosa ci rimane? La risposta in breve, da cui anche il titolo del libro è, questa è la mia proposta, la nostra proposta, la nostra intuizione, nella responsabilità morale. Provo a dirlo così in breve. Barra giuridica. Meno giuridica, perché posso immaginarmi... Partiamo dal morale. Cos'è la responsabilità morale? Quel qualche cosa che si fonda su un principio di equità dalla metà del XX secolo e prima su un principio di riconoscimento comune di cosa è bene, cosa è male o cosa è giusto e sbagliato. Adesso non voglio fare il relativismo. Non voglio fare il relativismo. Adesso non voglio fare il relativista, non lo sono. Però diciamo che è un costrutto sociale. Non penso che possiamo immaginare che sia scritto nel nostro DNA. Un po' di equità è probabilmente scritta nel nostro DNA. Apro una parentesi, come ha in modo fantastico mostrato un etologo che è appena morto, che si chiamava Frantz de Waals, una persona che ammiro moltissimo, che anche dei primati, scimi e capuccino, capiscono le iniquità e protestano. Quindi non siamo solo noi esseri umani perché abbiamo studiato i dieci comandamenti. O che cosa, ritenete, ci abbia insegnato l'equità. È un costrutto sociale, dicevo, la responsabilità morale per farci vivere almeno decentemente insieme, non aver paura di doverci guardare le spalle in ogni momento e così via. Che si fonda questo costrutto sociale sul fatto che noi, individualmente, abbiamo una responsabilità, quel qualche cosa, che è esibita grazie al fatto che assumiamo di essere liberi. E qui si apre tutto il capitolo di Cosa è il libero arbitrio. E se noi siamo liberi, e quindi siamo responsabili perché siamo adulti, passaggio dall'eteronomia all'autonomia, che scusate se mi cito un'altra volta, cosa succede? Che se noi facciamo qualcosa di meritevole, noi ne otteniamo i benefici, aumento di stipendio, buona stima da parte dei nostri pari e così via. Ma se facciamo qualche cosa che la società considera riprovevole, invece è il contrario. Allora, per farla breve, quello che accade come accordo sociale che ci piaccia o no, quando facciamo qualcosa di riprovevole, è una sanzione. Le sanzioni ci colpiscono perché sono efficaci, perché ci colpiscono i risorse scarse, come si dice in economia. La economia è inventata perché ci sono risorse scarse. Se avessimo tempo infinito, denaro infinito, energia infinita, l'economia non servirebbe. Potremmo sperimentare quello che vogliamo in qualsiasi momento. Noi abbiamo risorse scarse, denaro, tempo. Ve lo vedete, sanzionare un'entità artificiale, un'entità digitale? Mettiamo in prigione Ciagpt perché ha sbagliato. Questo è il mio punto. Potrei citare il fatto che tutto ciò deriva da un meta-principio di progettazione che venne proposto implicitamente tra gli anni 40 e 50 del secolo scorso rispetto a cos'è un sistema digitale. Prima ancora di costruire i primi computer, l'ipotesi di base fu, fatemi usare i termini software e hardware, che metaforicamente possono essere associati a mente e cervello. Il software utilizza l'hardware in modo completamente fungibile. Cosa vuol dire? Che quando il mio PC si rompe, se ho salvato i dati prima, compro un altro PC e torno da capo. Provate a fare questa stessa cosa con la vostra mente. Fino a che non riusciremo a fare upload della mente e quindi, in quel caso, adotteremo quel meta-principio e quindi diventeremo potenzialmente immortali. Ma queste cose in pubblico sono delle scherze. Fino a quel momento, noi avremo delle risorse scarse per le quali le sanzioni sono efficaci. Il signor Cia GPT non ha queste risorse scarse, non ha sanzioni che teme e quindi la responsabilità rimane a noi. Questa è l'intuizione del libro. Potremmo, la dico in modo rozzissimo, potremmo anche smettere di lavorare, forse, ma non potremmo mai smettere di avere la responsabilità del prodotto del lavoro che qualcun altro avrà fatto per noi, per esempio. Posso fare uno spot per il prossimo libro che stiamo progettando insieme? Scusate, che cosa vergognosissima. Poi non hai neanche ancora detto se ce lo fanno fare. Che riusciamo a scriverlo. I due problemi che appaiono fondamentali in questo momento di fronte a quello che stiamo vivendo sono, sì certo, che ruolo rimarrà a noi, ma vediamo come problemi, come negatività. Perderemo tutto il posto di lavoro, problema 1, diventeremo tutti stupidi, problema 2. Guardate come è vitale tenerli separati. Non sto dicendo che uno di due sia peggio dell'altro. Parliamo un istante. Perderemo il posto di lavoro, ma sentite, noi esseri umani ci inventeremo delle cose interessanti da fare se non avremo più bisogno di lavorare in senso abituale. Chi di noi oggi si dispera perché non va più in miniera o non manda più bambini dieci anni a lavorare in miniera e a morire di cancro ai polmoni? Bene, no? Quindi quello è un tema su cui non abbiamo ancora delle soluzioni sociali chiare, e non parlo solo di questioni sindacali, parlo anche di questioni psicologiche. Il lavoro è diventato per molti di noi fonte di senso. Dovremo riscoprirlo, ma questo è un punto. Ci possiamo immaginare che funzioni. Qual era l'altro problema? Diventeremo tutti stupidi. Ecco questo invece no, perché quella sarebbe la via di Matrix, per citare il film che probabilmente... Questo invece dobbiamo evitarlo a tutti i costi e come? Rimanendo responsabili di quello che noi siamo e facciamo. Domande. Prego. Se vuole dire anche come si chiama, così... Prego. Aspetta che arriva il micro. Pensando che questo è un processo inarrestabile, che comunque non si può affermare, perché... Mi sento che non si può affermare, perché mi pongo due domande. Me le pongo per le modalità e le dinamiche che voi avete scritto, evolutive dell'intelligenza artificiale. La preoccupazione non tanto della perdita del posto di lavoro, che è immediata, ma per le future generazioni. Se questa intelligenza artificiale entra in mano di qualcuno che può condizionare la vita di noi tutti per una gestione di potere. Quello mi preoccupa ancora di più l'evoluzione dell'intelligenza artificiale. Cioè, se un domani questa intelligenza artificiale è talmente superiore all'essere umano che l'ha controllata fino a quel momento e nella sua autonomia ci può essere, quindi, la nostra autonomia nella sua autonomia ci può manovrare come tanti burattini. O schiaccia il testante della bomba atomica. Vediamo se c'è qualche altra domanda. Provo a rispondere subito. Me le ricordi tu, poi, le domande? Il mio chat GPT. Rapidi così riusciamo a prendermi anche un'altra. Giallucoricchio, la domanda è questa. La responsabilità morale dell'intelligenza artificiale. Visto che sono sistemi generativi, non possiamo fare dei sistemi che apprendono solo da quelle fonti che noi moralmente riteniamo buone? Così per costruzione diventano morali. Grazie. Ottima domanda. Prendiamo un'ultima. Se posso chiederle di essere veloce così? Grazie. Sono uno degli insegnanti che lei cita nel suo libro quando dice che non possiamo permetterci uno schiavo a pagamento. Quindi abbiamo questo chat GPT che è diventato un ottimo assistente. Le domande. Uno dei limiti di cui parla anche nel libro è il fatto che chat GPT al momento non può memorizzare le nostre informazioni. E' una questione etica, ma anche di privacy. Le nostre conversazioni con lui o lei. Ogni conversazione è come se fosse la prima volta. Io lo vivo come un limite, perché anche in classe è difficile ogni volta ripetere, spiegare. Devi parlare di queste cose, di questi argomenti. Lo utilizzo in classe. Si arriverà un giorno a dire che rinunciamo dalla privacy per qualsiasi cosa. La rinuncio anche per chat GPT. Grazie. Ultima e poi ti dovrò chiedere di essere sintetico. Buongiorno. Caslo Reale. Esco dal tema. La domanda è che non si può realizzare un'opera da una parte. Un'altra domanda. Terzo mondo. Non abbiamo un contesto. Come entra questo altro aspetto? Potremmo definirci in minoranza rispetto al resto del mondo. Unisco la prima e l'ultima. Non ho parlato di questioni geopolitiche. Un pezzo della prima domanda era in questa direzione. E quest'ultima pure. Perché non sono esperto. E fare il tuttologo mi imbarazza. Dal punto di vista tecnico, corriamo dei rischi anche a proposito dell'intelligenza artificiale, noi europei, non solo italiani, di diventare ulteriormente dipendenti da quelle poche grandi aziende americane. I cui non mi conosciamo tutti. Il mio modestissimo parere con la premessa che non sono esperto di questioni geopolitiche è che mentre in altri contesti tecnologici la battaglia l'abbiamo già persa, faccio un esempio. Le infrastrutture di cloud computing. Purtroppo noi europei non ci abbiamo mai provato e non pare che qualcuno a Strasburgo, a Bruxelles, ci voglia provare. E questa sarebbe, a mio modestissimo parere, una dimensione superstrategica. Diventare potenzialmente autonomi rispetto a Amazon AWS, Google Cloud, Microsoft, che sono degli abilitatori fondamentali perché oggi web è quella cosa lì, non è più i siti web e basta. Ma se questo l'abbiamo perso, fino a che non ci sarà qualcuno che mette lì 100 miliardi e dice che ce lo facciamo anche noi, un'infrastruttura di cloud computing, sull'intelligenza artificiale i giochi sono ancora aperti perché è vero che i grandi sistemi, che tutti noi conosciamo, i tre grandi sistemi, cioè GPT, Ecopilot, sono la stessa cosa, OpenAI, Microsoft, fatemelo chiamare come si dice in italiano, Gemini di Google e Cloud di Anthropic, che ormai è Amazon, sono di queste tre grandi aziende. Ma la quarta meta sta seguendo la politica opposta. Il PNP è un sistema di piccole o medie dimensioni, vuol dire solo qualche miliardo, non siamo entrati in questioni tecniche, ma utilizzabile liberamente, con dei limiti rispetto all'uso commerciale, ecc. Ma l'idea è, oggi stiamo sperimentando anche sistemi di piccole o medie dimensioni aperti e ce la potremo giocare. Quindi vedremo i primi sistemi di piccole dimensioni che il Sole 24 Ore, il Comune di Trento, la provincia autonoma di Trento, addestreranno per il loro particolare obiettivo. Che è quello che stiamo provando a fare? Sulla questione geopolitica, non sarei necessariamente così preoccupato. Certo c'è da giocarcela, ma non è un problema. Per esempio, oggi ci sono anche gli SLM che funzionano molto bene. Quindi anche il tema del terzo mondo va abbastanza in questa direzione. La prima, gli diamo la nostra etica, gli mettiamo nel preaddestramento e non è il preaddestramento. Ci sono due fasi dell'addestramento. L'addestramento iniziale, faccio l'esempio per non essere umani, scuole elementari e medie superiori. Si impara un po' di tutto, si impara a parlare una o più lingue, si impara un po' di cultura generale, etc. Questo è preetico dal punto di vista di questi. E' quando gli mandiamo a fare il master che diventano specializzati in qualche cosa e in quel contesto gli si dà anche un'etica. Si prendono i modelli solo preaddestrati, che quindi sanno parlare tante lingue, etc. Ma che non sanno ancora né dialogare né alla domanda mi aiuti a costruire una bomba, ci dice, no, io sono un bravo ragazzo, la costruirebbero. Quindi, quando ti senti, ti si fa fine-tuning. Il fine-tuning è orientato a questioni etiche. Quindi lo stesso modello preaddestrato, fine-tuned, in Italia o in Nord Corea, avrà un'etica diversa. Sull'ultima domanda ringrazio l'insegnante che ha citato questo aspetto del libro. Nel libro c'è molto sulla scuola, quindi invito a leggere una lettera all'inizio di un'altra domanda. Mi abbiamo parlato poco oggi, ma ringrazio di aver fatto la domanda che mi ha permesso di sottolineare questo aspetto. Praeva, se li diamo tutti, così diventa ancora più bravo. Un commento al proposito, un'immagine che uso abitualmente è che il terremoto che stiamo vivendo ha una superficie di falla che è la scuola. Personalmente, io penso, ho il privilegio di avere le scuole secondarie del secondo grado. Perché quelli più piccoli sono ancora piccolotti e sono ancora relativamente eteronomi, mi cito per la terza volta. In università siamo privilegiati, perché chi viene in università in qualche modo con eccezioni si spera che sia già sufficientemente responsabile del proprio percorso cognitivo oltre che psicologico. Speriamo un po' sì, perché io figlio a 15 anni. No, no, ma è questa la sfida. Io penso che questa sia la sfida. Alla domanda tecnica, provo a rispondere. È già così. È già possibile attivare quello che si chiama system prompting, oppure nella prossima versione, che però sta arrivando a settimane, una forma di memoria che è relativamente safe, salvaguardia, salvaguarda la dimensione di... Nella versione a pagamento. Salvaguarda la dimensione di parlaversi perché siamo noi a decidere che cosa vogliamo che si ricordi di noi per non dover glielo rispiegare ogni volta. Ma il futuro, che non vuol dire fra 5 anni, ma fra 5 mesi, non lo conosce nessuno. Allora, io ringrazio moltissimo il professor Marino. Grazie. Grazie molto. Tra l'altro, se qualcuno lo ferma, secondo me parla anche fuori dall'evento pubblico. Non ho fretta, posso fermarvi. Grazie a tutti. Buon lavoro. Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS Sottotitoli e revisione a cura di QTSS
{{section.title}}
{{ item.title }}
{{ item.subtitle }}