Nuovi modelli educativi tra ChatGPT e digitale
Incorpora video
Nuovi modelli educativi tra ChatGPT e digitale
Durante questo appuntamento viene fatto un focus sulla dimensione educativa del digitale e delle nuove piattaforme open source come Chat GPT, proposto da Fondazione Franco Demarchi. Intervengono Sara Tonelli, responsabile unità di ricerca in Digital Humanities, Guido Scorza, componente del Garante per la protezione dei dati personali, Carlo Blengino, avvocato, Nexa center Polito e Stefano Moriggi, docente di Tecnologie della formazione. Michele Kettmaier, autore e designer di cultura e innovazione digitale, apre il confronto sottolineando come la narrazione della tecnologia sia più potente della narrazione umana.
Buongiorno a tutti, ben arrivati qui in Santa Maria, è un momento particolarmente importante perché in questa giornata che parla di comunità ducanti, noi della Fondazione dei Marchi abbiamo affrontato sotto diversi aspetti fra ieri e oggi questo tema, la capacità di crescere la vita in poche parole che è un problemino da niente e adesso arriviamo in una fase con questo panel particolarmente importante perché ci fa guardare una realtà che non tutti noi siamo abituati a guardare ma che sarà il futuro e quindi noi che ci interessiamo di modelli di welfare, di modelli di sviluppo dei territori, di educazione siamo molto curiosi di capire come riusciremo a trovare il giusto equilibrio fra ciò che le tecnologie stanno sempre di più in maniera estremamente accelerata mettendo in campo e quella parte più legata alla nostra anima, a una tradizione umanistica che ognuno di noi ha interpretato poi nella propria vita in maniera diversa ma che è presente in ciascuno di noi come pensiero. Ecco in questo equilibrio, in questa dimensione che inevitabilmente farà parte dei prossimi anni, il nostro impegno, la nostra responsabilità sarà grandissima dal punto di vista etico, dal punto di vista morale, dal punto di vista educativo e quindi per poter essere responsabili di queste scelte dobbiamo prima di tutto capire e per capire abbiamo chiamato delle persone estremamente competenti su questo tema che poi l'amico Michele Kettmeyer inoltrerà, aiutarci a capire e a provare a disegnare degli scenari che poi contraddistingueranno inevitabilmente il rapporto fra noi, i nostri figli, le nostre comunità e che come tali quindi faranno parte a tutti gli effetti della nostra capacità di crescere la vita. Io vi ringrazio e passo la parola a Michele che è sicuramente la persona che saprà spiegare tutto, grazie. Buongiorno, allora partiamo subito con le domande al pubblico, volevo chiedervi chi di voi usa per lavoro, per diventimento, calcolo computazionale e statistico, chi invece di voi ha usato cia gpt, ok, quello che ho detto prima, il calcolo computazionale e statistico e cia gpt sono la stessa identica cosa, però l'abbiamo chiamata intelligenza artificiale perché altrimenti voi non sareste qui sul palco perché sarebbe stata una cosa, non so se sarà noiosa, spero di no i nostri interventi, però definire il cia gpt, l'intelligenza artificiale, le parole hanno molto senso e sono molto utili, se ci pensate l'intelligenza artificiale è nata da un ricercatore, da un professore negli anni 50, McCarty, era il periodo della guerra fredda, quindi anche quel tipo di strumento, l'intelligenza artificiale è nata soprattutto perché c'era una guerra fredda importante tra i due imperi e quindi anche le parole rano molto importanti per definire gli strumenti che si stavano studiando che potevano essere utilizzati e questa è la prima osservazione che vorrei fare perché la narrazione che si sta costruendo intorno all'intelligenza artificiale è molto potente, molto più potente della nostra narrazione, la narrazione della tecnologia è molto più potente della narrazione umana e su questo ci sono principalmente due correnti, quelli come Yuval Harari, non so se l'avete letto nei giorni scorsi che è un grande storico e professore in israele, che definisce l'intelligenza artificiale come una comunicazione, come qualcosa di alieno e quindi definendo tutte le pericolosità che ci sono dietro a questa definizione perché definire uno strumento alieno vuol dire che probabilmente ci de-responsabilizziamo dall'utilizzarlo, dal crearlo, è giusto de-responsabilizzarci da dichiarare alieno l'intelligenza artificiale? Per ora sembra che sia fatta in gran parte dall'uomo, il preapprendimento che fa è fatto con l'aiuto dell'uomo, gli algoritmi sono fatti dagli uomini, le domande che facciamo a Judge GPT sono fatte dagli uomini? Certo è che Judge GPT è molto potente ad esempio nella, come vi dicevo prima, nella comunicazione, nella persuasione, io non so se è pericoloso perché ci supererà, cioè questa è la singularity, quindi il momento in cui l'intelligenza artificiale diventerà più intelligente dell'uomo, ma forse non è questo il problema che abbiamo adesso. Probabilmente è interessante capire quanto Judge GPT o l'intelligenza artificiale è persuasiva, ci sono degli studi che ho visto recentemente che dicono che Judge GPT nel 2018-19 aveva la capacità della teoria della mente, quindi la capacità di persuadere le persone di avere un pensiero strategico di un bambino di 4 anni, adesso sono passati 3-4 anni e ce l'ha di un bambino di 12-13 anni, quindi riesce attraverso questa teoria della mente, che è una teoria elaborata da degli psicologi negli anni 70, a avere un pensiero strategico per persuaderci su alcune cose e la narrazione che può tirare fuori diventa importante, diventa interessante e poi dall'altra parte ci sono i techno ottimisti, i post-umanisti, trans-umanisti, quelli che vedono nell'intelligenza artificiale la soluzione di tutti i problemi. Volevo chiedere a Saratonelli che è il capo della ricerca appunto dell'intelligenza artificiale e delle digital humanity in FBK, qual era il suo pensiero? È più un'opportunità, è più una cosa pericolosa? Allora, buongiorno a tutti intanto, diciamo io mi occupo dell'intelligenza artificiale da un po' di anni e quindi ho avuto la fortuna anche di vedere passo passo come siamo arrivati a creare il chat GPT, perché non è una cosa che è arrivata dall'oggi al domani ma è frutto di un percorso per cui abbiamo iniziato a ragionare sulle singole parole poi allargando il contesto, lavorando su documenti più grandi, a poco a poco questa intelligenza artificiale, questo software era in grado di capire sempre di più che cosa si trovava nel testo. Vero è che chat GPT non è altro che un sistema che è in grado di data una sequenza di parole, di provare a indovinare qual è la parola successiva più probabile. È tutto qua, diciamo, quello che sta dietro chat GPT e nasce perché è un sistema, quindi abbiamo dato in pasto centinaia di migliaia di documenti e questo grazie anche al fatto che sul web se ne trovano ormai appunto grandi quantità, queste grandi quantità hanno permesso a questi modelli di diventare sempre più raffinati, di conoscere sempre più vocaboli, di imparare sempre di più le associazioni tra vocaboli, quindi queste statistiche che stanno dietro al nostro linguaggio ed è per questo che è diventato così potente. In più c'è stata anche una fase in cui il sistema è stato raffinato anche con l'intervento manuale di persone attraverso quello che si chiama reinforcement learning, cioè il sistema suggerisce alle persone 2-3 risposte alle loro domande e loro dovevano dire quale di queste 2-3 risposte era quella più appropriata e questo veniva inglobato poi dal sistema in un ciclo che permetteva al sistema di automigliorarsi, diciamo, integrando questo feedback umano, quindi io non ci vedo una coscienza e secondo me anche un po' un errore questa antropomorfizzazione di chat GPT. Non è una persona, non ragiona, ma tutto quello che c'è dentro l'ha trovato su web, l'ha capito dal modo in cui noi comunichiamo, l'ha capito da questo feedback che varie persone hanno dato al sistema per migliorarlo. I dettagli non ci sono noti perché mancano dei report tecnici sufficientemente dettagliati per farci capire veramente come è stato creato, però è un software, sono numeri, sono matrici, sono probabilità e quindi a mio avviso siamo molto lontani da ssere sostituiti dall'intelligenza artificiale. Grazie. Gli argomenti che dovremmo trattare girano intorno al concetto di di come possiamo utilizzare questo strumento come modello ducativo, come nelle scuole soprattutto. Allora chiedo a Guido Scorza che è uno dei componenti del garante della privacy e che in questi mesi ha dovuto cercare un equilibrio difficile tra permettere a CiaGPT di poter essere utilizzato in Italia, credo che molti di voi l'abbiate seguita alla discussione, ha dovuto cercare questo difficile equilibrio tra la legge uropea che tutela i cittadini che usano il digitale, quindi il 99,9% della popolazione probabilmente e questi strumenti che arrivano ancora al 99,9% da fuori Europa, perché i social che utilizziamo non sono europei, quasi tutti non sono europei, CiaGPT non lo è, l'intelligenza artificiale di Google non lo è e quindi chiedo a Scorza qual è il difficile equilibrio che state ricercando per poter permettere l'utilizzo di questi strumenti però garantendo il rispetto di questa cosa che io credo importante che deve essere sicuramente migliorata che è la legge che tutela appunto i cittadini sui nostri dati e sulla nostra privacy. Magari con un particolare riguardo nelle scuole, perché Stefano Morigi che poi sentiremo mi raccontava oggi di quanto sia importante oltre a CiaGPT mi raccontava degli esempi che lui ha visto utilizzati nelle scuole TikTok, che sembra un social che non c'entra niente con le scuole, però mi diceva quanto è importante i modelli di apprendimento che stanno nascendo per cui nelle scuole potrebbero utilizzare TikTok, i ragazzini non possono farlo perché c'è un limite che la legge, una limite d'età che la legge pone. Allora qual è l'equilibrio, cosa pensate, come si potrebbe ricercare sempre più un equilibrio dell'utilizzo degli strumenti che sono una grandissima opportunità ma sono anche un pericolo, non hanno una grande dedizione all'attenzione dei nostri dati insomma. Grazie per l'invito, comincerei con il dire che non vedo all'orizzonte l'esigenza di scegliere a differenza di quello che ho letto in giro nei giorni caldi di chat GPT tra l'innovazione evidentemente, intelligenza artificiale, inclusa diritti e libertà. Il peggio che si può fare in questo genere di contesti è raccontare alle persone che poi in ultima analisi sono quelle che fanno la differenza che siamo a un bivio e che se un'autorità, un governo, uno Stato alza la mano e richiama all'ordine il soggetto di mercato, lo richiama a rispettare i diritti e le libertà delle persone sta frenando l'innovazione. L'innovazione credo dobbiamo definirla prima di iniziare qualsiasi altra chiacchierata e non è qualsiasi forma di progresso tecnologico, non è un fine ma è un mezzo, l'innovazione serve ad accrescere il benessere collettivo, non si può per definizione accrescere il benessere collettivo travolgendo diritti e libertà. Nessuno credo possa con un minimo di razzocinio immaginare di fermare nessuna forma di progresso tecnologico. Questo non è mai accaduto, non c'è ragione perché accada, perché siamo tutti quanti serenamente convinti della circostanza che i benefici che queste tecnologie possono produrre per la società sono verosimilmente superiori ai rischi che l'accompagnano però il titolo di questo nostro incontro di oggi pomeriggio che mette al centro non solo la persona ma l'educazione in realtà credo imponga tutti quanti noi di dire certo che nelle scuole la tecnologia deve entrare ma la tecnologia che entra nelle scuole deve essere una tecnologia come dire tra l'altro a prova di diritto e a prova di libertà. Io devo avere la serenità di poter dire a mio figlio usala perché è una tecnologia, è una applicazione tecnologica, è una declinazione tecnologica rispettosa dei diritti e delle libertà. Ovviamente c'è a GPT la punta di un iceberg, probabilmente non la punta più appuntita, non il fenomeno nella dimensione tecnologica che merita di più la nostra attenzione, è semplicemente quella che in un certo momento ha avuto il maggior successo di pubblico. Se vogliamo assumere questa vicenda a parametro io proverei a dire tra tanti due temi più importanti degli altri di bilanciamento, uno è la trasparenza. Hai chiesto di alzare le mani, tante mani si sono alzate, tanti hanno detto abbiamo usato c'è a GPT, abbiamo usato OpenAI, nessuno di noi o quasi nessuno di noi sapeva che però per arrivare sin qui, per arrivare sin lì informazioni relative alla nostra vita personale, informazioni capaci di fare la differenza su come gli altri ci vedono, erano finite in pasto ad un algoritmo di una società privata che farà anche tanto bene ma innanzitutto fa profitto e i cittadini e le persone hanno naturalmente diritto di sapere se quella ricchezza tecnologica si basa o non si basa anche sull'utilizzo di dati personali che innanzitutto gli appartengono perché raccontano della loro vita e il secondo aspetto fondamentale, naturalmente tra tanti ma tutto voglio forchè monopolizzare il microfono in un'occasione di confronto come questa, è che ciascuno di noi deve avere la libertà di poter chiedere di scendere da questo enorme esperimento collettivo. L'egoismo rispetto al progresso esiste, mi rendo conto che addestrare l'algoritmo è il bene della società ma io sono egoista e non voglio che i miei dati siano utilizzati per addestrare quell'algoritmo. Io non voglio che ChatGPT, perché stiamo parlando di ChatGPT ma ripeto è uno tra tanti, tra virgolette parli di me o per dirla meglio produca contenuti che mi riguardano a prescindere dalla circostanza che non sappia che sta parlando di me perché come ci si spiegava prima la sua funzione in realtà non è né parlare di me né parlare di te ma semplicemente mettere in fila un contenuto per come normalmente scrivono le persone. Quindi ciascuno di noi deve avere almeno il diritto di bussare a quella porta e dire io voglio scendere. Ecco qui devo dire questo è qualcosa che noi oggi esigiamo da chi fa ricerca medica e ricerca scientifica. Io non voglio dire naturalmente che lo studio dell'algoritmo è eticamente o moralmente più importante o meno importante ma sarà almeno importante quanto fare ricerca medica e ricerca scientifica. Eppure rispetto alla ricerca medica e alla ricerca scientifica ciascuno di noi ha il diritto di essere informato prima e il diritto di alzare la mano in un qualsiasi momento e dire ma non con i miei dati. Non sarà socialmente la scelta migliore, non sarà una scelta altruistica ma abbiamo questo diritto. Ecco io credo che almeno questi due paletti trasparenza e effettività dei diritti e delle libertà se vogliamo garantirci di poter utilizzare con relativa serenità questi strumenti tra l'altro nelle scuole dobbiamo riuscire a portarci a casa e io credo che sia un obiettivo assolutamente possibile perché non vedo nessuna forma di contrasto di antagonismo di contrapposizione tra l'innovazione e le regole. Grazie. Tornando alla scuola chiedo a Stefano Morigi. A novembre dello scorso anno mia figlia ha dodici anni rano finite le vacanze di natale e arrivata mi ha detto papà mi fai questo abstract di questo libro che non sono riuscito a fare non avevo voglia di fare io me ne sono dimenticato lei mezz'ora dopo è scesa e mi ha mostrato mezza pagina stampata dove aveva chiesto agpt di fargli riassunto di questo libretto che doveva fare lei e gli ho detto ma cosa hai chiesto agpt e lei mi ha chiesto mi ha detto ho chiesto agpt come farebbe una bambina di 12 anni italiana quindi anche contestualizzato a livello culturale non solo la parte dell'età come come potrebbe riassumere questo questo libro allora io ho detto da una parte è stata molto brava ma dall'altra non ha imparato a leggere e ad assumere un libro allora chiedo a Stefano Morigi che è un professore della Università di Milano e filosofo storico si occupa da sempre di educazione digitale cosa avrei potuto rispondere o qual è anche in questo caso l'equilibrio che bisogna trovare nelle scuole tra l'utilizzo degli strumenti digitali per i compiti nell'utilizzo proprio anche la mattina scuola anzitutto grazie grazie a voi che siete qui oggi per ora sotto il sole speriamo che rimanga il sole e non la pioggia annunciata allora mi manca l'esperienza del genitore quindi la prospettiva del padre però secondo me ci sono diversi livelli a cui questa questione dovrebbe o potrebbe essere affrontata diversi livelli che riescono o rischiano di ssere intaccati da degli equivoci anche linguistici il primo che mi piacerebbe condividere qui anche col pubblico è una confusione che troppo spesso viene fatta tra l'aggiornamento informatico delle competenze e una cultura delle tecnologie sono due aspetti altrettanto importanti e complementari ma non si possono confondere l'uno con gli altri non è detto che dominare diciamo così le potenzialità di un tool digitale più o meno intelligente anche su questo magari mi piacerebbe tornare dopo indossando la giacca del filosofo della scienza ma non è detto appunto che conoscere le potenzialità di uno strumento digitale significa saperlo contestualizzare che poi il contesto sia un contesto deputato alla formazione all'insegnamento come alla scuola piuttosto che un contesto professionale aziendale questo conta relativamente poco e quindi spesso troppo spesso la confusione tra l'abilità diciamo così tecnico informatica è una più diffusa e articolata cultura tecnologica che mi spiace dire in italia manca è un quivoco che produce danni non ascrivibili la tecnologia in quanto tale quindi ci sarebbe molto più bisogno di cultura della tecnologia a zardo una una un'espressione forse appunto fin troppo radicale la tecnologia è cultura quindi anche dal punto di vista della comunicazione della riflessione mediatica e no bisognerebbe cominciare a smontare certi pregiudizi e presupposti che addirittura ergono a paladini dell'umano anche qui poi dovremmo intenderci su cosa intendiamo alcune figure che magari sono autorevoli in altri campi ma in quanto umanisti e presunti detentori di qualche non meglio dichiarato valore possono parlare di tecnologia senza magari averci mai messo le mani non svela un pettegolezzo perché è finito purtroppo su giornali locali nazionali magari locali qualche giorno fa che è una famosa celebrata meritatamente scrittrice saggista italiana paola mastrocola ha esordito in un'intervista sulla stampa dicendo ne so letterale ne so poco e niente prometto di informarmi pur tuttavia e ha cominciato a sproloquiare scusate ma di questo si tratta a prescindere dalla posizione irrilevante ma comunque infondata per sua stessa missione sulle tecnologie siamo un paese lo dico in senso generalizzando con tutti i limiti che questo ha ma quando questo discorso precipita nelle scuole questi tipi di pregiudizi diventano ipertrofici in cui la gente si può permettere anche con una qualche riconoscimento di parlare di tecnologie senza capirne niente e quando dico senza capirne niente non intendo dire che non le sanno maneggiare ma che non hanno mai lavorato culturalmente sulle tecnologie indagando su come le tecnologie possono ridisegnare lo spazio o il tempo delle nostre vite private pubbliche professionali perché questo ha sempre fatto da sempre noi non viviamo anzi non si non agiamo e non pensiamo indipendentemente dalle tecnologie che hanno scandito la lunga storia della nostra evoluzione della nostra specie umana quando a rari dice sono intelligenze ma di cosa sta parlando la tecnologia scandi se noi agiamo e pensiamo nel modo in cui agiamo e pensiamo senza nessun determinismo tecnologico lo facciamo perché nella storia della nostra evoluzione ci siamo interfacciati con chiamiamoli dispositivi strumenti che hanno consentito a noi più o meno bene di arrivare qui non sto dando giudizi di valore sto facendo una descrizione fenomenologica di quella che è l'evoluzione della specie e siamo qui a tentare di gestire questi problemi complessi che giustamente devono poi avere delle attenzioni anche giuridiche per tutelare le libertà di tutti accampando così accenni su umano intelligenza stiamo parlando di intelligenza parlavi tu di quando è nata l'intelligenza artificiale almeno come nome era uno slogan per vincere dei fondi di progetti universitari la collega appena svelato che in chat gpt non c'è nulla di propriamente intelligente non lavora sui significati sono calcoli probabilistici allora non costruiamoci alibi per lavarci la coscienza e risolvere io sono quello responsabile dico che bisogna prendere distanze non siamo ancora pronti sono l'altra faccia dei tecno entusiasti transumanistiche sono lo sono la mastrocola al contrario e proviamo a capire quanto è radicale il nostro rapporto con le tecnologie la forma della razionalità del nostro pensiero non è indipendente dall'utilizzo di una tecnologia che ormai non consideriamo più tale solo perché è stata culturalmente metabolizzata si chiama scrittura alfabetica chi la considererebbe ancora una tecnologia nel modo in cui il termine oggi è considerato tecnologia allora facciamo i conti culturalmente con la tecnologia e facciamo emergere ffettivi rischi e potenziali opportunità sulla base delle quali ripensare anche le forme di apprendimento che cominciano anche un po' a scricchiolare quelle che la tradizione umanistica pensa di tutelare senza ricordarsi che se stesse sono il prodotto di interazioni con altre tecnologie perché anche il libro è una tecnologia non ce lo siamo dimenticati che ha prodotto la scuola che conosciamo che ha prodotto la gestione dello spazio tempo dell'apprendimento riconosciamo che ha prodotto la costruzione dell'aula come spazio della disposizione dei banchi in un modo nella cattedra in un altro è l'interazione col libro che ha prodotto quei modelli pedagogici non sono stati calati così da qualche parte o un'invenzione stemporanea di qualche pedagogista no quindi il nostro rapporto con le macchine con le tecnologie con gli strumenti è molto più complesso svicolando l'oppurda qualsiasi tipo di erroneo errato determinismo però non possiamo pensare di cavarcela col buon senso nessun problema complesso si risolve col buon senso non c'è nulla peggio del buon senso per gestire un problema complesso il nostro rapporto con le tecnologie più o meno con tutte le virgolette del caso intelligenti è un problema complesso è una sfida che richiede tante competenze per una gestione sicura per un approfondimento per la possibilità di che invece noi siamo ancora qua a chiederci e chiudo su questo ma il cellulare a scuola al di là delle età che poi ma io parlo appunto sì o no quanto tempo uso e abuso metafore con le dipendenze poi ci sono anche problemi che sconfinano le patologie vanno opportunamente trattati ma raffiniamo un po' ste categorie con cui ragioniamo sulle tecnologie perché le tecnologie sono e sono sempre stati modelli di rappresentazione dell'esistenza e delle attività delle forme di vita che vogliamo pensare insieme io credo che su questo o in questa direzione dovremmo provare a lavorare se effettivamente vogliamo innescare un ragionamento anche educativo nel senso più lato del termine che implichi l'introduzione di nuove tecnologie rispetto a quelle che sono già state usate metabolizzate perché lo ricordo e chiudo qui non c'è un passato senza tecnologie anche nella scuola e uno in cui potrebbero arrivare sono già arrivati ci sono da sempre diteglielo alla Mastrocola se la incontrate. Grazie allora questa cosa che è il calcolo computazionale statistico usiamo questa parola faccio una domanda difficile a Carlo Blengino che è un ricercatore di Nexa internet e società del Politecnico di Torino. La domanda che ti faccio non siamo stati capaci di gestire il passaggio di questi grandi soggetti soprattutto americani che hanno costruito i social Facebook Google è ormai storia di internet e li abbiamo lasciato, sono un grande processo di opportunità sono delle grandi processi di decisione collettiva di sviluppo di intelligenza collettiva almeno così credevamo all'inizio poi invece e credo che anche i creatori avessero quando hanno inventato Facebook avessero quel pensiero non avevano un retro pensiero di creare delle macchine dove c'erano le fake news dove trovavamo disinformazione dove alla fine ci si scontrava e si vittigava invece che confrontarsi in maniera dialogica abbiamo permesso queste grandi compagnie che fanno giustamente profitto per i fatti loro di crescere di diventare le cinque grandi sorelle tra le cinque compagnie più capitalizzate del mondo hanno superato quelle del petrolio che sono state per decenni le compagnie più capitalizzate al mondo come è possibile ricondurre l'intelligenza artificiale come bene comune o se è possibile farlo come riusciamo a far sì che questa volta questo strumento potente utile importante se lo sapremo usarlo bene se saremo responsabili nella sua costruzione nell'utilizzo come possiamo iniziare a creare un percorso perché questa intelligenza artificiale sia di tutti non sia per cui anche questo giro solo di open ai solo di facebook solo di google solo di apple e così via è possibile secondo te non vorrei far la figura della mastro cola perché la domanda è piuttosto difficile poi tra l'altro io sono un avvocato è vero che lavoro con un centro di ricerca che si occupa di internet e società ma sono un avvocato quindi il rischio che io poi parli e nasconda in realtà delle carenze tecniche terrificanti perché poi tutti ci spiegano questa come funziona c'ha gpt alla fine poi non è che non dice sì ma alla fine poi davvero è solo statistica perché sembra impossibile no questa cosa no quello che tu mi poni è oggettivamente un tema e forse è il tema politico che trascende la tecnologia e che è veramente una questione di geopolitica che però mi permette di riallacciarmi a quello che diceva guido scorza che essendo un pezzo di un autorità garante ha una grande responsabilità nel bene e nel male perché se noi siamo nelle mani di grandi big tech americane una ragione c'è ed è una ragione di cui possiamo vantarci o possiamo fustigarci la ragione è che l'europe ha tentato da subito di mettere davanti i diritti umani di creare un diritto alla protezione dei dati che è stato un grosso problema di realizzare un diritto di copyright che poi vuol dire come circolan i contenuti in rete che limitava io tutte le volte dico guardate che se youtube fosse nato a torino e aveva buone possibilità di nascere a torino sarebbe stato chiuso dopo 15 giorni per violazione del copyright in america ciò è stato possibile se le grandi compagnie americane hanno potuto sfruttare quello che in allora là era già stato capito e cioè che i dati che si sarebbero accumulati nei server grazie alla digitalizzazione delle nostre vite rano orocolato da quelle informazioni avrebbero potuto estrarre un valore oggettivamente importante per tutti ma là l'avevano capito negli anni 60 70 noi siamo arrivati molto tardi e abbiamo iniziato a fare tutta una serie di legislazioni che da una parte erano come dico quasi orgogliose nel senso l'europe è oggi il continente che ha più altra parte guardate le costituzioni qual è il primo articolo della carta fondamentale dell'unione uropea la dignità dell'uomo qual è il primo emendamento della costituzione americana la libertà di espressione c'è una differenza clamorosa e questa differenza clamorosa rischia però di tradursi in una ricaduta economica notevole mi spiace guido ma la chiusura di cia gpt solo in italia a me immediatamente è venuto in mente quando sulla metà dell'ottocento in inghilterra decisero che aveva una grande rete di treni e di carrozze alle prime auto emisero i famosi locomotive act uno di questi che si chiamava il red act red flat act prevedeva che davanti alle macchine ci fosse un omino con una bandiera rossa che camminava 25 metri davanti alle macchine questo per evitare gli incidenti e questa roba durò 30 anni e l'inghilterra non ha una industria automobilistica era la più avanzata ma quel provvedimento legislativo più che giustificato le macchine provocavano incidenti la realtà è che dietro c'erano le lobby perché poi c'è sempre il retrogusto le lobby dei treni e delle carrozze spinsero il parlamento a segare le gambe alla nascente industria dell'automotive ma certo fu uccisa per sempre per sempre ok allora ogni volta che c'è una scelta legislativa c'è un costo che noi dobbiamo cercare di capire se paghiamo o no il problema della protezione dei dati il problema del copia il problema di come funzionano questi sistemi è un sistema è un problema molto complesso badate la catena di valore di questi sistemi è molto più complessa di quello che può apparire perché ci sono i modelli di base poi ci sono gli sviluppatori poi ci sono le api poi ci sono tutto questo fa sì che gli interventi legislativi devono essere molto calibrati e molto attenti perché è vero che la tecnologia non è un fatto di natura se una tecnologia è negativa bisogna saper dire di no il problema è che bisogna saper bilanciare in maniera molto attenta quando sì e quando no e di fronte io talvolta mi chiedo guido io lo capisco che io cittadino devo poter dire a una società basata in california che non usi i miei dati penso che alla società basata in california sia del tutto irrilevante che non usi i dati di Carlo Blengino penso però che forse noi ci stiamo avvicinando a quello che potrebbe essere davvero una condivisione di conoscenza c'ha gpt e solo un formatore di parole per fini statistici però santocero l'avete usato in tanti è straordinario ti dà accesso se trattato in un certo modo a tutta una serie di informazioni che possono anche essere false però è un primo passo forse perché ci sia davvero un bene comune perché questi dati che tanto ce li fregano siamo comunque tutti profilati allora non è forse meglio avere ben chiaro come calibrare l'utilizzo di questa grande molle di dati per il bene comune e badate non è facilissimo da spiegare ma nell'ambito dell'intelligenza artificiale sta venendo fuori una cosa che i primi hacker e le prime comunità di internet spingevano molto cioè che il software open source cioè tutte le tecnologie non proprietarie ma sottoposte al vaglio dell'intera comunità informatica a livello mondiale stanno vincendo rispetto alle tecnologie proprietarie proprio sul campo dell'intelligenza artificiale guardate in questa narrazione un po folle per cui prima ci vendono questo c'ha gpt come fosse un oracolo di delfi e dice sì ogni tanto dice una stronzata però è comunque una cosa meravigliosa poi due giorni dopo ci dicono attenzione ragazzi questa roba qua è pericolosissima gli stessi che ce lo vendono no l'avete letto sui giornali dice no dobbiamo essere regolamentati chiedetevi perché chiedono la regolamentazione perché si sono resi conto che quella tecnologia lì rilasciata in open source sarà diffusissima e loro non hanno un modello di business che gli consenta di sfruttarla perché sarà a disposizione di tutti con delle tecnologie aperte e accesso ai dati e l'europa sta anche lavorando per favorire l'accesso ai dati quella tecnologia e allora cosa fanno le compagnie americane dopo che ci hanno fregato nel senso che là erano libere ci hanno detto no ma regolamentato i bravi i diritti umani forza e intanto loro facevano i soldi adesso che loro hanno bisogno di una regolamentazione persegare le gambe a chi a chi i soldi non ha loro ne hanno tanti per cui dice no ma noi paghiamo le licenze sui dati noi usiamo i dati vogliamo che sia regolamentato e così noi paghiamo certo google paga la startup che c'ha l'idea geniale e che potrebbe fare altrettanto i soldi non ce li ha e google si è ricavato un bel fossato a tutela di una situazione di monopoglio che inconsapevolmente l'europa agevola questo è un problema grossissimo e per tornare all'educazione chiudo più che non il problema di c'ha ggpt nelle scuole qui il problema dell'educazione nei policy maker e nei nostri regolatori e nel non sto parlando di te guido io ce ne scampi però che ci sia la pretesa davvero di una visione a 360 gradi perché la tutela di carlo blengino per il gdpr rischia di creare un effetto paradossale rispetto a quello che è invece il globale di una vera e propria evoluzione che io spero ci sia io sono abbastanza favorevole all'uso di c'ha gpt con la coscienza che ogni tanto dice delle stupidaggini pazzesche però santo cielo non possiamo cioè quando il fatto che bard di google sia stato rilasciato in 180 paesi del mondo e noi in europa forse una domanda dobbiamo farcela la risposta magari è perché noi siamo siamo per la dignità della persona però qualcuno venga a spiegarmi bene dove che viene limitata la dignità della persona per se non diventa un discorso parole vuote quindi il discorso è complicato non so se sarò stato confuso come al solito ma spero di non aver fatto la master call grazie allora prima del secondo giro vorrevo iniziare a vedere se c'erano c'era prima domanda dal dal pubblico la prima domanda è sempre timorosa quindi se volete passiamo matematicamente alla seconda no invece c'è l'ecco a tutti a tutti voi perché grazie posso che premesso bisogna sempre fare le premesse la faccio anch'io premesso io sono contento dell'operazione del garante però sono tre settimane fa ero a montainvio da google quando hanno annunciato che bar era disponibile in 180 paesi 180 son tanti tranne l'europe anche io e altri tre giornalisti italiani abbiamo alzato le mani avevamo davanti sandar picciai sandar picciai è il capo mondiale di google e gli abbiamo detto ma insomma perché e lui ha risposto in questa maniera ha detto io ho passato vent'anni in india in india abbiamo un problema non abbiamo soldi per formare radiologi i miei software adesso ve la ve la giro velocemente sono in grado di vedere 4 milioni di lastre questo vuol dire che quando ricevono una lastra fanno decidere se il bambino o il ragazzo va dal medico non ci va e si è interrotto come dire cosa volete che mi importi a me del diritto o delle cose questa mia tecnologia prima parlavate la userò per fare questo è chiaro sandar picciare guadagna 400 milioni di ha guadagnato nel 2022 400 milioni è una multinazionale vive per fare profitto ha rilasciato in open source va detto transformer che il software alla base nel 2017 se non sbaglio di delle tecnologie che noi vediamo allora io sono un po confuso alla luce di questo che siamo rimasti un po fermi sul sui nostri piedi per noi da convinti uropeisti erano pronti a dire ma quando venite in italia dovete rispettare le regole però su quello l'impressione che ha avuto è noi andremo dritti e se voi non ci state ve lo mandiamo quando s'arrapa conto Altre domande? Non sono del settore un po più semplice, può rispondere alla domanda di prima cosa dovrai dire a mio figlio se la ricerca o l'abstract la fa ai o se gliel'ho fatta io perché in realtà la figlia aveva detto papà mi aiuti quindi se l'avesse fatta il papà era giusto se lo fa già chat gpt no? Altre? Facciamo quattro domande così per i quattro relatori In realtà la mia domanda è molto più basica Sono uno studente di economia ho visto che le piccole banche non hanno accesso molte volte a competenze specifiche che sinceramente se fossero istruite da un intelligenza artificiale ne avrebbero accesso molto più facilmente e vederebbero fallimenti di cui abbiamo avuto molti esempi non parlo della recente americana o politica di Swiss ma anche di una piccola banca etoria che ha avuto dei fallimenti dovuti da errori di management di compliance in generale se ne avesse avuto accesso con chat gpt magari una piccola parte le avrebbe potuti evitare molte risparmi non sarebbero andati a quel paese c'è un duplice utilizzo uno può essere malvagio ok perché giustamente ci sono errori nuovi uno può essere di grande utilità per persone che non hanno competenze specifiche le possono ottenere magari sapendo utilizzare chat gpt una volta Grazie un'altra domanda una questione a cui tengo tantissimo perché dicevo una questione a cui tengo tantissimo perché è stato accennato all'open source io sono mi picco di utilizzare da vent'anni nonostante 150 dipendenti siamo in società sono l'unico che utilizza la suite liprofis da vent'anni al tre ecco appunto ma è piaciuto sentire che l'open source sta vincendo sul software proprietario mi pare che la cosa sia un po' diversa spero sbagliare io spero essere contraddetto la questione credo che sia cruciale sia che open eye andava benissimo era disponibile per tutti poi microsoft ci ha messo un miliardo poi ci ha messo altri miliardi per per portarsela via se la questione fosse gestita appunto al livello di open source penso che i problemi sarebbero molto minori qua e vorrei un parere grazie iniziamo da guidone risposte quale vuoi rispondere ma quanti anni abbiamo allora parto dalla domanda di luca parto dalla domanda del google ma d'altra parte della palla la sollevava anche carlo è in 180 paesi e non è qui con la sua intelligenza con la sua intelligenza artificiale è qui con tante intelligenze artificiali non è qui con l'ultima creatura di casa sua io sono molto felice per la verità di vivere in un paese nel quale un paio di secoli dopo forse qualcosa di più il fine non giustifiche mezzi quindi come dire capisco perfettamente quello che dice l'amministratore delegato di google che fa legittimamente il suo gioco quando dice ma ci salverò dei bambini a casa mia ci salverai dei bambini e ce li salverò anche in giro per il mondo ma noi siamo diversi noi siamo diversi perché qui il fine non giustifica i mezzi e non tutto quello che tecnologicamente possibile è anche giuridicamente legittimo e democraticamente sostenibile onestamente diciamo non è qualcosa con cui faccio fatica a convivere e non vorrei che la nostra società fosse diversa da così anzi troppo spesso ci dimentichiamo che il fine non giustifica i mezzi nel pubblico e nel privato ma a prescindere da quello che penso io che può non contare assolutamente nulla google non è qui ancora perché sarà qui di corsa e sta facendo di tutto per essere anche in europa certo non commettendo gli stessi errori di open eye facendo il giro di tutte le autorità presentando il suo prodotto dando martellate su quel prodotto per renderlo conforme non è qui solo esclusivamente per un fatto di priorità quindi non è che non sia qui perché google non può essere qui e perché le regole europee impediscono a quel prodotto di google di essere qui come è arrivato qui con tutti gli altri prodotti e talvolta gli ha persino lanciati prima da noi e poi in altri e poi in altri paesi non è qui per una questione di priorità e perché naturalmente come dire le regole e il rispetto delle regole di n paesi nel giro per il mondo costa fatica le regole diventano la dimensione tecnologica dei vincoli di sviluppo potrei fare le cose in n modi ma se in quel paese ho una regola devo trovare un modo che ci giri intorno cioè che la rispetti e che consente di fare e google non era pronta a lanciare questo prodotto in europa anzi non era affatto pronta a lanciare il prodotto neppure in giro per il mondo salvo poi che arriva open eye ormai del suo concorrente microsoft e che ha due scelte o perde un pezzo di mercato perché ormai nel mercato tecnologico diciamo abbiamo imparato che il primo che arriva ha un vantaggio competitivo importante la gente si abitua ad usare ciò gpt adesso vai a spiegare che esiste anche un'alternativa ciò gpt per fare i riassunti dei compiti per fare altre cose non era pronta e quindi adesso come dire a quei due o tre mesi o quattro mesi che avvocati che non mancano google uomini di polisi che non mancano a google relazioni istituzionali che non mancano a google impiegheranno per trovare il modo di modificare il prodotto e soprattutto di presentarlo nel modo più corretto e arrivare anche in europa quindi secondo me alla fine come dire non vedo un grandissimo problema il nostro standard è forse in questo momento uno standard più difficile quello regolamentale per carità è uno standard più difficile più difficile da raggiungere abbiamo bloccato per primi ciò gpt diceva prima carlo sì vero quel blocco non è durato 30 anni come in inghilterra ma è durato 30 giorni e non credo che ci sia mai stato un procedimento in un'autorità in giro per l'europa che in 30 giorni chiude chiude riapre anche se senza risolvere il problema l'istruttore è assolutamente aperta e ne discuteremo ma non c'è autorità in europa che non ci abbia seguito a ruota e oggi c'è una task force di autorità europee che sta affrontando il problema e a prescindere dall'europa ci sono altri 20 procedimenti in giro per il mondo contro open ai esattamente per le stesse per le stesse ragioni ma io come dire è una uropa della quale quella dei diritti non quella delle autorità naturalmente della quale vado straordinariamente fiero e sappiamo anche tutti che non è che google apple facebook siano nati negli stati uniti d'america perché li c'erano meno diritti di quanti non ne abbiamo in in europa la silicon valley è un fenomeno che è come dire si sbaglierebbe enormemente a come dire a identificarla come quella della sefer le regole lì c'erano ma era regole che consentivano di raccogliere capitali che qui non avevamo e che non abbiamo messo in gioco e che continuiamo a non mettere in gioco un contesto culturale nel quale chi sbaglia non è un fallito ma viceversa è uno che sta cercando una strada innovativa e tantissime altre ragioni quindi insomma credo che sia a proposito delle ricostruzioni della storia è piuttosto difficile sostenere che se di là è nato google e non è nato qua da un certo punto di vista mi piacerebbe è perché questa è una terra più vicina ai diritti e le libertà o i diritti umani insomma quel primo emendamento della costituzione che richiama la libertà di informazione la libertà di informazione ce l'abbiamo anche noi ed è un diritto fondamentale per cui diciamo i diritti fondamentali ce li hanno anche loro non sono i diritti fondamentali a fermare il progresso ecco questa è esattamente quella forma di antagonismo quella narrativa dell'antagonismo tra i diritti e le tecnologie che secondo me dalla quale secondo me dobbiamo rifuggire perché se entriamo in questo vicolo finiamo lì e dice ma ci sono 4 milioni di bambini ai quali o domani mattina posso cambiare il destino dando in pasto le loro radiografie ad un algoritmo però insomma questa strada ci porta lontanissimo e non so dove ci avrebbe portato un principio di quel genere in pandemia siamo stati diversi ne siamo usciti è stato incredibilmente doloroso ma ne siamo usciti con i nostri diritti e con le nostre libertà c'è anche la storia del sapete che tutte queste eipol mic sono nati nei garage sembra che per cui da negli stati uniti garage costano poco qui da noi costano tantissimo anche i garage quindi è un altro dei grandi problemi del perché qui non nascono queste cose sara e sì allora in riferimento quello che si diceva prima a google è un po un dilemma che viviamo anche noi che facciamo ricerca nel senso sono convinta che sia importantissimo regolare l'uso dell' intelligenza artificiale però dal di dentro è un grosso freno anche per noi quotidianamente cerchiamo di capire che cosa è giusto fare perché poi la tecnologia si evolve talmente velocemente che tenere il passo anche dal punto di vista delle regolamentazioni per noi è appunto è molto difficile penso abbiamo avuto un progetto europeo finanziato in cui ci chiedevano di studiare il modo in cui i migranti comunicano online e nel modo in cui si costruiscono narrativa online sull'europe quindi come loro vedono l'europe gdpr però ci impedisce di profilare quindi capire dai profili social quali persone postavano che erano migranti non lo potevamo fare anche qui abbiamo trovato degli escamotage abbiamo parlato con il comitato etico con i revisori di bruxel abbiamo trovato un compromesso però appunto una cosa su cui abbiamo meditato molto abbiamo speso molto molto tempo che avremmo dovuto dedicare ad altro progetti sul cyberbullismo intelligenza artificiale potrebbe essere utilissima per moderare diciamo i dibattiti online sui social per è molto fficace nell'individuare i messaggi d'odio e quindi avremmo degli strumenti anche come dire per frenare questa ondata d'odio che è davanti ai nostri occhi se usiamo i social volevamo lavorare anche qui progetto finanziato dell'europe sul sui ragazzi e sul appunto sul loro utilizzo dei mezzi digitali dei social per comunicare ma non possiamo avere i loro dati giustamente anche qui come abbiamo come facciamo però studiare il modo in cui loro allora comunicano qual è la loro percezione dei messaggi offensivi o meno abbiamo trovato anche qui delle soluzioni siamo dati nelle scuole abbiamo fatto delle simulazioni quindi abbiamo chiesto a loro di usare innanzitutto ci hanno dato loro il consenso le loro famiglie le scuole e abbiamo dovuto inventarci appunto tutti dei così delle modalità di raccogliere i dati nel frattempo però i nostri colleghi all'estero fanno scraping ottengono dati nei modi più diversi e vanno a un passo rispetto a noi molto più veloce quindi è difficile è difficile anche fare ricerca son convinta che bisogna farlo però è difficile anche fare ricerca in europa tenendo presente appunto questo questo framework legislativo a cui dobbiamo attenerci grazie allora dietro di noi c'è un bel matrimonio ci sono dei dei signori vestiti splendidamente credo che siano inglesi americani ma è sempre nei stati uniti siamo circondati c'è stata una persona che ha chiesto di potersi sposare con un'intelligenza artificiale credo che la norma non c'è ancora però non c'è la sposa quindi non sappiamo carlo blenzino sulla terra terra in italia delle banche la domanda del ragazzo sulla banca si volevo solo dire una cosa guido scusa mi guido però le parole di schultz che era il segretario generale di regal nel 1979 che diceva noi toglieremo era la famosa rega nomic tutti i vincoli alle aziende perché grazie alla tecnologia il libero flusso delle informazioni costituirà domani un potere contro cui tutti gli stati poi dice una frase che ho recuperato e che dice gli stati democratici potranno beneficiare del progresso di una prorompente crescita economica ad una condizione che allentino il controllo sui mercati evitando di regolare il flusso libero delle informazioni elettroniche siamo nel 1979 quindi l'invasione americana è stata scentemente pianificata su questo non c'è dubbio guido quindi il fatto che non ci sia una sola big tech europea ha no è colpa però di una regolamentazione che non ha saputo trovare l'equilibrio punto e qua chiudo riguardo alla domanda sulla banca rispondo in due parole io ho una paura con cian gpt notante ma una in particolare che non è legata cia gpt è legata all'intelligenza artificiale ed è legata a questo mito della data driving society cioè sul fatto che i dati debbano guidare il nostro domani perché il rischio di costruire un futuro tutto basato sul passato grazie all'intelligenza artificiali c'è cioè le risposte dell'intelligenza artificiale chiamiamole così perché tanto ormai questa è la borgata ma insomma della computazione è una questione statistica la questione statistica vuol dire uno sguardo al passato cioè ti dice ciò che per lo più accade ma la forza nostra dell'uomo è il libero albitrio è il fatto di potersi staccare da ciò che più accade guardate io faccio il penalista e il mio problema in questo momento uno dei problemi che maggiormente è la gente che rimane incastrata rispetto al proprio passato e la gente che rimane incastrata rispetto ai dati alle informazioni che hanno questa memoria permanente che vengono macinate dagli algoritmi che fanno delle previsioni che sono previsioni girate al contrario perché prevedono il futuro ma sul passato e che non consentono mai il riscatto io ogni volta penso a fracristoforo che vuol dire ma tutta la letteratura quali sono i personaggi più umani che abbiamo amato di più nei libri sono quelli che hanno commesso degli errori clamorosi omicidi cose terribili e che poi si riscattano ecco io credo che oggi fracristoforo non potrebbe essere fracristoforo perché tutti quanti su google scapriverebbero che questo qua aveva ammazzato uno e chi gli dà un convento da governare a un assassino questo è uno dei problemi veri che è un po' legato a quello che diceva lui dice certo che la banca bastava interrogare c'ha gpt le direbbe una stupidagine ma diciamo le potenti banche dati che ormai stanno costruendo gli stati allora siamo sicuri che tutta questa statistica questo campo computo calcolo computazionale non sia riduttivo qui mi rivolgo più al filosofo che non e alla fine non vada a incidere davvero su libero arbitro per cui poi alla fine ci comportiamo bene solo perché c'è il tred o perché la app mi consente di fare quella roba lì ma non un'altra e non per una scelta nostra questo è un problema sui dati che io sento molto presente e che vorrei che anche le autorità a protezione dei dati vedessero laddove in questo caso il problema sono gli stati non le big tech americane perché le big tech americane possono sbagliare a suggerirci la pizzeria più vicina ma una profilazione sui cittadini rischia di portarci in galera questo il dissenso e il controllo del dissenso e forte cioè i controlli del late speech ma io faccio dei processi di gente che per una frase che non era assolutamente minaccioso si vede alle 7 del mattino la guardia di finanza che gli sequestra tutti i dispositivi solo perché il software non ha capito che quella frase lì era detto con una tonalità di un dato modo questo sono problematiche vere che incidono sui diritti e che gli automatismi un po' amplificano quindi meglio se la banca non ha accesso a tutti questi questi dati santo cielo guardatevi negli occhi e spero che riescano a capire se uno è un delinquente o no insomma che poi io temo che le banche tra l'altro utilizzano moltissimo intelligenza attivitale vi ricordo che se postate qualsiasi foto che postate su instagram le banche nel momento di decidere se darvi un prestito o meno guardano anche uno di quei parametri lì quindi se postate una colazione fatta in maniera vegetariana tutta bella senza grassi senza calorie avete molte più probabilità di vita che io che me mangio il cotechino quasi questo tipo e quindi la mia aspettativa di vita si abbassa e la banca tendenzialmente è uno dei migliaia di parametri che le banche adesso utilizzano per fare tante cose con i nostri dati la domanda del signore sulla scuola allora io Stefano ovviamente se proprio dovessi scegliere supponendo di essere padre tra farlo fare al papà o farlo con chad gpt sceglierei farlo con chad gpt provo a motivare però perché se lo fa il papà la bambina o il bambino di turno comunque non impara niente se lo fa bene o male poi c'entriamo nel bene e male con chad gpt comincia a pasticciare in maniera confusa con uno strumento che magari in futuro potrebbe anche imparare a usare meglio quindi già qui mi sembra sbilanciata la cosa meglio che provi da sole poi uno strumento pericoloso quello anch'io ho qualche paura sul chat gpt e le interazioni una delle mie paure è questa chat gpt crescerà migliorerà farà sempre meglio sarà sempre più performativo il mio timore è che invece chi lo interrogerà sarà sempre meno performativo cioè quasi come un rapporto inversamente proporzionale tra la crescita delle potenzialità dello strumento perché ho questa paura e la parola è immersa prima non so più forse tu l'hai citata in maniera molto pertinente perché c'è un atteggiamento diffuso secondo me sbagliato per cui mi porterebbe a dire magari facciamolo in tre quell'abstract a mia figlia o mio figlio che l'intelligenza artificiale nella fattispecie c'è gpt ma è concettualizzata utilizzata come un oracolo tu l'hai usata voglio sapere qualcosa lo chiedo e mi aspetto che dica la verità e se non la dico me la prendo anche un postavo dice non termine poco ma aveva quasi promesso che diceva che qui invece la risposta o è sbagliata a volte sbagliata a volte non mi soddisfa ma gran parte di quell'insuccesso quella mancata soddisfazione nella valutazione della risposta dipende anche da chi e come ha fatto la domanda oltre che dalla potenzialità dell'algoritmo con cui stai lavorando cioè gli algoritmi sono strumenti con cui dobbiamo imparare a dialogare ma badate così anche con le persone se voi le sollicitate in maniera come dire insufficiente in una conversazione al netto della loro potenzialità quello che vi ritorna è in qualche senso proporzionale è dialogico secondo me la modalità diciamo così di interazione che dobbiamo imparare a ingaggiare con le macchine lo facciamo anche quei libri chi sa interrogare un libro ne porta a casa qualcosa di molto più significativo molte persone non capiscono perché i libri vanno riletti vanno riletti perché l'interroga da punti di vista diversi allora prendiamolo come metafora con tutti gli slittamenti di senso di anche questi sono potenzialmente degli algoritmi o viceversa proviamo a interrogarli non come fossero degli oracoli da cui ci deve venire no una verità infusa indiscutibile assolutamente certo anzi interroghiamoli con una tentando di sviluppare la nostra capacità critica per comprendere i limiti dell'algoritmo e di chi l'ha progettato per fare emergere i bias più o meno culturali perché gli algoritmi sono operazioni progettate da uomini che implicitamente direi quasi inconsciamente lasciano traccia dei pregiudizi senso neutro del termine dei pregiudizi che in qualche modo portano inevitabilmente con sé in un mondo ideale di software aperti si dovrebbe lavorare per proprio deconstruire dall'interno o fare emergere in maniera condivisa questi pregiudizi che migliorerebbero anche la qualità delle eventuali ricerche che gli algoritmi ci aiutano a fare quindi non è una lotta contrapposta secondo me ma la capacità di progettare una dimensione dialettica sofisticata in contesti il più possibile al netto delle questioni normative in cui non entro perché abbiamo raffinati giuristi io sono un'alfabeta invece in questo ambito però impossibilità sempre più aperte condivise e non è detto che l'apertura alla condivisione su larga scala abbassi la qualità rileggetevi la storia di wikipedia è stato dimostrato che nel tempo ormai gli errori che si trovate su wikipedia sono praticamente paragonabili a quella dell'inciclopedia britannica e questo miglioramento è avvenuto quando sono stati tolti filtri perché all'inizio all'inizio all'inizio c'erano delle autorità interne che dicevano ma tu hai sei laureato c'è il dottorato non puoi scrivere oppure chi verrà filtrato non funzionava come sistema proprio quando è stato aperto con un gesto coraggioso da un lato e controintuitivo dall'altro ci può scrivere chiunque chissà cosa ci scrive cosa ci trova e infatti qualcosa di sbagliato si trova cosa facciamo chiudiamo wikipedia no è diventata di dignità pari all'inciclopedia britannica questo non significa che non ci debbano essere controlli o correzioni anzi possiamo tentare di contestualizzare le tecnologie all'interno di modelli di sviluppo che secondo me nell'apertura nella condivisione dialettica in questo senso potrebbero trovare un'evoluzione sostenibile diciamo così adesso faccio parte diciamo della maclouan foundation che è un'istituzione canadese che si occupa ovviamente pensate al nome all'evoluzione dei media anche in contesti educativi non solo stiamo lavorando perché il governo canadese ha chiesto a diversi soggetti e non solo a questi in canada ma anche a questo di laborare delle proposte proprio in questa direzione qui per immaginare come nelle scuole si potrebbe lavorare ora nessuno ha e deve aver la pretesa di avere la verità in task and c'è l'argot ritmo ci abbiamo manco noi però lavoriamoci insieme no e i giuristi con le loro competenze e gli epistemologi di qua i pedagogisti di là gli esperti di intelligenza artificiale e neuroscienziati tutti perché davvero il problema è complesso non può essere risolto da nessuno di noi preso singolarmente con rispetto di tutti e di ciascuno per questa ragione io non lascerei fare l'abstract al papà i genitori poi più stan lontani dalle scuole meglio è questo però un'altra questione che che sono molto più pericolosi degli algoritmi genitori ma questa è una questione che lasciamo a un altro dibattito se mi permetti un punto solo perché lo trovo molto interessante il problema che la statistica rischia di prospettarci futuri troppo simili al passato vincolando la libertà è una questione che arriva almeno da il dibattito sul delibero e servo arbitrio di lutero è una questione che ha più storia che che soluzione in filosofia e non solo e che è stata complicata diciamo nel senso positivo del termine dall'avvento di macchine però in questi termini sono assolutamente d'accordo però attenzione a non sovrapporre la statistica al mondo variegato e sofisticato del calcolo delle probabilità sistono modelli che non possono rientrare adesso non ho modo e tempo per spiegarvelo nel concetto più ristretto della statistica che consentono per sempio di descrivere i modelli creativi o l'immaginazione non meno che quella che in maniera un po metafisica definiamo libertà posto che esista perché libero arbitrio che esista è una questione che è stessa in discussione perlomeno da spinozza agli esperimenti di libè posto che esista supponiamo che sista non fosse altro come ideale regolativo a cui tendere bene esistono dei modelli probabilistici che addirittura arriverrebbero sostenere che il nostro cervello è una macchina baesiana cioè che funziona su un modello di calcolo delle probabilità cosiddetto soggettivistico allora senza sconfinar troppo in questo campo che diventa un po ermetico non è detto che queste macchine o questi algoritmi potrebbero iniziare a lavorare su modelli sempre più sofisticati tali per cui non necessariamente il passato viene riproposto in questo senso sì in maniera fin troppo ingombrante come era solo una grazie facciamo altre quattro domande se riuscite a essere brevi poi facciamo rispondere alla prima a Guido Scorza che deve prendere poi un treno che lo riporta solo è solo un piccolo commento a quest'ultimo punto le forme di creatività dell'intelligenza artificiale esistono già cioè questi modelli li stanno studiando e per dirla con i Monty Python sempre restando nella probabilità chiedono di produrre qualcosa di completamente diverso e quindi in questa maniera fanno una approssimazione di qualcosa di nuovo che non dipende esclusivamente dal passato ma insomma è una curiosità ecco salve sono un insegnante perché nessuno ha parlato come insegnante vedo nuovi modelli educativi e quindi mi rivolgo al professor Morigi ma il problema della scuola è proprio chat e gpt c'è il problema della scuola il problema della scuola è fare riassunto farlo fare da chat gpt io mi auguro come insegnante che noi c'è già qualche collega già sta utilizzando chat gpt in classe problema monte proprio dare una scheda secondo me sulla lettura del libro grazie intanto è arrivata anche la sposa quindi non è intelligenta a meno che poi dentro poi sapete che a molti preti hanno dichiarato che fanno scrivere le umilie domenicali a chat gpt quindi magari invece l'umilie l'umilie è digitale quindi ormai siamo si è messi così rispetto alla questione di cui si diceva prima del lasciare fuori i propri dati per scelta peraltro secondo me perfettamente legittima non si corre d'altro canto il rischio che questi sistemi e questi modelli se chi è più scettico lascia fuori sistematicamente i propri dati evolvano in maniera molto parziale e quindi non siano rappresentativi effettivamente del della totalità del sistema da cui sono stati generati buongiorno e sì molto interessante grazie personalmente non sono molto preoccupata la questione dei diritti quanto alla formazione di generazioni di ragazzi ignoranti analfabeti incapaci di spirito critico perché allora apprezzo molto quello che ha detto il filosofo della scienza ma un ragazzo non ha una laurea in filosofia se ha 10 12 15 anni quindi non ha quella distanza per poter esattamente gestire no le tecnologie quindi è questo anche il problema no cioè riuscire a lavorare degli strumenti non dico di difesa ma comunque che permettono di utilizzare tecnologie senza piattire la coscienza perché va benissimo che siamo in una situazione post post 1984 di all well dove c'è questo controllo sociale no perché mi ha colpito prima la ricercatrice anch'io faccio ricerca ma insomma l'etica purtroppo è una cosa che è importante no cioè non è che possiamo cioè il bene comune il bene comune può essere bene comune può essere anche male comune quindi se io controllo le masse no cioè interessante questa cosa che il controllo sociale viene spacciato come bene comune cioè attenzione insomma no vediamo un attimo di ecco capirci quindi mi sembrava interessante in questo discorso qua perché ripeto un ragazzo di 10 anni 15 anni 20 anni che usa l'algoritmo per fare riassunto piuttosto che non sviluppa quella capacità di senso critico di imparare di vedere oltremodo un'altra cosa mi ha colpito cioè un libro non è una macchina il libro è uno scrittore una persona che incontri cioè queste tecnologie sono non solo opache ma anche molto pervasive e quindi assolutamente necessario sviluppare dei criteri di gestione di distanza perché gli effetti delle tecnologie sui giovani non sono stati o sugli umani non sono state ancora studiate grazie facciamo ancora la domanda poi chiediamo a Guido di rispondere fare una domanda dunque più vicino ok naturalmente tutto il discorso verte su il prima no su chi fa ricerca quali sono le problematiche noi che siamo alcuni noi sono insegnanti docenti eccetera ci interroghiamo sul dopo cioè sugli effetti di questo strumento perché parliamo di casi specifici ti arriva una bella tesi un bello studente che deve fare una ricerca su un determinato argomento e naturalmente il coppia incolla è ormai era il pre e forse il ciò che veniva prima dell'intelligenza artificiale però praticamente una sorta di collage dal quale noi docenti ci possiamo tutelare attraverso altri software che controllano le frasi e via dicendo no a parte di parte i contenuti ovviamente no quindi come ci si può tutelare di fronte a uno scritto di un giornalista in una tesi di qualche cosa il tema della maessa che si vede arrivare l'insegnante delle medie il riassunto fatto benissimo come il corpo docente si può tutelare oppure problematizzare la questione degli ffetti dell'intelligenza artificiale grazie Guido rispondi a voi rispondere poi deve prendere un treno quindi lo salutiamo tra le tante cose che non sono e tra le tante cose che non so c'è la risposta a quella prima domanda che dice ma se in tanti esercitano se gli scettici o gli goisti esercitano il diritto di opposizione a che gli algoritmi siano addestrati poi magari il risultato potrebbe essere distorto diciamo la mia percezione è purtroppo che il numero di persone in giro per il mondo che mai alzerà la mano per dire non voglio che i miei dati siano trattati è talmente tanto modesto da rendere difficile questo scenario ma in ogni caso nelle famose regole di cui abbiamo parlato sin qui ce n'è una che dice se sussiste un interesse pubblico a trattare taluni dati per talune finalità che si trattino a prescindere dal consenso quindi semmai domani fosse utile implementare un algoritmo addestrare un algoritmo per un qualche scopo in relazione al quale potrebbe effettivamente esservi un bias una discriminatoria età legata al fatto che tutti gli scettici o tutti gli egoisti dicono non usare i miei dati beh insomma l'interesse pubblico potrebbe dire a prescindere dal singolo questi dati vengono trattati però la questione più interessante secondo me forse anche quella che lega di più col titolo di questo pomeriggio è quella che si sollevava adesso perché secondo me va al cuore del problema cioè il rapporto tra la società reale e inclusa la sua dimensione educativa e le regole che non sono non è cosa da poco conto durante i giorni in cui che hanno seguito l'adozione del provvedimento con il quale abbiamo detto a cià gpt a open e a e stai ferma un attimo e le regole sono queste so e valgono anche per te una delle contestazioni che noi si sono mosse è quella di dire ma tra l'altro se cià gpt è interrogata in relazione a chi è paolo chi è francesco che giovani o come è successo per davvero chi è il professore taldetali negli stati uniti c'è il rischio che risponda complice quelle che ormai abbiamo imparato tutti quanti a chiamare allucinazioni guarda che il professore taldetali è un molestatore sessuale frase come dire di senso compiuto e con un fondamento nella logica di quell'algoritmo ma assolutamente inesatta nella dimensione reale col professore non è un molestatore sessuale di fronte a questa contestazione in tanti hanno alzato la mano e la stessa open e ha alzato la mano dicendo ma il nostro algoritmo come ci si spiegava prima non serve a raccontare verità non serve a dire chi è paolo che francesco che giovani perché è un generatore di contenuti e questo sarà anche vero ma adesso non so se qualcuno dopo che io l'ho detto alzerebbe la mano ma c'ha gpt adulti e non adulti bambini e bambini cresciuti lo abbiamo usato chiedendogli chi è tizio chi è caio scrivimi la biografia di paolo scrivimi la biografia di francesco allora se effettivamente si diffondesse esistesse oggi o si diffondesse nel tempo un'educazione una cultura che consentisse al luogo medio di sapere quello che ci si diceva prima cioè non prendere per buono quello che ti dice c'ha gpt perché c'ha gpt non è il famoso oracolo di cui parlava prima carlo ma è semplicemente uno strumento per generare contenuti beh insomma anche l'impatto regolamentare a quel punto sarebbe diverso perché potrei preoccuparmi molto di meno di considerare inesatta un'informazione generata da open high ma io i conti non posso farli in astratto io i conti devo farli in concreto e nella società in cui vivo oggi società come dire di analfabeti dal punto di vista tecnologico perlomeno e dal punto di vista della logica degli algoritmi andato di fatto stiamo investendo molto di più nell'insegnare agli algoritmi a conoscere gli uomini che nell'insegnare agli uomini a conoscere gli algoritmi e dovendomi porre questa domanda io purtroppo devo tutelare chi interroga un generatore di contenuti come se fossero enciclopedia non posso farci nulla quindi è ovvio che io se guardo avanti come dire o enormemente sarà perché ho fatto per 25 anni l'avvocato normemente più fiducia nell'educazione e nella cultura che non nella regolamentazione però il processo educativo è un processo drammaticamente drammaticamente lento ma il punto di arrivo secondo me e metterebbe in fila anche molte delle cose che abbiamo detto oggi è quella in cui una persona un cittadino un utente un consumatore è educato a questo tipo di tecnologia ma è educato nel senso che si diceva prima cioè non che abbia conquistato l'abilità a scrivere in chat ma che abbia capito la logica che è dietro quell'utilizzo là quando quello sarà educato ma sarà anche lui a scegliere di servirsi più volentieri di una tecnologia rispettosa dei diritti e delle libertà e della dignità della persona e no ma lì dobbiamo arrivarci e quindi da qui a lì possiamo discuterne all'infinito sfortunatamente non con me che ho un treno che è un treno con roma però voi potete continuarne a discutere all'infinito qui la sera secondo me è molto bello e capire come ma insomma ecco secondo me i conti dobbiamo farli con la società reale che è una società che non sa cos'è c'ha gpt e che non saprà domani cosa saranno gli emuli di chat gpt mi dispiace fuggire ma credo che ciò gpt non abbia ancora il potere di fermare il treno vi ringrazio buon pomeriggio io avanti con le domande io vorrei sapere intanto che probabilmente dico da un'alfabete digitale che chat gpt non è un software cioè non è un algoritmo è intelligenza artificiale quindi tutto sommato siamo noi che la addestriamo per conoscerci meglio quindi tutto però questo è anche un po' problematico nel senso che tutti questi aziende che stanno dietro a questo famoso a circolazioni liberi delle informazioni non sono altri che delle imprese ma delle imprese importanti che oggi sono le imprese più cotate nelle più grandi borse mondiali quindi tutto sommato chi c'ha tutto questo flusso di dinaro chiaramente far girare il mondo per fare maggior profitto quindi per avere maggior potere per avere maggior profitto via dicendo questa catena probabilmente non possiamo discutere l'infinito se non ci interroghiamo come dire su questi su questi questi equilibri di poteri che ci schiacciano tutti possiamo fare migliaia di festival dell'economia se continuamo a ragionare in questa maniera probabilmente si facciamo solo l'interesse perché effettivamente stamattina io sono stato al teatro sociale dove c'è stato un premio Nobel americano siglitz che ancora insegna un professore universitario che tutto sommato non è praticamente c'è ha detto delle cose molto semplice e molto e molto e molto e molto proprio sull'impatto di queste tecnologie negli Stati Uniti oggi c'è paesi che noi consideriamo praticamente la prima potenza del mondo però lui dici che c'è tanta miseria ma in tutti i sensi perché effettivamente questa economia digitale ci ha promesso molto ma alla fine i risultati sono miseri è vero che questi sono le prime cinque praticamente in solo google apple microsoft e tutti gli altri sono che ma diri navigano nel loro quindi ora la riflessione torna un attimo indietro a quello che diceva il professore che fa parte della fondazione mcclellan è una notizia importante che lei ci ha dato lei sicuramente sa più di me cosa ha detto mcclellan sulle tecnologie in generale there is no message the medium is the message quindi tutto sommato questi ffettivamente non si tratta è molto molto innoco quello che ha detto l'avvocato che si tratta della libera libera libera circulazione delle informazioni volute da schultz ma probabilmente schultz essendo il segretario di stato di rigen faceva l'interesse degli stati uniti quindi tutto sommato e il discorso è che io quando noi tutti volontariamente o involontariamenti stiamo tutti 24 ore ormai insomma lavorare per questi signori ora che ha senso più cioè effettivamente mandare i bambini a scuola se la che le risposte li darà di darà questa o con l'altra scelta quelli che arriveranno anche gpt o una di tanti comunque arriveranno molte altre cioè perché noi siamo così affannati a cercare delle risposte che ci li danno gli altri invece anche con i nostri mezzi umili di interrogarsi magari anche io io se non ho una risposta a una domanda non dovrei comunque cercare la via la scorsatoia per cercare farmi la dare da una macchina o da qualcun altro è un percorso di crescita che ciascuno di noi dovrebbe fare per effettivamente insomma darsi di risposta o anche se non ci sono delle risposte meglio non averli in queste maniere che ci vengono prospettate grazie proviamo a sentire le risposte in una granità sara sulla ricercatrice intanto vi ricordo che nelle ultime due settimane ciaggpt è diventato il sito con più copie in colla del mondo quindi sì è vero quindi gran parte della narrazione delle consulenze dei compiti che facciamo delle progettazioni degli studi di vari tipi è un copie in colla da ciaggpt inizia a essere un copie in colla ciaggpt e se io volevo più che altro commentare quello che si diceva prima su escludere i propri dati diciamo dai dati che vengono utilizzati poi per allenare ciaggpt effettivamente quello c'è il problema di chi è rappresentato in questi dati anche è un grosso problema anche etico nel senso che ci sono varie comunità di persone che magari non usano i social la cui lingua non viene utilizzata online e che quindi vengono completamente esclusa da queste tecnologie che quindi non le possono poi usare per cui si crea anche nell'utilizzo dell'intelligenza artificiale un po' una doppia velocità chi fa parte di questa comunità che comunica online nella propria lingua ai propri simili e che quindi ha tecnologie sviluppate a supporto di questa comunicazione che invece ne rimane esclusa ovviamente se una persona decide di auto escludersi è vero che c'è questo rischio che poi si crei un bias in favore di chi invece è rappresentato in questi dati un commento poi su quello che si diceva mi dispiace che il treno fosse così presto però dover questo diritto all'oblio quindi che le persone postano decidere di escludere i propri dati da questi modelli se vogliamo che questo sia possibile bisogna completamente ripensare la tecnologia nel senso che ad oggi ci sono dei limiti tecnici che non permettono di fare questa cosa perché per esempio questi modelli sono molto costosi da allenare da creare e quindi molto costosi anche da aggiornare se noi anche non so quando creiamo un profilo social mettessimo la possibilità scludi i miei dati dai modelli di chat gpt ma poi io domani cambio idea i miei dati non possono più rientrare in cgpt o comunque richiede uno grosso effort tecnico e se pensiamo che questa possibilità la diamo a miliardi di persone rendiamo questa cosa infattibile quindi in linea di principio è vero sarebbe bello importante di fatto la tecnica adesso non ci permette di farlo bisognerebbe veramente ripensarla da inizio insomma grazie carlo e poi chiudiamo con la domanda della professoressa per stefano sistono software di intelligenza artificiale che cercano di scoprire se quello scritto è fatto con l'intelligenza artificiale non funziona no come molto dell'intelligenza un po come le macchine a guida autonoma di masca che per fortuna non ci sono io credo se anche per un certo punto è girata anche questa cosa di marchiare tutti obbligare una sorta di norma che obblighi a marchiare come prodotto con intelligenza artificiale qualsiasi scritto che venga pubblicato per esempio sui quotidiani secondo me è una normativa che sarebbe aggirabile in 20 secondi e consomme nel io credo e con questo chiudo e anzi passo la parola a lui che bisogna proprio un po cambiare i sistemi valutativi cioè che debba la rivoluzione debba ssere più profonda prendendo atto che possa esserci io credo che una buona maestra se n'accorga magari interrogando l'allievo se quella roba lì è frutto di cià gpt o no certo è una questione di efficienza bisognerà ricostruire un po il sistema e provo a rispondere rapidamente alle due colleghe anche al professoressa qua per punti mi scuserete primo non siamo portatori di pensiero critico quindi non siamo esposti a rischio che una tecnologia ci appiattisca semmai dobbiamo esporci al rischio di dispositivi che ce lo facciano allenare detto questo siamo sicuri che la scuosa così com'è è una palestra di pensiero critico però dobbiamo guardarci in faccia come docenti tutti compreso all'università noi per primi siamo sicuri che il pensiero critico è una definizione che impariamo sul libro una volta che l'abbiamo mandata a memoria pensiamo criticamente se siamo convinti di questo è come se pensassimo che impariamo su un manuale come si va in bicicletta chiudiamo il libro andiamo sulla bicicletta e non cadiamo allora secondo me dobbiamo capire quali sono i dispositivi libri o non libri io primo detto che il libro non è una macchina ho detto che è una tecnologia è curioso che lei abbia fatto questo slittamento di senso diciamo pure dispositivo che è più neutro perché il libro è un dispositivo produce degli effetti quindi è un dispositivo e anche dietro l'algoritmo più mascherato io incontro una persona cioè quello che l'ha progettato e il quel senso l'ha scritto anche quella è una scrittura piantiamola di avere questi alibi culturali dentro diverse tipologie di scrittura che producono effetti diversi che vanno valutati nello specifico nelle loro potenzialità e nei loro limiti allora capiamo quali scritture diciamole così quali scritture potrebbero ridisegnare la scena degli apprendimenti a diversi livelli per costruire palestre di pensiero critica o la scuola e l'università cominciano a fare questa domanda o continuano a vivere nell'alibi che alle tecnologie appiattiscono il pensiero noi siamo i difensori dei valori dell'uomo del pensiero critico che non c'è in partenza e poi piantiamola questa storia del pensiero critico il pensiero o è critico o non è anche questo è un alibi attenzione alle parole che usiamo anche quelle sono dispositivi che ci restituiscono il mondo in un certo modo poi le bolle in internet le bolle le produciamo anche con le parole che usiamo per descrivere il mondo facciamo attenzione a come le usiamo hanno una loro storia sedimentano dei significati che noi incosciamente attribuiamo al mondo ritagliandocelo in concetti in immagini dentro cui ci riconosciamo occhio il pensiero critico serve da quando cominciamo a aprire la bocca la mattina presto ed è una palestra costante non bisogna mai smettere di sercitarlo non è qualcosa che abbiamo quando nasciamo e poi oddio le tecnologie mi appiattiscono il pensiero critico ma anche un cattivo insegnante non te lo fa crescere non te lo appiattisce che non ce l'hai quando sei nato quindi che cosa deve fare la scuola? mettersi in discussione e non giocare sulla difensiva deve avere il coraggio di essere proattiva di aprirsi di mettersi in discussione e sui rischi che pur ci sono raccontavo ieri sera a Michele che io stesso ho posto a una mia collega con qualche responsabilità gerarchica superiore alla mia in università dico attenzione perché sulle tesi triennali soprattutto le triennali che io già a chiamarle tesi faccio difficoltà ma comunque se uno è sveglio te la fa anche molto bene in un quarto d'ora invece di metterci tre giorni senza chat gpt la fa in un quarto d'ora magari anche meglio allora dov'è il problema prendiamola proattivamente questa sfida e come giustamente dicevi tu ripensiamo le strategie di valutazione esistono modelli didattici applicabili dalla scuola primaria a diverse modalità diversi livelli all'università che per i quali si potrebbe tranquillamente fare a meno si parla di battito è ampio lungo diffuso e ci sono esperti che conoscono queste cose molto meglio di me di valutazione diffusa per cui possono esistere scuole università senza esami interrogazioni anche con l'aiuto di tecnologie digitali che tracciono i processi e forniscono e torniamo ancora lì a una quantità di dati di informazioni e i docenti rispetto a cui quelli che ottengono dai compiti in classe delle interrogazioni fanno ridere fanno veramente ridere allora vogliamo occuparci della scuola che la scuola comincia a occuparsi di se stessa ma in maniera seria dopodiché e chiudo giustamente diceva a scorza no lavoriamo molto su come per insegnare agli algoritmi e conoscere gli umani e non viceversa io incontro quasi quotidianamente insegnanti e dirigenti scolastici che mi dicono che hanno capito questi aspetti di cui sto parlando e vorrebbero riorganizzare le loro scuole per provare a fare qualcosa di più e di meglio e poi mi dicono col pnr posso solo comprare dispositivi e non posso acquistare formazione questo è un problema questo è un problema rispetto a cui bisogna combattere altrimenti lavoriamo solo come dicevo all'inizio sull'aggiornamento informatico delle competenze e non sulla cultura tecnologica allora questo aspetto è un problema si possono solo comprare tecnologie che invecchiano rapidamente non si investe sulla formazione che tra i tanti difetti che ha invecchia molto più lentamente delle tecnologie e quindi sarebbe un investimento utile ma al momento non c'è quindi protestiamo per avere più fondi sulla formazione sono usciti alleluia speriamo che siano tanti sufficienti grazie grazie a tutti mi piace per lasciarci un po con un sorriso e per io dirigo una scuola dirige una scuola alberghiera allora qualche anno fa ancora non c'era però c'era sempre google a cui andava a spattaccare a trovare le cose durante un same un ragazzo gli chiedo che abbinamento avrebbe dato a un filetto di san pietro e allora lui pensa un po e poi dopo anzi no in uno scritto scrive che è un filetto di san pietro abbinava un bel sangiovese e c'è un pensiero azzardato allora all'orale gli chiedo come mai gli dico scolta ma questa roba e lui dice e beh insomma su un bel filetto di maiale uno che fa tre anni all'alberghiera e poi fa così e allora ho detto ma qui siamo deficienti tutti che non riusciamo più a formarli o c'è qualcosa che non mi quadra insomma ra successo così che lui era riuscito a uscire insieme ad altri si era messo lì a spattaccare su google aveva scritto san pietro era uscito la festa del maiale a san pietro terne e lui automaticamente senza innescare il pensiero critico aveva detto maiale pronto via questo per farvi capire che l'intelligenza artificiale sarà bella roba ma l'ignoranza artificiale potente successo questo
{{section.title}}
{{ item.title }}
{{ item.subtitle }}