La ricercatrice Chiara Ghidini a Trentino 2060: «non si può parlare di intelligenza artificiale senza porsi nella prospettiva della distribuzione della ricchezza»

L’intelligenza artificiale è una tecnologia che ci riguarda tutti, e che avrà ricadute enormi sulla società e sull’economia del domani. Noi ci vogliamo dunque chiedere: quali sono le problematiche che l’intelligenza artificiale porta oggi e che ci porterà nel futuro? Il secondo incontro di Trentino 2060 mette al centro questo interrogativo, e cerca di darvi una risposta costruendo un dialogo tra la scienza e la filosofia, per fornire una visione completa. A parlarne sono gli ospiti Chiara Ghidini, ricercatrice senior e direttrice dell’unità Process and Data Intelligence presso la Fondazione Bruno Kessler, e Paolo Costa, ricercatore senior presso la Fondazione Bruno Kessler, già professore associato di Filosofia Morale e Politica. A moderare l’incontro è l’organizzatore Davide Battisti. (introduzione tratta dalle parole dell’organizzatore Zeus Fiorese)

Davide Battisti

«Per discutere di intelligenza artificiale dobbiamo prima di tutto capire cosa sia, a cosa serva e perché sia importante parlarne oggi. In prima battuta, descriviamo insieme a Chiara che cos’è l’intelligenza artificiale. A cosa serve, e quali sono state le cause che oggi ci portano a parlarne?»

Chiara Ghidini

«Quando ho iniziato ad occuparmi di intelligenza artificiale, ormai più di vent’anni fa, non avrei mai pensato di poterne discutere con agio al di fuori di un congresso scientifico…»

Non voglio darvi una definizione di intelligenza artificiale, perché sarebbe davvero troppo difficile, e per troppo tempo ci troveremmo a dibattere su cosa sia, in sé, l’intelligenza. Io vorrei invece rivolgermi al pubblico. Secondo voi, dove sta oggi l’intelligenza artificiale? Noi vediamo ovunque correttori automatici, sistemi di guida autonomi, robot, e così via. Una volta mi avreste risposto che al massimo con un’intelligenza artificiale avremmo potuto giocarci a scacchi, visto che intelligenza artificiale era costruita solamente per giocare. Oggi invece pensa, vede, parla, e riesce anche a risolvere problematiche piuttosto complicate.

L’intelligenza artificiale nacque nel 1956, in un workshop del Dartmouth College, in New Hampshire, nel quale si trattava di decisioni complesse e di quale fosse il modo migliore per prenderle. Vi partecipava, tra gli altri, Alexander Simon, che ventidue anni dopo vinse il Premio Nobel per l’Economia. In quei primi anni sorse un grande ottimismo, e si compirono delle scoperte incredibili, in una mostruosa e inarrestabile avanzata che durò per dieci, quindici anni. Lo stesso Simon si spinse a dire che in vent’anni, al massimo, le macchine sarebbero riuscite ad imitare ciò che l’uomo sapeva fare. E in effetti, partendo da zero, i progressi furono enormi: all’inizio degli Anni Sessanta fu creato il primo rudimentale sistema per scrivere e dialogare in inglese. Quasi contemporaneamente, videro la luce i primi sistemi in grado di dimostrare autonomamente dei teoremi matematici. L’intelligenza artificiale non è quindi stata inventata poco tempo fa da aziende come Google: è nata più di cinquant’anni fa, e ha beneficiato di un lavoro continuo di scienziati e tecnologi. Adesso godiamo i frutti di un impegno graduale, e ci possiamo figurare come i tipici nani sulle spalle dei giganti.

Dopo queste prime grandi illusioni, i progressi rallentarono, e gli organi governativi degli Stati Uniti e dell’Inghilterra smisero di finanziare la ricerca sull’intelligenza artificiale. Si aprì una lunga stagione di stallo, un “primo inverno“, che durò sino all’inizio degli Anni Ottanta. Arrivò poi una seconda ondata di progresso, che si focalizzò sui cosiddetti “sistemi esperti“, che avrebbero dovuto aiutare degli specialisti a prendere determinate decisioni. Ma anche i sistemi esperti furono un fallimento: si rivelarono difficilissimi da sviluppare, perché seguivano come fondamenti degli scenari ristretti, e per ciascun problema si sarebbe dovuto progettare uno specifico sistema esperto, ricominciando ogni volta daccapo. Si passò così attraverso un “secondo inverno“, che si protrasse fino agli anni Duemiladieci. Nel frattempo, si portarono avanti diversi lavori importanti, come quello sulle reti neurali e sui sistemi di apprendimento automatico, che stanno alla base di ciò che noi oggi facciamo con l’intelligenza artificiale.

Nel 2011 accadde qualcosa di strabiliante. IBM costruì un sistema, che si chiamava Watson, il quale simulava un gioco, famosissimo negli Stati Uniti, chiamato “Jeopardy“. Il quiz era una specie di “Rischiatutto“: vi erano dei tabelloni, che contenevano diversi argomenti a cui far riferimento, e si vinceva una quantità di soldi crescente a seconda della difficoltà delle domande poste. La particolarità, piuttosto cervellotica, era però che il tabellone conteneva le risposte, e i concorrenti dovevano indovinare le domande. Queste non erano affatto fattuali, e non potevano essere facilmente recuperate dal computer a partire da una grossa banca dati, ma venivano formulate tramite rime, ironie linguistiche, giochi di parole. Incredibilmente, il sistema creato da IBM riuscì a vincere contro due campioni di “Jeopardy“, e lo fece ascoltando e interpretando le domande del presentatore, rispondendo successivamente con una vera e propria voce. Per restituirvi nel concreto quanto il quiz fosse arduo, la prima risposta-domanda, che si nascondeva sotto la categoria delle “rime presidenziali“, era: “gli animali dei branchi andini di Barack“. La domanda-risposta del computer, che si rivelò esatta, fu: “Cosa sono i lama di Obama?“. Ci appare sorprendente che un calcolatore sia riuscito a comprendere un tale quesito, e a rispondervi in tempi stretti: è una perfetta dimostrazione di capacità che noi diremmo essere “intelligenti“. E infatti, la reazione del mondo della ricerca fu più che euforica.

Le vittorie a “Jeopardy” costituirono la nascita di un rinnovato hype verso l’AI, ma non erano state gli unici trionfi dei calcolatori nel mondo dei giochi. Nel 1997, un programma ideato da IBM era riuscito a battere il campione mondiale di scacchi, Kasparov. Nel 2004-2005 DARPA, agenzia che tuttora si occupa del finanziamento alla ricerca in campo militare per conto del Ministero della Difesa degli Stati Uniti, aveva lanciato un “Challenge“, sfidando gli automi a guidare in autonomia. L’obiettivo delle macchine era percorrere centocinquanta chilometri di deserto, in California, senza che vi fosse alcun autista umano a bordo. Nel 2004, al traguardo non arrivò nessuno: le macchine fallirono miseramente, piantandosi nel giro di alcune decine di chilometri. Nel 2005, nell’eccitazione generale, a superare il deserto furono in otto. La differenza stette nella percezione. Le macchine già in origine erano in grado di costruire dei piani complessi, ma non sapevano distinguere le automobili da buche, animali, ombre. Quando furono introdotti dei sistemi di apprendimento automatico, per facilitare l’opera di riconoscimento, i risultati furono strabilianti.

Da allora in avanti, i progressi furono enormi. Nel 2011 entrò in gioco Google, e con il suo progetto “AlphaGo” riuscì a vincere gli Space Invaders, conseguendo il maggior numero di punti ottenibili su una console Atari. La peculiarità sorprendente della vittoria della macchina di Google fu che il programma, il quale all’inizio non conosceva le regole del gioco, le imparò in autonomia, scoprendo, sconfitta dopo sconfitta, quali fossero le migliori strategie. La stessa cosa accadde nel 2016, di nuovo con “AlphaGo“: l’algoritmo, grazie all’apprendimento automatico, riuscì a vincere contro il campione mondiale di go, un gioco simile agli scacchi molto popolare in Cina ed estremamente complicato, riuscendo addirittura ad inventare nuovi tipi di strategie, che secondo lo stesso campione sino a quel momento non erano mai state utilizzate. Le macchine oggi quindi non solo si limitano ad imparare, ma riescono ad impiegare le nozioni apprese in vie sempre più creative.

Ancora nel 2016, per la prima volta un algoritmo riuscì ad operare riconoscimenti di vari oggetti contenuti in una serie di fotografie con un tasso di errore inferiore a quello dell’uomo: se gli esseri umani sbagliavano la risposta il cinque per cento delle volte, i computer arrivarono a fallire solamente nel tre per cento dei casi. Recentemente, la ricerca si è impegnata a superare l’ostacolo delle gare di dibattito, nelle quali è previsto un confronto di tesi sopra un tema estratto a sorte, come nella migliore tradizione anglosassone. Ognuno dei partecipanti ha un quarto d’ora per prepararsi ad affrontare l’avversario: la vittoria finale viene decretata da una giuria. Il programma “Ms. Debate“, sviluppato da IBM, è sorprendentemente riuscito ad avanzare argomentazioni sofisticate, impensabili sino a qualche tempo fa, spiegando perché fosse giusto finanziare le scuole materne. Finora si è sempre fatto valere, ma non è ancora riuscito a trionfare sui campioni umani.

Ma quali sono i limiti dell’intelligenza artificiale? Ad esempio, nell’ambito dei sistemi di riconoscimento delle immagini di cui abbiamo appena parlato, una fotografia che raffigura un bambino che tiene in mano uno spazzolino da denti può venire descritta dall’intelligenza artificiale come l’istantanea di un bambino che sta brandendo una mazza da baseball. È implausibile che un essere umano possa confondere uno spazzolino da denti con una mazza da baseball. Oppure, in altri casi, davanti a delle fotografie a cui è stato applicato un filtro di distorsione dei pixel da noi indistinguibile, un algoritmo di riconoscimento può confondere un panda con un gibbone. Qual è il punto? Gli algoritmi, nel complesso, sono statisticamente molto efficaci, magari sbagliano molto raramente, ma quando falliscono la sconfitta è misera, ridicola e quasi inspiegabile: diventa dunque molto difficile per noi, ad ora, fidarsi del giudizio delle macchine, specie se ne va della nostra vita.

In alcuni frangenti, potrebbe risultarci persino imbarazzante quando un computer riesce per davvero ad imitare il comportamento umano, a mimare ciò che noi gli insegniamo. Tay, un bot di dialogo sviluppato da Microsoft, che imparava a rispondere attraverso l’apprendimento di reali dialoghi su Twitter, fu rilasciato nel 2016, e tolto nel giro di sole 16 ore. Forse qualcuno di voi si ricorda quando Radio Radicale aprì i suoi microfoni, e i suoi nastri si riempirono di insulti e parolacce. Ciò che successe allora fu totalmente analogo: i troll di Internet cominciarono ad interagire con il bot tentando volutamente di insegnargli a replicare malevolmente, e ci riuscirono, visto che a un certo punto Tay si mise a sostenere che Hitler non avesse fatto niente di male. La responsabilità umana nei confronti degli algoritmi di apprendimento è fondamentale, perché la macchina potrebbe imparare a riflettere azioni che noi reputiamo indesiderabili, scorrette o anetiche.

I limiti delle AI riguardano anche la raccolta e la gestione dei dati personali, specie se effettuata dalle grandi aziende informatiche. IBM sperava che Watson, il sistema che aveva vinto “Jeopardy” impiegando un’ampia base di conoscenze, potesse anche essere utile nell’ambito dell’informatica medica. In effetti, nel 2013-2014 sorsero innumerevoli collaborazioni tra l’azienda e diversi ospedali, e i quadri dirigenti di IBM sostennero che Watson avrebbe potuto risolvere persino il problema del cancro. Dando in pasto a Watson quantitativi di letteratura medica che un medico non avrebbe potuto nemmeno lontanamente sperare di riuscire a leggere e ad apprendere, il sistema sarebbe stato in grado di aiutare gli specialisti a diagnosticare qualsiasi malattia, e di indicare le giuste terapie. Watson sino ad ora è stato un fallimento, perché un uomo è in grado di sintetizzare una decisione a partire da molti meno dati di quelli che sono necessari ad una macchina: per Watson, neanche i dati ricavati apprendendo da tutta la letteratura medica, quando e se disponibili, sarebbero sufficienti per operare un’efficace diagnosi.

Davide Battisti

Chiara, ti ringrazio. In pochi minuti ci hai restituito un’ampia ed esaustiva interpretazione e definizione del mondo dell’intelligenza artificiale. A quanto ci sembra di capire, lo scopo degli informatici è far sì che le macchine imparino in autonomia. A prima vista ciò ci pare meraviglioso, perché comprendiamo come, in futuro, potrebbe portare grandi benefici all’umanità. Ma allo stesso tempo l’intelligenza artificiale ha spasmodicamente bisogno di dati, per imparare ad essere il più precisa possibile, ed evitare di cadere in errore. Giunti a questo punto, volevo chiederti: quali sono le prospettive dell’intelligenza artificiale e soprattutto quali sono le ricadute sull’impiego e sul mondo del lavoro? Mi viene infatti da pensare che un’applicazione pervasiva dell’intelligenza artificiale potrebbe far velocemente scomparire moltissime professioni che, al momento, consideriamo essere prettamente appartenenti all’umano. Cosa ci sai dire al riguardo?

Chiara Ghidini

Il problema esiste, ma prima di tutto dobbiamo ricordare che l’intelligenza artificiale non porta solo mali, ma anche benefici. Io lavoro quotidianamente sull’intelligenza artificiale, e sono assolutamente convinta che questa abbia delle grandi potenzialità, specie per quanto riguarda i campi della sanità, della sostenibilità ambientale, della messa in sicurezza dai cambiamenti climatici. Vi sono però anche parecchie sfide. Noi ci concentriamo spesso su quella del mondo del lavoro, ma in realtà ve ne sarebbero molte altre che andrebbero dibattute. Ad esempio, parlare di AI significa discutere del problema delle armi autonome, oppure del fatto che un algoritmo riesca o meno a risolvere dei problemi morali, come nel classico caso di un’automobile guidata da un’intelligenza artificiale, che deve decidere se tirar dritto e investire un bambino, oppure sterzare, andare a finire contro un palo e ammazzare il conducente.

Un’altra problematica molto forte è anche quella sulla creazione delle pseudo-realtà: oggi gli algoritmi designati per la produzione delle immagini hanno la straordinaria capacità di costruire delle realtà tanto fasulle quanto altamente verosimili, e quindi noi dovremo chiederci sempre più spesso se credere a ciò che vedremo. Inoltre, personalmente io tengo moltissimo alla questione della proprietà delle tecnologie e del capitale intellettuale. Noi tutti sappiamo che la bomba atomica fu studiata e sviluppata nei laboratori di Los Alamos, negli Stati Uniti. Ora, immaginatevi se Google avesse posseduto quei laboratori. Purtroppo, la situazione corrente è che la maggioranza sia della ricerca di base che di quella di punta non si fanno più nelle Università, e non sono più proprietà dello Stato: sono in mano a grosse corporation come Facebook, Amazon, Google, Microsoft. Al di là delle cospicue remunerazioni concesse dal privato, va constatato che per un odierno curriculum ha quasi più valore aver lavorato presso Google rispetto ad aver condotto delle opere di ricerca presso Harvard. Per alcuni può non essere un problema, epperò per come noi ci immaginiamo lo Stato e le istituzioni può diventarlo: secondo me dovremmo discuterne più frequentemente, a livello sociale e politico.

In realtà, per quanto riguarda il mondo del lavoro, oltre al completo rimpiazzamento di alcune professioni nella loro interezza, uno studio piuttosto recente di McKinsey, che si chiama “Dove le macchine potrebbero rimpiazzare gli umani e dove ancora non possono“, indica come sia molto plausibile la completa sostituzione di determinate attività contenute all’interno di una gamma di professioni. I compiti fisici e ripetitivi saranno ovviamente i più facilmente sostituibili, come è accaduto nelle passate rivoluzioni industriali. La peculiarità della rivoluzione che stiamo vivendo però è che lavori concernenti la raccolta dati e la gestione delle informazioni saranno totalmente sostituibili. Ad esempio, i traduttori o gli analisti finanziari svolgono lavori sì intellettuali, ma in potenza facilmente riproducibili dalle macchine. Lavori invero fisici, però meno routinari, come curare i giardini, hanno sicuramente meno rischio di venire rimpiazzati, perché coinvolgono compiti che richiedono certi gradi di originalità, e che tendono a non ripetersi nel tempo.

C’è un altro studio del World Economic Forum, che è appena uscito e si chiama The Future of Jobs“. Il paper ci mostra una tabella contenente le diverse tipologie di lavoro esistenti: ognuna viene divisa in una parte scura, che ne rappresenta il lato umano, e in una parte chiara, che ne figura il lato ormai svolto dalle macchine, confrontandone il livello attuale con la proiezione della composizione che verrà ottenuta entro il 2022. Senza entrare nel dettaglio di tutte le categorie, vediamo come il coinvolgimento dei computer cresce in tutti i campi, e se ad esempio una metà del lavoro amministrativo resisterà, l’altra sarà automatizzata. Ciò significa che se prima servivano due segretari, due traduttori, due analisti bancari, nel 2022 ne servirà uno per ciascun luogo di lavoro. Secondo le ricerche, è dunque probabile che l’innovazione tecnologica porterà ad una contrazione del mondo del lavoro.

Cosa facciamo? Innanzitutto dobbiamo discuterne: è un nostro dovere politico e sociale. Lo stesso report tenta di rassicurarci, dicendoci che di fronte ai vecchi lavori che se ne vanno, ne sorgeranno di nuovi. Ma quanti ne potremo veramente creare? Provate a dire a un traduttore che adesso deve fare il programmatore di reti neurali: non gli basterà una vita per riqualificarsi. È vero che lo studio continuo e il reskilling sono fondamentali, però non possiamo snaturare completamente le abilità dei singoli individui, quantomeno non nel breve né nel medio termine. Una risposta come quella che ci viene data dalla ricerca del World Economic Forum non è, in verità, dal mio punto di vista, una risposta. Il problema resta, e andrebbe affrontato criticamente nella nostra società.

Ma come possiamo affrontarlo? Una frase che a suo tempo mi piacque moltissimo fu quella di Stephen Hawking, che disse: “Se le macchine finiranno per produrre tutto quello di cui abbiamo bisogno, il risultato dipenderà da come le cose verranno distribuite. Tutti potranno godere di una vita serena nel tempo libero, se la ricchezza prodotta dalla macchina verrà condivisa, o la maggior parte delle persone si ritroveranno miseramente in povertà se la lobby dei proprietari delle macchine si batteranno contro la redistribuzione della ricchezza. Finora, la tendenza sembra essere verso la seconda opzione, con la tecnologia che sta creando crescente disuguaglianza“. Io non sono un economista, però secondo me non si può parlare di intelligenza artificiale e lavoro senza porsi nella più ampia prospettiva della distribuzione della ricchezza. In tal senso, vi sono dei trend molto forti: un diagramma che ci mostra, a partire dalla fine della Seconda Guerra Mondiale, come è stata distribuita la ricchezza che si è guadagnata nei periodi di crescita, ci fa rendere conto che oggi ci troviamo davanti a delle enormi ineguaglianze. Se negli anni dell’immediato Dopoguerra la distribuzione della ricchezza è stata piuttosto equa, col passare del tempo la tendenza è stata quella di favorire i grandi guadagni degli individui più agiati, e oggi il primo dieci per cento in termini di ricchezza risulta molto privilegiato.

Per chiudere, volevo riportarci all’importanza del dibattere delle nuove tecnologie, e del rapporto tra innovazione e qualità della vita. Le rivoluzioni tecnologiche sono già accadute molte volte nel passato: basti pensare alla scoperta del fuoco. Il fuoco è stato probabilmente una delle invenzioni che più ha migliorato la vita dell’essere umano, nonostante il fatto che di fuoco si possa morire. Per raccontarlo, gli Antichi Greci crearono il mito di Prometeo, che rubò il fuoco agli dei, portando beneficio agli uomini, e però causò anche la vendetta divina, che si manifestò nel vaso di Pandora, da cui uscirono morte, malattie e distruzione. In altre parole, ogni novità che porta effetti positivi si porta sempre appresso un vaso di Pandora, il quale può anche comportare delle reazioni negative. Dibattiti sul rapporto tra positività e negatività dell’avanzamento scientifico sono stati affrontati a più riprese: innanzitutto nella chimica, quando durante la Prima Guerra Mondiale gli scienziati giunti al fronte si inorridirono, trovandosi loro malgrado a vedere con i propri occhi le tragiche conseguenze del loro lavoro, ma anche nella fisica. Oppenheimer, che aveva guidato il gruppo di ricerca dei laboratori di Los Alamos, sviluppando la prima bomba atomica, quando vide la sua prima esplosione in New Mexico citò una frase in sanscrito, dicendo: “Sono diventato la morte, posso distruggere il mondo“, e da quel momento in avanti divenne un fortissimo oppositore dello sviluppo della bomba a fusione. Nemmeno la biologia, specie per quanto riguarda la genetica, è stata risparmiata, e oggi è costretta a fare i conti con la questione morale legata alla possibilità di ricombinare il DNA.

Adesso è il turno delle tecnologie legate all’intelligenza artificiale, e tuttavia forse non se ne sta parlando ancora abbastanza. Qualche interessante elemento di discussione già esiste: ad esempio, nel 2017 la Camera dei Lord inglesi ha promulgato un documento riguardante i criteri di sviluppo di un’intelligenza artificiale che abbia il dovere di aiutare l’uomo, e sostiene che l’intelligenza artificiale dovrebbe essere sviluppata come bene comune, a beneficio dell’umanità, ed operare in base a principi di intelligibilità e di correttezza. Vi sono molti altri testi, stilati da vari Stati e da diverse corporation, contenenti delle linee guida in termini etici per l’utilizzo dell’intelligenza artificiale, e ci dovremmo forse chiedere se effettivamente questi vengano seguiti. Importanti sono anche alcune iniziative che afferiscono al mondo scientifico. Io faccio parte dell’Associazione Italiana per l’Intelligenza Artificiale, che include molti dei ricercatori che in Italia si occupano di intelligenza artificiale: uno degli obiettivi che ci prefiggiamo è appunto quello di rendere le persone consapevoli dei dibattiti legati allo sviluppo dell’intelligenza artificiale. Altri progetti che pongono al proprio centro l’argomento delle “AI for Humanity” sono Claire, una rete formatasi tra ricercatori europei per discutere dell’impatto dell’intelligenza artificiale nella società e cercare di promuoverne l’utilizzo benefico e il Vienna Manifesto on Digital Humanism del maggio 2019, in cui alcuni ricercatori austriaci si auspicano che le nuove tecnologie possano portare ad un nuovo Umanesimo Digitale, il quale possa mettere l’uomo al centro dello sviluppo ed evitargli un tragico destino da inerme vittima del progresso scientifico.

Mattia Guarnerio

ciao, sono mario. scrivo per l'universimario. sto sempre un po' nel mario. sono un bergamario, e quindi il mario non lo vedo molto spesso.

More Posts - Website

Follow Me:
TwitterFacebook