AI e la sua natura ambivalente: intervista al professor Casonato
Quando ci si immagina il futuro, si inizia spesso a pensare ad una prospettiva da film di fantascienza. Certamente pensare a dei possibili sviluppi della società a venire non è solo oggetto di pensiero dei nostri tempi. Nelle epoche precedenti alla nostra si sognavano città con palazzi futuristici e macchine volanti e in parte alcune cose si sono avverate, se pensiamo agli aerei e ai jet privati. Ora, però, il focus sembra essersi spostato su quello che potrebbe essere l’impatto futuro di una nuova tecnologia introdotta di recente e che ha preso ormai piede nella nostra quotidianità: l’Intelligenza artificiale (IA). Ci si chiede quali potranno essere i futuri sviluppi e come impatterà il nostro modo di vivere. A tal proposito, l’Universitario ha avuto il piacere di intervistare il professore Casonato, titolare della Cattedra Jean Monnet di Diritto UE dell’Intelligenza artificiale.
Professor Casonato, dalla sua prospettiva, quanto l’IA giocherà sulla qualità e l’affidabilità delle informazioni a cui avremo accesso?
Casonato: Quello dell’accesso alle informazioni è un tema su cui l’IA dimostra la sua natura ambivalente. Da un lato, sistemi di IA possono permettere di valutare l’accuratezza delle informazioni di cui si dispone, o favorirne la verifica e il controllo. Allo stesso modo, l’IA può essere d’ausilio nel creare testi che riescano a comunicare con efficacia e velocità determinati contenuti. D’altro canto, proprio l’IA è un potente strumento in mano a chi intende diffondere disinformazione e fake news. Per questo, il regolamento europeo sull’intelligenza artificiale impone di etichettare come artificiali i contenuti generati o manipolati attraverso sistemi di IA. Attraverso la profilazione, inoltre, l’IA permette di individuare le categorie di persone più suscettibili di una manipolazione che dal settore commerciale può arrivare alla dimensione politica e elettorale.
Da questo punto di vista, è necessario che tutti, e in particolare le generazioni più giovani, siano sensibilizzati e formati sui vantaggi, ma anche sui limiti e sui rischi di disinformazione collegati all’utilizzo dell’IA, e di quella generativa in special modo. Si tratta di un’importante sfida educativa che dovrebbe far aumentare il grado di consapevolezza sull’attendibilità delle fonti che utilizziamo per formarci un’opinione.
Crede sia necessario un controllo sull’IA? Eventualmente, come potrebbe essere sviluppato?
Casonato: Bel tema di cui discutere, anche perché il controllo dell’informazione in uno Stato di derivazione liberale pone sempre problemi di potenziale censura. È quindi necessario che i controlli siano proporzionati e non intrusivi della libertà di manifestazione del pensiero. Questo, tuttavia, non significa che il territorio dei social media, che svolgono la propria attività grazie ai sistemi di IA, non possa essere toccato da misure che mitigano i rischi maggiori. In alcuni Stati, in Australia ad esempio, ma ci si sta pensando anche nel Regno Unito, si è posto un divieto di accesso ai social media per i minori di 16 anni. In riferimento alla diffusione di disinformazione, inoltre, il sistema del fact checking ha dato risultati a mio modo di vedere utilissimi, senza limitare oltre misura la libertà di espressione. Vedo quindi con preoccupazione la recentissima tendenza dei maggior social, sulla scorta di quando fatto da Elon Musk su X, a eleminare tale strumento o a sostituirlo con altri sistemi molto più deboli e inaffidabili. Se una censura su tali piattaforme può costituire uno strumento di controllo delle informazioni eccessivo e incostituzionale, strumenti più misurati sono indispensabili per garantire che la comunicazione sui social non diventi un territorio in cui regna la legge del più forte (economicamente) a danno delle persone più vulnerabili e influenzabili. Proprio su questo aspetto, per chi volesse approfondire, terremo nel pomeriggio di lunedì 31 marzo a Giurisprudenza un incontro sul tema: AI between freedom adn servitude (alle 14.30, in inglese).
Invece, come immagina gli impatti dell’IA sulla società del futuro?
Casonato: L’IA potrà avere sia impatti positivi che negativi, dipenderà tutto da noi. Spesso si pensa che le sfide poste dall’IA siano di natura tecnologica. Io invece penso che siano pienamente rivolte all’umano. Faccio un esempio. Vorremo avere fra 5 o 10 anni un medico robot, oppure un giudice robot, un professore robot o un giornalista robot? Certamente alcune mansioni sono già oggi svolte con maggior precisione e velocità da sistemi artificiali, ma altre richiedono il “tocco umano”. Bene capire cosa delegare alle macchine e cosa tenere per noi esseri umani richiederà una verifica delle caratteristiche principali di quelle professioni, al fine di capire che ruolo potrà e dovrà continuare ad avere l’essere umano. Così, capire cosa delegare alle macchine e cosa tenere per noi esseri umani costituirà la principale sfida sociale e culturale del futuro. E da ciò dipenderanno non solo le caratteristiche delle professioni di domani, ma la stessa idea di umanità che vorremo mantenere e trasmettere alle generazioni future. Una sfida non tecnologica, ma pienamente “umanistica”, come dicevo.
L’Europa ha formulato il proprio AI Act, potrebbe presentarcelo brevemente?
Casonato: L’AI Act è un regolamento lungo e complesso, anche perché la materia da regolare è estremamente articolata ed eterogenea. Si passa dai modelli deterministici, che lavorano sulla base di regole fissate dal programmatore, a reti neurali che “imparano” strada facendo e di cui nessuno riesce a spiegare la reale logica di funzionamento. L’AI Act, quindi, ha voluto fissare le regole basandosi sulla quota di rischio posto dai sistemi di IA. Si passa da sistemi che pongono un rischio inaccettabile, come quelli che distorcono la volontà di persone vulnerabili inducendole a svolgere attività che le pongono in pericolo (sistemi che sono vietati a partire dal febbraio scorso), a sistemi che pongono un rischio riferito solo alla possibile confusione di un utente che non capisce se sta interagendo con un umano o con un chatbot (sistemi per cui è previsto un obbligo di informazione), passando per i sistemi ad alto rischio, cui è dedicato gran parte del regolamento. Tali sistemi sono quelli utilizzati, ad esempio, dalla pubblica amministrazione per verificare l’accesso a servizi pubblici essenziali o in ambito lavorativo o educativo, per il controllo delle frontiere o per la gestione dei flussi migratori, da un giudice per la ricerca e l’interpretazione dei fatti o del diritto o per determinare il rischio di recidiva. Per tutti tali sistemi è prevista una serie di requisiti da rispettare: si dovranno utilizzare dataset di addestramento puliti, pertinenti e rappresentativi, si dovrà rendere “sufficientemente trasparente” il loro funzionamento (per fronteggiare il problema della black box), si dovrà svolgere una sorveglianza umana, in modo da potere, se del caso, discostarsi dall’output prodotto dal sistema.
L’AI Act, così, fissa i requisiti di sicurezza nell’impiego dell’IA, sicurezza che però deve fare i conti con il fatto che essa non è solo un prodotto come gli altri, ma, grazie al suo carattere pervasivo e trasformativo, influenza molte attività della nostra vita quotidiana e dietro di essa, come è apparso evidente proprio in queste ultime settimane, si nascondono poteri economici e politici immensi.
Le critiche americane alla regolamentazione europea, a cosa sono dovute?
Casonato: Formalmente, le critiche dell’attuale amministrazione statunitense si fondano sull’assunto che la regolamentazione europea ostacoli lo sviluppo tecnologico e che sia eccessivamente intrusiva e limitante dei diritti di libertà, primo fra tutti quello di manifestazione del pensiero. Rispetto a queste critiche, in realtà, si può agevolmente ribattere che, di fronte ad una tecnologia potente come l’IA, sia necessaria una regolamentazione proprio al fine, ad esempio, di mitigare i rischi di errori (le cd. allucinazioni), di output discriminatori e gli abusi che ognuno può riconoscere agevolmente guardando alla storia del suo utilizzo. Se adeguatamente regolamentata e indirizzata, l’AI può essere invece uno straordinario strumento tecnologico a favore dell’innalzamento complessivo del benessere della popolazione, almeno di quella che ha a disposizione l’IA, perché non dimentichiamoci che esiste, a livello globale, un rischio di ulteriore accrescimento delle diseguaglianze tra chi avrrà l’IA e chi non la avrà. Quello che l’Europa ha provato a fare con l’AI Act, quindi, è stato cercare di porre le basi per lo sviluppo di una IA di qualità, piuttosto che semplicemente di una IA di quantità.
Qual è il ruolo del diritto alla libertà di parola in un contesto del genere?
Casonato: Anche rispetto all’eccessiva limitazione delle libertà, e della libertà di parola in particolare, alcune critiche alle normative europee possono essere facilmente confutate. Sono infatti articoli pubblicati nelle migliori riviste scientifiche (proprio) americane, Science ad esempio, a criticare l’abbandono del fact checking come controproducente. Il fact cheking, infatti, non è censura, ma controargomentazione: l’aggiunta di informazioni relative alla verifica ed alla valutazione della notizia da parte esperti indipendenti. Averne auspicato l’eliminazione, prontamente eseguita da Meta, non protegge, ma anzi danneggia quindi la libertà di parola perché, come ricordato (proprio) da un giudice della Corte Suprema degli Stati Uniti, il miglior rimedio contro i discorsi dannosi è “più discorso, non il silenzio imposto”.
Da parte dell’amministrazione statunitense, inoltre, si assiste ad una certa incoerenza al riguardo. Secondo quanto riportato dal Corriere della Sera nel febbraio scorso, il chatbot di X, Grok, aveva risposto alla domanda su chi fossero i maggiori propagatori di fake news facendo i nomi di Donald Trump e Elon Musk. Giorni dopo, alla stessa domanda, Grok esitava e non sapeva più rispondere con altrettanta certezza. Si è scoperto poi che Grok aveva “cambiato idea” sulla base di un’istruzione fornita da un lavoratore eccessivamente zelante tesa a far ignorare le fake news e disinformazioni propagate da Musk e Trump. E di particolare preoccupazione anche la notizia diffusa dal Guardian del 19 marzo riportante il divieto di accesso al territorio statunitense imposto ad un ricercatore francese diretto ad un convegno a Houston, a motivo del ritrovamento, sul telefonino, di messaggi di critiche all’amministrazione Trump.
A costo di essere un po’ politicamente scorretto, il dubbio che ho da costituzionalista, che ha a cuore la promozione dei diritti e la limitazione dei poteri, riguarda la sensazione che una critica così forte e incoerente da parte dell’amministrazione statunitense nasconda forse desideri di egemonia politica ed economica, che fanno sponda ad interessi commerciali di figure ben note all’interno di quel governo.