“Intelligenza naturale”: l’intervento di Maurizio Ferraris al Wired Next Fest

L’intelligenza artificiale è ormai diventata uno strumento di uso quotidiano, e, parallelamente, oggetto di dibattito: chi paventa solo rischi, ingabbiato in timori talvolta fomentati anche dai grandi classici della distopia presenti nell’immaginario collettivo; chi, al contrario, vede nell’IA un’alleata dell’intelligenza naturale propria dell’uomo; chi, collocandosi in una posizione intermedia, si focalizza sull’utilizzo -buono o meno- che l’essere umano può fare dell’intelligenza artificiale. Queste considerazioni, e non solo, sono state oggetto di analisi critica e di riflessione al Wired Next Fest, svoltosi a Rovereto in tre giornate di conferenze e workshop, dal 3 al 5 ottobre scorsi.

Nel novero degli ospiti chiamati a riflettere sul tema anche Maurizio Ferraris, professore di filosofia teoretica all’Università di Torino e presidente di Labont e Scienza nuova

L’intervento del professore ha portato il pubblico a riflettere innanzitutto sul significato del termine “artificiale”. Siamo infatti soliti riconoscere la naturalità come caratteristica precipua dell’essere umano, come d’altronde di ogni specie animale, e, muovendo da questo presupposto, definiamo per antitesi “artificiale” ciò che non si identifica nell’essenza naturale in senso stretto. Ferraris sottolinea l’inesattezza di questa supposizione, a partire dal suo fondamento: l’uomo, in confronto agli altri animali, non si è mai configurato come un essere prettamente naturale, poiché, nel momento in cui ha iniziato a dotarsi di strumenti -benché rudimentali- per prolungare il suo raggio d’azione, modificando l’ambiente a proprio vantaggio anziché adattarsi a esso, ha scalfito la sua presunta naturalità. La stessa definizione etimologica del termine “artificiale” indica ciò che viene arte-fatto, ossia fabbricato da un soggetto per mezzo di una tecnica (ars). Se con ars intendiamo l’applicazione di un principio razionale all’ambito dell’agire, chi ne è detentore non può che essere l’uomo, che è dunque implicato necessariamente, come soggetto attivo, nella dimensione artificiale.  

Proprio dalla distinzione naturale-artificiale e dal nostro collocarci nella categoria degli esseri naturali derivano i timori che nutriamo nei confronti di ciò che è “artificiale”, percepito come totalmente altro da noi. Le paure che ci accompagnano, legate all’IA e alle sue possibili ripercussioni nell’ambito della conoscenza, dell’informazione, della politica e non solo, non attengono unicamente al nostro tempo, ma si sono presentate ogniqualvolta l’umanità si è confrontata con un’innovazione di grande portata. Basti pensare, mutatis mutandis, all’introduzione della scrittura, che, convenzionalmente, sancisce la fine della preistoria e l’inizio della storia. La società greca antica, benché a qualche  millennio di distanza da tale invenzione, non mancò di riflettere sul tema della parola scritta, in particolare nel momento di passaggio da una cultura ancora prettamente orale a una basata eminentemente sulla scrittura. Paradigmatico, in questo senso, è, nel Fedro, il mito di Thamous e Theuth, all’interno del quale Platone evidenzia i vantaggi, ma soprattutto i limiti della parola scritta, presentando rischi analoghi a quelli oggi paventati da uno studio del MIT rispetto all’intelligenza artificiale (l’estrinsecarsi della conoscenza, la riduzione della memoria, la mancata autonomia di un sapere relegato su un supporto esterno).

Secondo Ferraris, dunque, il vero cambio epocale non consiste tanto nell’introduzione dell’intelligenza artificiale, dal momento che l’essere umano si è sempre dotato di strumenti non propriamente naturali che si sono sempre configurati come elementi di novità, quanto in ciò che ne consente l’esistenza e il funzionamento: i dati. Mai come da una ventina d’anni a questa parte, infatti, l’umanità ha prodotto, consapevolmente o meno, una simile quantità di informazioni, che si configura, ad oggi, come un nuovo tipo di capitale di valore, senza il quale non esisterebbe l’IA (le “condizioni di possibilità” dell’intelligenza artificiale risiedono proprio nella ricchezza di dati). Le caratteristiche fondamentali di questo nuovo capitale “documediale,” per utilizzare un termine coniato dallo stesso Ferraris, sono: la novità, la ricchezza, la rinnovabilità (il capitale è fatto di dati, ossia di beni intangibili, che possono essere ceduti senza che chi li cede ne resti privo, al contrario dei beni materiali), l’equità (la raccolta dei dati si basa sul consumo degli utenti, che non tiene conto del loro merito, ma dei loro bisogni e li pone così tutti sullo stesso piano). Dal momento che i dati costituiscono un nuovo capitale di valore, la loro gestione è inevitabilmente appannaggio della politica.  Ferraris in questo senso oppone il “bolscevismo” cinese, dove è lo Stato a detenere il monopolio dei dati, ma a detrimento delle libertà individuali, al liberalismo americano, che prevede che il possesso del patrimonio digitale sia proprio solo di pochi imprenditori, senza alcuna forma di redistribuzione e, d’altro canto, senza un sistematico controllo sui cittadini (nonostante Trump abbia recentemente proposto il controllo delle piattaforme, riferendosi però sempre lo stesso modello economico). Il professore, a fronte di questa dicotomia, apre a una terza via (o quarta, considerando la nuova alternativa proposta da Trump): il “comunismo digitale”, che consentirebbe la condivisione normata dei dati, previa anonimizzazione, per scopi benevoli, nella fattispecie a fini di ricerca, senza che tuttavia chi già li possiede ne venga privato.

Infine è fondamentale, secondo Ferraris, tenere presente che si può parlare di politica dell’intelligenza artificiale, in ordine alla gestione del patrimonio dei dati, ma non di etica. Se volessimo infatti fare delle IA degli individui morali e facessimo introiettare loro dei valori -inevitabilmente non universali ma basati sulle nostre personali nozioni di giustizia e di moralità, determinate da una certa epoca, area geografica, cultura di riferimento ecc.- essi si configurerebbero come bias e, verosimilmente, otterremmo dei danni. La dimensione etica deve perciò essere ricondotta non ai sistemi di IA (sempre più spesso si sente parlare di “etica dell’intelligenza artificiale”), ma all’umanità. Si pone, pertanto, ancora una volta, una questione antichissima, drammatizzata nell’Antigone di Sofocle: non sono la tecnica e gli strumenti ad essere buoni o dannosi di per sé, né sono loro imputabili meriti o colpe, ma è l’essere umano, nella sua natura ancipite, al contempo mirabile e terribile (deinòs), ad avere il compito di scegliere se volgere i frutti della tecnica e del progresso al bene o al male.

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. Maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi