Il filosofo Carlo Sini: «L’IA è uno strumento come altri, dipende tutto da come lo si usa»

Dall'uso militare alla violazione del copyright nella causa del New York Times a OpenAI: una sfida per la politica
«L’uso della parola 'intelligenza' è un po’ una sciagura che svia dai reali problemi e ci mette su piste sbagliatissime»

L’intelligenza artificiale è l’enigma del momento, un’innovazione che ci costringe a ripensare il modo in cui ci serviamo delle macchine che siamo noi stessi, in quanto umani, a programmare. «Siamo di fronte a uno strumento efficientissimo che di per sé non è né buono né cattivo: tutto sta nell’uso che ne facciamo», spiega il filosofo Carlo Sini – già professore di Filosofia teoretica dell’Università statale di Milano e membro dell’Accademia dei Lincei.  

Macchine intelligenti? – «L’uso della parola ‘intelligenza’ – premette Sini – è un po’ una sciagura che svia dai reali problemi e ci mette su piste sbagliatissime». Bisogna fare chiarezza partendo dal presupposto che
«l’intelligenza artificiale altro non è che uno strumento dell’uomo e uno strumento non potrà mai essere intelligente. Per parlare di intelligenza – continua il filosofo – servirebbe un comportamento frutto di una lunga evoluzione: i corpi viventi sono intelligenti perché sanno come reagire all’ambiente, un bastone non lo è, ma si può usare con intelligenza». 

L’uomo e i suoi strumenti – Per Sini, il rapporto tra esseri umani e strumenti è essenziale: l’uomo smette di essere un animale proprio quando inizia a servirsi di strumenti, che di per sé non sono né buoni né cattivi. Per spiegarlo, il filosofo fa un esempio molto semplice: un bastone può essere d’aiuto se usato per camminare, ma può anche diventare un’arma per colpire in testa un’altra persona. «L’intelligenza artificiale – puntualizza – è un attrezzo potentissimo ma anche potenzialmente pericoloso. Questo però vale per ogni cosa». La vera novità starebbe invece nell’efficienza dell’IA, efficienza che è legata alla velocità con cui è in grado di eseguire i compiti assegnatigli, positivi o negativi che siano. 

Etica e società – «I vantaggi dell’intelligenza artificiale – prosegue Sini – sono sotto gli occhi di tutti, specie in ambito medico». Anche i rischi, però, sono dietro l’angolo. «L’IA spesso viene impiegata male», afferma il filosofo. E mentre ragiona fa riferimento all’utilizzo dell’intelligenza artificiale in guerra o a quello, non autorizzato, di milioni di articoli di giornale come nel caso del New York Times, che a dicembre ha fatto causa a OpenAI e a Microsoft accusando le due aziende di aver violato il diritto d’autore e di aver usato illegalmente il lavoro della testata. «Questo però – spiega il filosofo – dipende dal fatto che chi usa l’IA lo fa in un mondo liberistico che ha identificato lo sviluppo umano con l’accumulo di denaro a ogni costo». I problemi etici della società in cui viviamo, quindi, precedono quelli legati esclusivamente all’IA. «Il mezzo è potentissimo e il suo uso rientra in un contesto sociale ben definito: la questione, quindi, è totalmente politica». Il rapporto con l’intelligenza artificiale deve essere normato politicamente perché diventi un rapporto etico: le macchine non possono cioè diventare avversarie dell’umanità che le ha create. Questo può avvenire solo se le facilitazioni che producono non hanno come unico fine il profitto (è il caso del New York Times) ma anche e soprattutto il benessere del maggior numero di persone (è il caso dell’uso medico). Gli strumenti non si muovono né decidono da soli, alle nostre comunità politiche, secondo Sini, spetta dunque il compito di pensare a come usarli.

Autore

Erika Sità

Nata a Soverato, in Calabria, il 07/08/1997, e laureata in Scienze filosofiche all'Università di Bologna. Giornalista praticante del XVI biennio della Scuola di giornalismo radiotelevisivo di Perugia.