Rubriche

Possiamo “installare” valori etici nelle Intelligenze artificiali?

Rubriche

14 Gennaio 2019
Possiamo “installare” valori etici nelle Intelligenze artificiali?

di Andrea Tomasi

Tra gli ambiti di rilievo delle applicazioni di intelligenza artificiale non ci sono ormai più soltanto i robot, ma anche gli algoritmi di analisi dei dati raccolti in rete e il controllo automatizzato di oggetti connessi alla rete.

L’immaginario collettivo, descritto in romanzi e film più o meno fantascientifici, può quindi spaziare tra un mondo in cui macchine intelligenti convivono con l’uomo fino a diventare indistinguibili, come in “A.I.”, “Eva”, “Blade Runner 2049”, suscitando il timore che possano diventare nemiche dell’uomo, come in “Io, robot”, “2001 Odissea nello spazio”, “Blade Runner”, Automata, e un futuro in cui realtà virtuale e mondo reale coincidono, come “Matrix”, o “Ready Player One”, in un mondo completamente tecnologizzato.  L’uomo dovrà adattarsi ad un mondo dominato dagli algoritmi, come in “Minority Report” e temere forme evolute di controllo dei pensieri umani, come in “Inception”? Significativo è il modo con cui i film hanno rappresentato la relazione affettiva artificiale tra l’uomo e la macchina: se nel film del 1980 “Io e Caterina” Alberto Sordi acquista una donna robot, nel film del 2013 “Her” il protagonista, lo scrittore Theodore, stabilisce un rapporto di amore virtuale con la voce del software “Samantha”, una voce femminile intelligente, empatica e con una sua personalità.

L’intelligenza artificiale si propone sempre più come “mente pensante”, con due diverse accentuazioni: quello di “sistema nervoso” dei robot e quello di “simulatore dei sentimenti” nella rete. Ai due ambiti corrispondono due differenti questioni etiche, rispettivamente riguardanti le azioni dei robot e l’influenza dell’ambiente virtuale sulla persona, nel caso della rete. Adriano Fabris ha trattato l’argomento con i suoi studi (il suo libro più recente, nel 2018, è “Etica delle tecnologie ICT” – in inglese), e un riconosciuto esperto è Luciano Floridi, docente ad Oxford, ma significativo è il punto di vista di Federico Faggin, che affronta il tema della consapevolezza delle macchine dopo decenni spesi a costruire computer sempre più sofisticati (Faggin è considerato il “padre” dei microprocessori e imprenditore delle reti neurali).

La letteratura e i film danno immagini e consistenza alle paure e alle speranze degli uomini, partendo da un assunto su cui merita di riflettere: in futuro il “prodotto” della tecnologia saprà essere intelligente tanto quanto l’uomo, o forse più. Da un lato questo suscita un senso di orgoglio per la capacità creativa dell’uomo, dall’altro produce il timore che la sua opera diventi autonoma e indipendente rispetto al suo creatore, fino allo scambio di ruoli definitivo, con la macchina che domina l’uomo. Ma per quanto autonome e autosufficienti, le macchine operano solo nei limiti concessi dall’algoritmo che le controlla. La responsabilità è sempre e solo quella di chi le progetta, le costruisce, le programma. Con possibili errori, con una logica che deve essere resa trasparente, ma che spesso ci dobbiamo limitare a constatare dall’esterno, in base al comportamento della macchina come conseguenza degli input ricevuti.

La rete introduce un elemento aggiuntivo: gli algoritmi che raccolgono e analizzano i dati che circolano in rete sono usati per orientare le decisioni, delle macchine e delle persone. I dati sono alimentati dai nostri comportamenti, da ciò che riveliamo di noi nelle comunicazioni e nelle interazioni con gli altri, e nelle ricerche che facciamo in rete. Non abbiamo controllo su come queste informazioni vengono interpretate dagli algoritmi, ma constatiamo che tutto ciò influisce sulle nostre percezioni e sulla nostra conoscenza. Siamo passati, nella “infosfera” della rete, dalla conoscenza oggettiva, a quella basata sul consenso della maggioranza, a quella affidata all’estrazione di informazioni effettuata dagli algoritmi che analizzano l’immenso cumulo di dati disponibili. La razionalità dell’analisi e la significatività delle singole informazioni sono affidate ai principi logici che il programmatore ha previsto nell’algoritmo.

In conclusione, alla base dell’azione delle macchine di prossima generazione ci sono gli algoritmi, sempre più potenti ed evoluti. Fino a quale limite? Solo rispondendo a questa domanda possiamo capire se le paure sono giustificate, se veramente le macchine possono assumere decisioni che non dipendono da ciò che i costruttori hanno previsto. Infatti, anche se la logica di funzionamento può affinarsi nel tempo per “apprendimento” dagli eventi che si succedono via via, la logica di apprendimento è comunque determinata dall’algoritmo impostato dal progettista.  Solo se si possono realizzare algoritmi che rendono le macchine  autosufficienti nell’azione ed anche capaci di autodeterminarsi consapevolmente, si può attribuire alle macchine qualche forma di responsabilità morale.

Tornano in primo piano le domande che Romano Guardini pone nell’introduzione alla raccolta di saggi “Ansia per l’uomo”: come garantire che le linee di sviluppo della scienza e della tecnologia corrano parallele a quelle della felicità umana? Come governare e coordinare il progresso tecnico e quello umano? L’opera dell’uomo potrebbe diventare autonoma e minacciare il futuro della persona umana? Domande alle quali Guardini risponde con la convinzione che “nonostante tutte le automazioni, l’essenziale, cioè l’ordinamento dell’esistenza, deve essere attuato dall’uomo stesso”. E con molta concretezza indica la necessità di governare un mondo in trasformazione maturando competenze necessarie: un rapporto di familiarità con la tecnica, un rapporto etico con il potere, il riconoscimento di valori assoluti, un rinnovato senso dell’ascesi.

In successivi interventi cercherò di dare qualche ulteriore approfondimento di riflessione su un tema che suscita grandi timori e grandi preoccupazioni, ma che è destinato a far parte della nostra vita quotidiana nei prossimi anni.

Andrea Tomasi



SEGUICI SU