Sull’”etica dell’intelligenza artificiale[1]

1.“Il discorso sull’«etica dell’intelligenza artificiale» tematizza la sola, ristretta questione dell’equità algoritmica e dell’«allineamento dei valori» (come se l’opera di moralizzazione degli algoritmi fosse un obiettivo tecnico plausibile), tacendo, come moralmente non rilevanti, le questioni relative ai danni ambientali, al colonialismo dei dati e, in particolare, allo sfruttamento del lavoro, sui quali si regge lo sviluppo e l’utilizzo dei sistemi di apprendimento automatico. 

A quella stessa tecnologia, concepita come immateriale e apolitica, è conferito anzi il potere di risolvere i problemi ch’essa contribuisce pesantemente a creare.

All’«etica dell’intelligenza artificiale» è attribuito anche il compito di agevolare i giganti della tecnologia nella fuga dalle loro responsabilità per gli effetti dannosi dei sistemi di apprendimento automatico: alla tesi dell’eccezionalità delle nuove tecnologie, che renderebbe inapplicabili gli ordinari criteri di attribuzione della responsabilità, si oppone oggi la semplice constatazione che i sistemi informatici sono artefatti, ossia oggetti, e che non c’è ragione, perciò, di mettere in discussione la dicotomia tra soggetti giuridici e oggetti. Infondata e irrealistica è stata giudicata anche la proposta ulteriore, di attribuire un ruolo decisivo agli esseri umani coinvolti nei processi automatizzati (human on the loop), affidando a una persona il compito di intervenire, con prontezza fulminea, nei casi di emergenza, o di rettificare, non si sa su quali basi, il responso imperscrutabile di un sistema automatico: l’introduzione di un inverosimile controllo umano svolge – come è stato osservato – la funzione di legittimare l’uso di sistemi che restano in realtà fuori controllo. Il ruolo dell’essere umano non può essere dunque che quello di capro espiatorio, come pare sia stato specificamente previsto nei veicoli Tesla.

Al dissolversi della narrazione sull’etica dell’intelligenza artificiale, diventa chiaro che ad intervenire, e in modo drastico, deve essere il diritto.

2.Tutela dei diritti e illegalità di default dei sistemi di intelligenza artificiale. Nei primi anni del loro impiego, l’evidenza dei danni prodotti dai sistemi di apprendimento automatico è stata affrontata come un problema di discriminazioni, da risolvere con interventi tecnici.

Le decisioni basate sui sistemi di apprendimento automatico sono in effetti costitutivamente discriminatorie, in quanto procedono trattando gli individui in base al loro raggruppamento in classi, costituite a partire dalle regolarità rilevate nei dati di partenza. Essendo radicata nella natura statistica di questi sistemi, la caratteristica di dimenticare i «margini» è strutturale: non è accidentale e non è dovuta a singoli bias[2] tecnicamente modificabili. Ci si può trovare ai margini dei modelli algoritmici di normalità in virtù di caratteristiche totalmente irrilevanti, rispetto alle decisioni di cui si è oggetto.

Qualora ci si concentri sulle discriminazioni, pur drammaticamente reali, ai danni di gruppi protetti dalla legge, non si coglie, tuttavia, la natura del problema, ossia il fatto che simili sistemi, semplicemente, non funzionano: possono al massimo costruire un modello del passato, ma non possono certo, nelle situazioni costitutivamente incerte, prevedere il futuro.

La tesi che il problema sia quello di “risolvere i bias” grazie a interventi tecnici non è che un «seducente diversivo», escogitato da aziende in conflitto di interessi che mirano a depoliticizzare la questione. Le denunce del carattere mistificatorio di tale narrazione sono perciò accompagnate dalla richiesta di finanziare ricerche indipendenti dalle Big Tech e dalla proposta di concettualizzare la questione nei termini della tutela dei diritti umani.

L’evidenza delle violazioni dei diritti individuali, quando si utilizzino sistemi di apprendimento automatico per attività che hanno effetti rilevanti sulle vite delle persone, sta a fondamento della proposta – formulata da Frank Pasquale e Gianclaudio Malgieri – di una disciplina che preveda una presunzione di illegalità, ossia un regime di «illegalità di default»: fino a prova contraria, i sistemi di intelligenza artificiale ad alto rischio, incorporati in prodotti e servizi, dovrebbero essere considerati illegali, e l’onere della prova contraria dovrebbe incombere alle aziende.

La medesima proposta è formulata da altri a partire dalle caratteristiche dei sistemi di apprendimento automatico: i sistemi di ottimizzazione predittiva dovrebbero essere proibiti tout court, nei casi in cui le decisioni abbiano conseguenze rilevanti sulle vite delle persone, poiché si fondano su false promesse; per la medesima ragione, le narrazioni di chi ne sostenga, a fini commerciali, l’esistenza, sono da assimilarsi a pubblicità ingannevole.

Non si tratterebbe che di porre fine alla generale violazione di diritti giuridicamente tutelati, ossia alla «bolla giuridica»: i sistemi di ottimizzazione predittiva impediscono infatti alle persone, al di fuori di quanto previsto dalla legge, di accedere a risorse o esercitare diritti. L’adozione di tali sistemi in ambiti quali l’assistenza sociale equivale – come ha osservato il Rapporteur Speciale delle Nazioni Unite per la povertà estrema e i diritti umani– alla decisione, in via amministrativa, di istituire delle «zone pressoché prive di diritti umani» («almost human rights-free zones»).

In ambiti quali la giustizia, la salute, l’educazione o la finanza, nei quali si ha diritto a una spiegazione delle decisioni che ci riguardino, dovrebbe essere obbligatorio l’uso di sistemi che, a differenza di quelli di apprendimento automatico, siano fondati su modelli espliciti e su variabili interpretabili. Tali operazioni, che il banale buon senso suggerirebbe, non sono tuttavia intraprese, in virtù delle minori applicazioni commerciali di sistemi trasparenti, privi dell’aura magica della chiaroveggenza algoritmica. Le aziende scelgono perciò di includere, tra i costi da esternalizzare, quelli che derivano dai danni sociali prodotti dai sistemi di ottimizzazione predittiva.

A chi, in nome dell’inarrestabilità dell’innovazione tecnologica, deplori gli interventi giuridici, giova ricordare che il contrasto non è tra il rispetto dei diritti umani e un generico principio di innovazione, ma tra il rispetto dei diritti umani e il modello di business dei monopoli del capitalismo intellettuale”.


[1] Tratto da: “L’etica dell’intelligenza artificiale? Perché è solo uno specchietto per le allodole ?“, di Daniela TAFANI, pubblicato il 23 Maggio 2023 in Agenza Digitale (www.agendadigitale.eu)

[2] Come noto, essendo l’Intelligenza Artificiale parte integrante della molteplicità delle dinamiche quotidiane, questa si basa sul cosiddetto Machine Learning e Deep Learning ossia sull’apprendimento automatico. Il problema nasce quando il campione di dati su cui si fonda l’intero meccanismo risulta distorto (biased) da cui nasce appunto il bias che genera automazione nella discriminazione e rende inaffidabile, parziale e potenzialmente pericoloso l’utilizzo dell’intelligenza artificiale (nota del Redattore di q.Riv.).