Giulio Bacosi

Attenti alla tecnologia del sospetto

L’Algoritmo nasconde un “mistero” in senso etimologico.
Qualcosa di inesprimibile che richiama Unità cosmica e Verità.

E’ difficile pensare a una scelta più autenticamente umana – e così intensamente percorsa dall’empatia – di quella dell’adozione. Da essa discende, infatti, la scommessa di una complessa genitorialità. Ovvero, la volontà di ricreare quanto di più inimitabile esista: il rapporto tra genitori e figli. Ecco, quindi, l’esigenza di un vaglio quanto mai attento della personalità dei potenziali genitori, capace di rapportarne ogni parola, ogni gesto, persino ogni silenzio al ruolo di padre e madre che si candidano a svolgere. Ebbene, apprendere che in Florida persino quella scelta (sia pur nelle sole fasi preliminari) sia stata affidata da alcune associazioni agli algoritmi, rende meglio di ogni altro esempio l’idea della pervasività dell’intelligenza artificiale nelle nostre esistenze quotidiane e nelle nostre relazioni interpersonali.

In proposito, molte sono le letture possibili: suggeriamo in particolare Intelligenza artificiale. L’impatto sulle nostre vite, diritti e libertà di Alessandro Longo e Guido Scorza, pubblicato da Mondadori nel 2020. Se, infatti, è da promuovere il ricorso “benefico” all’intelligenza artificiale in ogni campo (ad esempio per migliorare la diagnosi o la terapia di determinate patologie) è essenziale, però, avere chiaro il limite oltre il quale non si può (e non si deve) «fare tutto ciò che si può fare ». Un caso su cui riflettere è quello dell’uso dell’intelligenza artificiale a fini investigativi. Gli autori dell’assalto a Capitol Hill del 6 gennaio scorso verrebbero identificati, a quanto è dato sapere, grazie ai software di riconoscimento facciale forniti da Clearview, società specializzata del settore, a partire da un database di 3 miliardi di immagini “rastrellate” tra le tracce disseminate in rete. E questo, nonostante le carenze di tali tecniche riscontrate già nel 2019 dal National Institute of Standards and Technologies, secondo cui il tasso di errore nell’identificazione biometrica è molto più elevato – da 10 a 100 volte – nel caso degli afroamericani e degli asiatici. In Italia, nel novembre scorso, è stato adottato un bando di gara per individuare il miglior sistema di riconoscimento facciale da utilizzare in tempo reale nell’identificazione di persone straniere. Il Ministro dell’Interno Luciana Lamorgese, in risposta a un’interrogazione parlamentare del deputato Filippo Sensi, ne ha escluso l’utilizzo nei confronti dei migranti. Per altro, le stesse tecniche erano state già utilizzate dalla Polizia di Stato nel 2018, in occasione dell’arresto di due cittadini georgiani, accusati di furto in appartamento. E sarebbe interessante capire se il successivo giudizio abbia confermato o meno il “sospetto” del software.

Le dichiarazioni, ormai così frequenti, sull’opportunità dell’estensione del riconoscimento facciale ad altri ambiti (dagli stadi agli aeroporti) ci proiettano in una dimensione dalla quale è facile precipitare, senza colpo ferire, in una società “biosorvegliata”. Qualcosa di simile, potenzialmente, a quanto accade in Cina, dove telecamere installate ovunque registrano ogni più minuto movimento. Ne consegue una domanda: ci si può fidare degli algoritmi? Perché il pericolo connesso a questo tipo di tecniche è, innanzitutto, quello dei falsi positivi: e, quindi, dell’individuazione e stigmatizzazione di soggetti del tutto innocenti.

Come a Detroit, la scorsa estate, quando, per un furto di cinque orologi, venne arrestato un afroamericano del tutto estraneo ai fatti a causa di un errore dell’algoritmo di riconoscimento facciale utilizzato dalla polizia. «Spero che non siate convinti che tutti i neri si somiglino» è stato il commento dell’uomo. Commento che, per la verità, andrebbe rivolto, prima che alla polizia, a chi ha progettato quell’algoritmo maldestro. Insomma, il pericolo della profilazione etnica, sia pur solo preterintenzionale, è assai elevato: tanto più se tali tecniche sono correlate al potere coercitivo e alle diverse forme di privazione o limitazione della libertà. Più in generale, si avverte il rischio di cristallizzare negli algoritmi, persino amplificandoli, i pregiudizi che già ci condizionano, alimentando una vera e propria “tecnologia del sospetto”, e del sospetto fisiognomico. La tendenza oggi prevalente è quella a ritenere gli algoritmi come neutri, e per ciò virtualmente infallibili, imparziali e, in una parola, “giusti”, molto più di quanto lo possa essere l’umana, troppo umana, razionalità “naturale”. Accade così che, dagli stessi algoritmi, si facciano dipendere decisioni sempre più significative per la vita individuale e collettiva, smarrendo il senso del limite che invece va posto con risolutezza di fronte all’inarrestabile volontà di potenza della tecnica. E il primo limite che l’intelligenza artificiale deve rispettare è quello della non discriminazione, per evitare di rendere talmente regressivo da apparire distopico ciò che invece può e deve rappresentare uno strumento di progresso sociale e persino, se ben utilizzato, di riduzione delle diseguaglianze. Si pensi alla condanna a sei anni inflitta in Wisconsin a un afroamericano per effetto, tra l’altro, della prognosi di recidiva, stilata da un algoritmo incline ad assegnare ai neri un tasso di pericolosità maggiore di quello attribuito ai bianchi. Presumibilmente, il giudizio umano sarebbe stato, in quel caso, assai meno “lombrosiano” di quanto sia stata, invece, la fredda razionalità artificiale. Il problema, allora, non è tanto e non è solo se il diritto sia – come scriveva Francesco Carnelutti – «materia ribelle ai numeri», ma è che forse dobbiamo insegnare all’algoritmo a “pensare”, liberando noi, assieme a lui, di tutte quelle forme di intolleranza che una democrazia matura non può tollerare. Dietro tutto ciò, emerge la domanda – tenace e molesta come un rovello – che accompagna le peripezie e i dilemmi delle democrazie mature: come conciliare l’innovazione e le sue mirabolanti potenzialità con la tutela rigorosa delle garanzie individuali e dei diritti sociali? È un interrogativo a cui è arduo rispondere, ma che è impossibile eludere.

(Fonte: La Repubblica)

Exit mobile version