“Face detection”, quali rischi?

Anche se, a livello mondiale, l’agricoltura è ancora l’industria meno digitalizzata, la Cargill, azienda multinazionale statunitense attiva soprattutto in campo alimentare, con il contributo della startup irlandese Cainthus ha iniziato a servirsi dell’intelligenza artificiale nelle stalle per controllare le funzioni vitali delle mucche e migliorare la produzione del latte con l’intervento umano ridotto al minimo. Mediante un innovativo software che identifica ogni animale grazie al riconoscimento del muso, della tonalità, del colore e della distribuzione delle macchie sul mantello, riporta istantaneamente all’allevatore i dati relativi all’assunzione di cibo e di acqua di ogni animale, di cui analizza anche i movimenti e il comportamento in modo da tenere in costante controllo la salute, il livello di stress e la produttività. Le informazioni raccolte vengono elaborate da un algoritmo che le riporta sul terminale dell’allevatore il quale può gestire a distanza, con grande risparmio di tempo, operazioni complesse come la verifica del regime alimentare e del benessere di ogni singolo animale, di cui riesce a definire in pochi secondi l’identità. Mentre Cargill e Cainthus pensano di allargare il campo di applicazione del software agli allevamenti ovini, suini, avicoli e ittici (anche altre aziende, università e centri di ricerca sono impegnati in sperimentazioni simili) ci si chiede con inquietudine quando queste competenze potranno essere trasferite al comportamento umano. Il riconoscimento facciale delle persone, già utilizzato sugli smartphone, all’interno degli aeroporti e in alcuni sistemi di pagamento si può infatti anche prestare, come già accade in Cina, a pericolose operazioni di sorveglianza di massa.

Percezioni plurisensoriali
Lavorare con gli animali ha offerto a Cainthus numerosi vantaggi rispetto alle società che si occupano del riconoscimento facciale perché a differenza delle persone non possono dissimulare la propria identità e non oppongono nessuna forma di resistenza alla collocazione di sensori, telecamere o al monitoraggio del loro comportamento, ma tra i nuovi obiettivi della startup c’è un programma che va al di là della semplice identificazione dell’aspetto fisico ed è basato sull’analisi dei comportamenti con potenziali applicazioni che spaziano dal supporto agli allenamenti degli atleti professionisti per migliorare le loro prestazioni alla diagnosi precoce delle malattie. L’azienda irlandese non nasconde tuttavia i pericoli che potrebbero sorgere in seguito a un uso improprio di questa innovativa tecnologia che consente di creare dei modelli di riferimento i cui primi esperimenti si collocano tra la fine degli anni Sessanta e i primi anni Settanta del Novecento. Gli attuali sistemi di riconoscimento facciale si basano prevalentemente sulle reti neurali artificiali che, a differenza dei sistemi tradizionali non utilizzano parametri esclusivamente morfologici come per esempio il colore degli occhi e dei capelli o la forma del naso, ma si servono di algoritmi continuamente rimodulati e “allenati” dall’intelligenza artificiale attraverso deep learnig (apprendimento profondo) sotto la guida di scienziati ed esperti informatici, i quali definiscono quali somiglianze sono significative e quali no. Attraverso un sistema “multimodale” è inoltre possibile utilizzare la tipologia o il mix di tipologie di riconoscimento più efficaci in base alla situazione (tratti somatici, atteggiamento, modo di camminare, tono di voce ecc.). Si può così arrivare all’individuazione delle persone con una tecnica la quale va oltre i sistemi convenzionali e ricorda le percezioni plurisensoriali che usiamo abitualmente per riconoscere le persone.

Sguardo codificato
I metodi di riconoscimento delle persone attualmente utilizzati, oltre a suscitare degli allarmanti interrogativi sulla tutela della nostra privacy pongono anche dei seri dubbi sulla loro efficacia e soprattutto sulla loro presunta neutralità. Gli algoritmi che regolano i sistemi di visione computerizzati ripropongono infatti inevitabilmente i pregiudizi consci e inconsci delle persone che li creano e addestrano. Dato che queste tecnologie non vengono abitualmente definite per superare i nostri stereotipi in campo sociale, politico e morale, esprimono uno “sguardo codificato” che contrasta con la loro supposta imparzialità. Su questo tema è in corso da alcuni anni negli Stati uniti un ampio dibattito alla ricerca di soluzioni che possano evitare discriminazioni nell’uso dell’intelligenza artificiale. Come per esempio dimostrano le ricerche realizzate da aziende leader nel riconoscimento facciale come IBM, Microsoft e Face++ i volti delle donne con la pelle scura hanno molte più probabilità di essere identificate in modo erroneo rispetto agli uomini con la pelle chiara.

Parzialità algoritmica
Joy Buolamwini, ricercatrice presso il MIT Media Lab, il laboratorio di ricerca multimediale del Massachusetts Institute of Technology ha creato il progetto Gender Shades per mostrare come la “parzialità algoritmica” riproduce le opinioni più radicate e convenzionali nei confronti delle persone con la pelle scura, soprattutto di sesso femminile. Buolamwini ha anche fondato l’Algorithmic Justice League, un’associazione che si serve di sistemi multidisciplinari e propone l’adozione di un codice inclusivo per eliminare i pregiudizi e gli abusi ancora dominanti nelle applicazioni di intelligenza artificiale e far conoscere gli strumenti di cui si servono il governo e la polizia. Nel 2012 il Dipartimento di polizia di New York ha realizzato con la collaborazione di Microsoft un programma chiamato Domain Awarness System con migliaia di telecamere per il riconoscimento facciale installate sia nei luoghi pubblici sia in proprietà private senza informare i cittadini. Anche Chicago e Los Angeles hanno seguito la stessa linea di New York a differenza di altre città come San Francisco che ne ha proibito l’uso,  San Diego e Seattle le quali pubblicano rapporti sulle tecnologie utilizzate per la sorveglianza e hanno provveduto al loro smantellamento nei casi in cui rappresentavano una minaccia per la vita privata delle persone. Il riconoscimento facciale, come le intercettazioni telefoniche, può avere infatti usi legittimi ma è facilmente manipolabile e trasformarsi così in uno strumento pericoloso per i diritti delle persone.

Efficienza militare
Come ricorda Clare Garvie, ricercatrice presso il Center on Privacy and Technology dell’Università di Georgetown nel report The Perpetual Line-Up. Unregulated Police Face Recognition in America (La schedatura perpetua. Il riconoscimento facciale della polizia americana non ha regole, https://www.perpetuallineup.org) realizzato insieme ad Alvaro Bedoya e Jonathan Frankle, sono numerosi gli stati americani che consentono ai dipartimenti di pubblica sicurezza di fare ricerche nei loro database non solo delle foto segnaletiche ma anche di quelle usate per la patente di guida. La polizia può inoltre accedere, come tutti i cittadini, alle immagini pubblicate sui social media, molti dei quali sono taggati automaticamente. A differenza dell’Unione europea e del Canada dove la normativa sulla privacy offre maggiori tutele e non consente ai siti dei social di taggare una foto senza l’autorizzazione della persona in oggetto, negli Usa questo tipo di informazioni non costituisce reato perché non ci sono leggi che ne limitano l’uso. Per cercare di risolvere questo problema e regolare l’utilizzo delle tecnologie di riconoscimento facciale, gli autori di The Perpetual Line-Up oltre ad auspicare una maggiore trasparenza e l’introduzione di norme che tutelino in modo particolare le minoranze etniche, chiedono che dai database contenenti le immagini di chi viene arrestato vengano regolarmente eliminate le foto delle persone che non sono state condannate anche perché, grazie all’apprendimento automatico applicato all’intelligenza artificiale, le forze dell’ordine possono svolgere compiti di polizia predittiva. In seguito alla grande diffusione degli smartphone, all’uso continuo di immagini e all’espansione dei social media, il concetto di privacy è oggi meno presente nell’opinione pubblica. È quindi fondamentale ricordare che proprio nei momenti in cui i diritti non sono al centro dell’attenzione, bisogna essere particolarmente attenti alla difesa della nostra identità, che non significa solo una tutela a livello personale ma anche del concetto di libertà individuale, uno dei principi fondamentali su cui si basa la democrazia. Le immagini del volto e del nostro aspetto fisico, a differenza del riconoscimento attraverso le impronte digitali o la scansione dell’iride, possono essere utilizzate per la sorveglianza a distanza non solo da parte della polizia ma anche di datori di lavoro, banche, assicurazioni e di altri portatori di interessi che possono venire a conoscenza delle nostre abitudini, del tipo di vita che conduciamo e avere informazioni sul nostro stato di salute. Ce lo ricorda Tim Cook, l’amministratore delegato di Amazon, che ha recentemente affermato: “Our own information, from the everyday to the deeply personal, is being weaponized against us with military efficiency” (Le informazioni su di noi sia a livello di vita quotidiana sia di quello intimamente personale sono armi usate contro di noi con efficienza militare).

Videosorveglianza diffusa
Il timore che questi pericoli si espandano senza limiti, ha spinto numerose organizzazioni no profit tra cui l’ACLU (American Civil Liberties Union), in prima linea nella difesa dei diritti civili e delle libertà individuali negli Stati uniti, e l’Electronic Frontier Foundation, attiva a livello internazionale sul fronte dei diritti nel mondo digitale a inviare una lettera aperta a Jeff Bezos, fondatore e amministratore delegato di Amazon, per chiedere che la società interrompa le vendite del sistema di riconoscimento facciale Rekognition a governi e agenzie governative degli Usa. Due mesi dopo l’invio della lettera l’ACLU ha condotto un test da cui è risultato che Rekognition aveva erroneamente abbinato ventotto membri del Congresso americano a persone archiviate in un database di venticinquemila foto segnaletiche. Il collegamento includeva un numero sproporzionato di membri del Congressional Black Caucus, il gruppo di deputati che si occupa della condizione dei cittadini afroamericani, a conferma della parzialità dello “sguardo codificato” che definisce questo sistema di visione. Altri rischi sono stati segnalati in Gran Bretagna dal gruppo Big Brother Watch, nato a difesa della protezione della privacy, che ha rilevato nel sistema di riconoscimento facciale del Metropolitan Police Service attivo nella Grande Londra un tasso di “falsi positivi”, cioè di persone segnalate erroneamente come potenzialmente pericolose, del novantotto per cento e ha scoperto che la polizia conservava migliaia di immagini di cittadini incensurati per ricerche future. Si è inoltre diffusa la voce che il New York City Department si è servito delle tecniche di Photoshop per manipolare le caratteristiche fisiche, in particolare degli occhi, di cittadini sospetti.

Credito sociale
Nella Repubblica popolare cinese sono presenti circa duecento milioni di telecamere, un numero superiore a quello di ogni altro paese del mondo, e dal 2015 è in corso un piano di potenziamento del controllo di massa con l’obiettivo di rendere la videosorveglianza onnipresente, interconnessa, sempre funzionante e controllabile. Un’identificazione attendibile in tempo reale di oltre un milione e quattrocentomila persone non è ancora possibile, ma il sistema di individuazione usato in Cina non si basa solo sul riconoscimento facciale, ma su un insieme di dati come l’indirizzo dell’abitazione e del luogo di lavoro, il numero di cellulare e la sua localizzazione, che in modo deduttivo consentono, anche se con un elevato rischio di commettere errori, di tracciare il comportamento delle persone e di classificarle in base alle loro azioni vere o presunte. Quando questo sistema sarà completamente attivo, includerà delle valutazioni obbligatorie che definiranno il “credito sociale” di ogni cittadino in base al suo stile di vita (tipo di relazioni tenute nella vita reale e sui social, preferenze negli acquisti, uso del tempo libero ecc.) con vantaggi o penalizzazioni secondo la sua adesione ai canoni indicati dallo stato. Una versione volontaria a questo metodo di giudizio sociale è già presente. Alle persone con i punteggi più alti vengono offerte opportunità come vantaggi sul lavoro, prestiti e viaggi premio. La Cina ha inoltre iniziato a servirsi di una nuova tecnologia per il riconoscimento del modo di camminare che non può essere dissimulata se si finge di zoppicare o di camminare in modo diverso dal solito. C’è chi pensa che nelle democrazie occidentali non sarà possibile installare sistemi di videosorveglianza così estesi e intrusivi, ma forse dimentica che attraverso l’utilizzo sempre più esteso dell’internet of things cui in un futuro prossimo si dovranno aggiungere i sistemi di telecamere nelle auto a guida autonoma, in molti paesi è già ora attiva una sorveglianza diffusa che potrà diventare sempre più capillare.

_____________________________________________________________________________

“I meccanismi di riconoscimento facciale si basano su reti neurali artificiali che si servono di sistemi creati da scienziati ed esperti informatici”

“Gli algoritmi che regolano le strutture di visione computerizzata ripropongono inevitabilmente i pregiudizi consci e inconsci di chi li realizza”

“Il riconoscimento facciale può avere usi legittimi ma è manipolabile e trasformarsi così in uno strumento pericoloso per i diritti delle persone”

“Per evitare discriminazioni è indispensabile introdurre norme che eliminino ogni preconcetto e tutelino in modo particolare le minoranze”

“Difesa della propria identità non significa solo tutela a livello personale ma anche del concetto di libertà individuale e quindi della democrazia”

“In Cina è in atto un piano di controllo di massa che ha l’obiettivo di rendere la videosorveglianza onnipresente e i cittadini sempre controllabili”

_____________________________________________________________________________

SONO I NUOVI STRUMENTI DI DOMINAZIONE SOCIALE?
Cosa si nasconde dietro i meccanismi di selezione degli algoritmi

Viviamo in un’era in cui deleghiamo in misura sempre maggiore a calcoli e processi predefiniti decisioni fondamentali non solo riguardo l’istruzione, il lavoro e la salute ma anche le scelte in relazione a temi sensibili come i diritti civili e sociali. La matematica americana Cathy O’Neil nel suo importante libro Armi di distruzione matematica. Come i big data aumentano la disuguaglianza e minacciano la democrazia (Bompiani, pp. 368, 18 euro) in cui ha analizzato e fatto comprendere un fenomeno che minaccia di cambiare la nostra vita e la nostra scala di valori, ci ha mostrato per prima il lato oscuro dei Big Data e rivelato come funzionano i meccanismi di selezione affidati agli algoritmi, che non tengono conto di molte variabili fondamentali nelle nostre relazioni come per esempio l’appartenenza a diversi gruppi etnici o sociali e non riescono a comprendere le sfumature culturali espresse in un discorso o in un comportamento. Dietro la loro presunta neutralità e oggettività “scientifica” nascondono i pregiudizi politici, culturali, religiosi, etici e di genere di una parte della società, quella più influente, a danno di chi non è rappresentato senza dare possibilità di appello. Attraverso l’uso di modelli rigidi creano dei cocktail che possono essere tossici per la democrazia, giudicano insegnanti e studenti, scelgono curricula, stabiliscono se concedere o negare prestiti, valutano i risultati sul luogo di lavoro, controllano il nostro stato di salute, offrono ai giudici valutazioni automatiche dei tempi di una condanna, influenzano i sondaggi e, di conseguenza, la libertà di voto. Dietro di loro operano i giganti del web, i GAFA (Google, Apple, Facebook, Amazon) che attraverso i servizi offerti raccolgono un numero sterminato di informazioni sulle persone, sulle attività produttive, economiche e finanziarie, sulle amministrazioni pubbliche e private, su gruppi, associazioni, movimenti. Ma questi dati avrebbero una scarsa utilità se non venissero rielaborati da algoritmi programmati per filtrare le informazioni e utilizzarle per raggiungere scopi prefissati. È quindi urgente rendere questi strumenti trasparenti e adattabili ai bisogni di una società in continua evoluzione considerata nell’insieme di tutte le sue componenti. Un impegno che deve coinvolgere non solo gli scienziati e gli esperti di tecnologia ma anche e soprattutto la politica e le istituzioni.


Andy Warhol, Ethel Scull 36 Times, 1963. Acrylic paint and silk screen ink on canvas. Courtesy The Andy Warhol Foundation for the Visual Arts, Inc. / ARS, New York. Dalla mostra Andy Warhol, From A to Band Back Again, Whitney Museum, New York, 2018-19.
Stampa

Lascia un commento