Home » Tecnologie » I volti del razzismo: stop al riconoscimento facciale

27 Agosto 2020

I volti del razzismo: stop al riconoscimento facciale

Dopo l’uccisione di George Floyd i colossi della Silicon Valley hanno negato l’uso dei software da parte delle forze dell’ordine americane. Qual è la situazione in Italia?

Vincenza Di Lecce

Volto di ragazza con sopra puntini di riconoscimento facciale

La polizia Usa non può più usare i software di riconoscimento facciale di Amazon e Microsoft 

Il riconoscimento facciale torna a far parlare di sé. E lo fa dopo i gravi fatti di cui la polizia Usa si è resa protagonista negli ultimi mesi, dall’uccisione a maggio di George Floyd al ferimento di un altro afroamericano nei giorni scorsi.
Da Ibm a Microsoft, passando per Amazon: i big della tecnologia hanno deciso di ritirare i propri software per l’identificazione dei volti e di non renderli disponibili per la polizia americana, sollecitata a ripensare non solo l’uso della forza, dunque, ma anche quello della tecnologia.

UNA TECNOLOGIA RAZZISTA?
Ibm è stato il primo a dire basta. Il motivo del no alle soluzioni di riconoscimento facciale e a tutti i software di analisi collegati è spiegato dal Ceo Arvind Krishna in una lettera al Congresso statunitense specificamente rivolta ad alcuni parlamentari democratici: “Ibm si oppone fermamente e non accetterà – si legge nel documento – gli usi di qualsiasi tecnologia di riconoscimento facciale per fini di sorveglianza di massa, profilazione etnica, violazione di diritti umani e libertà o per altri fini che non corrispondano ai nostri valori e principi di fiducia e trasparenza”.
Non solo: Krishna rilancia anche la necessità di un dialogo nazionale sull’opportunità e il modo in cui la tecnologia debba essere impiegata dalle forze dell’ordine nazionali.

NORMATIVE PIÙ RIGOROSE
Poche le leggi a regolarne l’uso e un margine di errore che sembra ancora troppo alto: queste le motivazioni che sembrano valere anche per Amazon e Microsoft.
L’azienda di Jeff Bezos ha infatti vietato temporaneamente alla polizia di utilizzare la sua tecnologia di riconoscimento facciale Rekognition. La mossa è arrivata a seguito delle proteste a livello nazionale contro il razzismo: “Stiamo spingendo per normative governative più rigorose – si legge sul blog del sito di e-commerce – sull’uso etico delle tecnologie di riconoscimento facciale e il Congresso sembra pronto a raccogliere la sfida. Speriamo che questa moratoria di un anno possa dare al Congresso tempo sufficiente per attuare le regole appropriate e siamo pronti a fornire aiuto se richiesto”. La tecnologia di Amazon, tra l’altro, era già stata criticata in passato per aver erroneamente identificato le persone di colore.
Al divieto di Bezos è seguito quello di Microsoft, che ha deciso altrettanto per quanto riguarda i propri sistemi.

LA POLIZIA ITALIANA E IL SARI
Era il settembre del 2018 quando balzava alle cronache nazionali il software Sari (Sistema Automatico di Riconoscimento Immagini). Si tratta di una tecnologia made in Italy, made in Sud per la precisione, perché a fornirla è una società salentina, la Parsec 3.26 Srl. Il programma da loro sviluppato consente di effettuare ricerche nel Sistema automatizzato di identificazione delle impronte (Afis): in pratica, inserendo in Sari la fotografia di un sospettato, il sistema dovrebbe andare a cercare tutti i fotosegnalati che gli somigliano e che erano stati precedentemente inseriti nel database.
A gennaio di quest’anno un’interrogazione parlamentare ha riacceso il dibattito sull’utilizzo di questa tecnologia da parte della polizia e le implicazioni per la privacy. Il Viminale ha precisato che sono circa 17 milioni i cartellini fotosegnaletici, acquisiti a norma di legge e corrispondenti a circa 9 milioni di individui diversi. Di questi, circa 2 milioni si riferiscono a cittadini italiani.
Una situazione non comparabile a quella americana, ma restano i dubbi sul possibile abuso di una tecnologia che gestisce un numero impressionante di dati.

 

Tag: , , , ,

Categorie: Tecnologie

Lascia un commento