Poche leggi a regolarne l'uso e un margine di errore ancora troppo alto. Sono in sostanza queste le motivazioni dietro il rifuto di Amazon nel fornire il suo software per il riconoscimento facciale Rekognition alle forze dell'ordine. Diniego seguito da quello di Microsoft, che ha deciso altrettanto.

Ad annunciare la decisione dell'azienda  Redmond è stato il presidente Brad Smith, nel corso di una conferenza virtuale del Washington Post:  "Abbiamo deciso che non lo venderemo ai dipartimenti di polizia americani fino a quando non avremo una legge nazionale basata sui diritti umani che governerà questa tecnologia", ha detto.

Pochi giorni fa il dietrofront di Ibm con una precisa presa di posizione contro "l'uso per sorveglianza di massa, profilazione etnica e violazione dei diritti umani". Lo ha spiegato il ceo Arvind Krishna in una lettera al Congresso statunitense rilanciando sulla necessità di un "dibattito nazionale su se e come la tecnologia di riconoscimento facciale debba essere impiegata dalle forze dell'ordine interne".

Ci sono voluti focolai di proteste che hanno infiammato gli Usa per giorni, scatenati dalla morte di George Floyd durante un fermo di polizia a Minneapolis, per fare tornare sui loro passi i giganti della Silicon Valley. In realtà, gli algoritmi sviluppati per il riconoscimento facciale hanno dimostrato in varie occasioni di non essere ancora infallibili.

E i flop delle sperimentazioni, dal Regno Unito fino alla California, ancora troppo numerosi. Così come le denunce di associazioni per i diritti umani e digitali contro una tecnologia che si è dimostrata ancora troppo acerba per essere messa in mano a governi e autorità mettendo a rischio la libertà dei cittadini.

Uno studio canadese lo scorso anno metteva in guardia sulle defaillances della tecnologia sviluppata da Amazon e allenata a riconoscere sì i volti di bianchi, ma incappando in false corrispondenze che portavano a un errore dell'1,3% quando di trattava di persone di colore o confondendo il genere, soprattutto nel caso di donne asiatiche o afroamericane. Un problema dovuto principalmente al machine learning ma pur sempre legato al pregiudizio umano, poiché legato alla elaborazione di dati da parte dell'intelligenza artificiale.

Gli algoritmi non hanno convinzioni razziste, - concludeva il lavoro del Mit di Toronto - ma si espongono alle distorsioni perché "sono quel che mangiano". Cioè creano la propria visione in base ai dati che elaborano. L'analisi, oltre a sollevare i dubbi sul rischio per la sorveglianza di massa, ha fatto luce sul rischio che il riconoscimento facciale possa penalizzare le minoranze o determinati gruppi etnici. Una questione troppo rischiosa da affrontare nell''America di Trump attraversata dall'ondata di proteste contro il razzismo.