Gli algoritmi che analizzano i parametri biometrici potrebbero violare la privacy e mettere a repentaglio l’incolumità delle persone lgbtq+. L’allarme, segnalato da diverse associazioni e movimenti di tutta Europa e raccontato di recente da Samuele Cafasso su Wired, pone l’accento sul reale rischio che venga tracciata una “mappa della diversità” e che questa possa essere utilizzata sia per non graditi scopi commerciali sia a scopo persecutorio, ad esempio da parte di governi non liberali.
Reclaim Your Face, movimento nato dalla società civile a cui hanno aderito associazioni da tutta l’Europa tra cui l’Italiana Hermes Center, ha presentato una petizione all’Unione europea e che in pochi mesi ha già raccolto 45.154 firme (dato aggiornato al 09/04/2021) tra cui quella della presidente della commissione europea Ursula von der Leyen. “Nell’UE, nonostante l’elevato rischio di sorveglianza di massa illecita e altre violazioni dei diritti fondamentali – si legge nella petizione – sono state condotte numerose operazioni di sorveglianza biometrica senza prova di precedenti valutazioni d’impatto sulla protezione dei dati, valutazioni della necessità e della proporzionalità o altre salvaguardie. I giudici nazionali e le autorità preposte alla protezione dei dati hanno già bloccato singole operazioni, ma occorre un’azione sistematica per garantire la certezza del diritto”.
“Mettere nelle mani di una tecnologia la possibilità di riconoscere automaticamente il genere di una persona o il suo orientamento sessuale è una minaccia per oloro che non si riconoscono nel binarismo di genere. Gli algoritmi utilizzati in questo momento riflettono solo una parte della società, quella bianca, maschile e eterosessuale. Il rischio è quindi quello di normalizzare la discriminazione nei confronti di chi non appartiene a queste categorie e ciò non deve essere permesso. La tecnologia deve essere al servizio di tutti e tutte e non un nuovo strumento di oppressione” ci ha detto Laura Carrer, giornalista e coordinatrice per l’Italia di Reclaim Your Face.

Anche l’organizzazione per i diritti Lgbtq+ All Out ha reso pubblica una petizione che ha ottenuto finora 24.033 firme.
L’iniziativa di All Out può essere letta qui
Nel 2014 uscì “Sotto controllo. Edward Snowden e la sorveglianza di massa” del giornalista investigativo americano Glenn Greenwald. Il saggio è la prima pubblicazione che si occupa in maniera specifica dei rischi legati alla sorveglianza, all’accumulo di informazioni personali e ai danni della divulgazione. Nel libro lo stretto legame tra classe dirigente, aziende tecnologiche e mass media compiacenti dipinge un quadro di grande inquietudine. Quali i rischi? Si va da un tracciamento puntuale e preciso dei singoli esseri umani e del loro orientamento sessuale fino al dato che diventa disponibile per aziende con conseguenze che possono rivelarsi gravi. Un esempio? L’azienda che, anche involontariamente, diffonde all’esterno i dati che ha raccolto esponendo le persone a coming out non voluti.
Carlo Cotza dell’associazione Arc Cagliari commenta: “Il controllo centralizzato verticale è sempre stato una pesante minaccia per ogni minoranza. I sistemi biometrici in particolare sono preoccupanti sotto diversi aspetti: innanzitutto pretendono di classificare il genere umano in una griglia binaria, che taglia fuori tutte le persone che non appartengono a una identità di genere tradizionale (maschie e femminile), ma soprattutto perché discriminerebbero chi non si definisce in questi due generi (non binary o gender fluid). Il tema si fa più sensibile poiché non volersi definire è un diritto, laddove palesare un’identità di genere può esporre persone fragili a violenze o altre forme di sopruso”.
Non è solo il web a preoccupare la comunità Lgbtq+. In occasione della festa dell’8 marzo la metropolitana di Berlino ha permesso alle donne di viaggiare gratis ma solo se i parametri biometrici le definivano tali. Il rischio di imbarazzo pubblico e eccessiva esposizione ai commenti non sono certo ciò di cui la comunità ha bisogno nel processo di inclusione sociale in atto. Anche le caratteristiche naturali potrebbero essere male interpretate dal sistema generando ulteriori discriminazioni, ad esempio se si è biologicamente donne ma con lineamenti percepiti come maschili dal sistema di rilevamento facciale e viceversa.

Il futuro prossimo sembra riservare altre minacce: si va dal settaggio dei pannelli pubblicitari intelligenti a seconda della persona che hanno di fronte, fino al riconoscimento vocale per proporre brani musicali in base ad un’analisi dell’aspetto e del modo di muoversi.
Non sono voce o aspetto a definire una persona ma un sistema complesso non riassumibile in pochi elementi. La categorizzazione in base alle caratteristiche fisiche sembra un retaggio di studi antiquati di fisiognomica e frenologia.
Il rischio maggiore in fin dei conti è proprio quello di ridurre a target standardizzati che nulla hanno a che vedere con le reali caratteristiche della persona, col suo mondo interiore e le sue scelte di vita, in altre parole con la sua umanità.