Abstract. Il contributo ambisce ad approfondire da un’angolazione penalistica alcune delle problematiche relative all’utilizzo, da parte di attori pubblici e privati, delle tecnologie di riconoscimento facciale, come tali in grado di registrare e processare i dati biometrici di un numero indefinito di individui. L’obiettivo è mettere in evidenza i rischi derivanti dall’utilizzo di tali strumenti da un punto di vista dei rapporti tra Stato e cittadini, anche alla luce del ruolo centrale svolto dalle imprese che sviluppano simili tecnologie, in assenza, ad oggi, di discipline organiche sul tema. Pertanto, dopo aver inquadrato lo sviluppo delle TRF come fenomeno coerente con le teorizzazioni in materia di società del controllo e capitalismo della sorveglianza, e dopo averne brevemente illustrato il funzionamento, sono passati in rassegna alcuni esempi problematici nel contesto cinese e in quello statunitense. In seguito, l’attenzione si focalizza sull’ambito interno, in particolare su alcune pronunce del Garante per la protezione dei dati personali intervenute sul tema, nonché sulla Proposta di Regolamento della Commissione Europea in materia di IA. L’analisi della proposta è utile a evidenziare, in chiave conclusiva, la necessità di un dibattito pubblico partecipato e consapevole, capace di far risaltare rischi e benefici delle TRF e dunque utile a orientare le scelte del legislatore.
SOMMARIO: 1. Introduzione: i rischi della diffusione delle tecnologie di riconoscimento facciale da un’angolazione penalistica. – 2. Le TRF espressione del capitalismo della sorveglianza e della società del controllo. – 3. Il funzionamento delle TRF: datificazione e classificazione degli individui. – 4. I rapporti tra Stato e imprese nell’utilizzo delle TRF. L’esempio cinese: il ruolo ausiliario nella persecuzione della popolazione degli Uiguri – 5. L’esempio statunitense: il ruolo “attivo” delle big tech e l’accusa di contribuire al razzismo endemico della polizia locale. – 6. Uno sguardo all’Italia: le pronunce del Garante per la privacy nei casi SARI e Clearview AI. – 7. Prime indicazioni dalla Proposta di Regolamento della Commissione Europea e qualche considerazione conclusiva.
*Il contributo è stato sottoposto in forma anonima, con esito favorevole, alla valutazione di un revisore esperto.