Se le fake news hanno alimentato la rabbia dei rivoltosi di Capitol Hill, l'intelligenza artificiale ha fin da subito aiutato le forze di sicurezza statunitense nell’individuazione i violenti. Ricostruiamo i fatti del 6 gennaio scorso e, con i nostri esperti, approfondiamo il ruolo dell’artificial intelligence e i risvolti delle sue applicazioni, anche e soprattutto in termini di privacy e tutela della propria immagine
Lo scorso 6 gennaio 2021 il Congresso degli Stati Uniti è stato assaltato da un numero consistente di manifestanti armati, decisi a impedire con ogni mezzo la seduta per ratificare la vittoria di Joe Biden contro Donald Trump alle ultime elezioni presidenziali.
Violazione del coprifuoco, possesso di armi da fuoco, aggressione, irruzione, minacce e furto sono i principali crimini di cui sono stati successivamente accusati, di fronte alla Corte Superiore, alcune decine di aggressori, considerati alla stregua di terroristi interni. Una giornata davvero infausta, che è arrivata a contare, oltretutto, alcune vittime tra i manifestanti e le stesse Forze dell’ordine.
Sul piano diplomatico, l’episodio in sé ha inferto un duro colpo all’immagine globale della democrazia statunitense: la storica solidità delle sue istituzioni è risultata in modo allarmante indebolita, nell’occasione, dal fenomeno quanto mai diffuso delle fake news alimentate tramite i social network, nel caso specifico relative ad accuse di brogli elettorali, smentiti e respinti da decine di tribunali.
L’avvenimento, perciò, ha fortemente scosso la comunità internazionale sotto diversi profili, spingendola a interrogarsi su temi comuni come lo stato di salute del contratto sociale in Occidente, la natura delle cosiddette “teorie del complotto” (il fenomeno QAnon nato innanzitutto sul web) e gli strumenti - compresi quelli prettamente tecnologici - di difesa a disposizione contro gli attacchi allo stato di diritto.
L’IA a difesa della democrazia?
Per quanto riguarda l’ultimo punto, le forze di sicurezza statunitensi hanno fin da subito deciso di ricorrere, come non mai, alla tecnologia di riconoscimento facciale, per arrivare a dare un nome ai protagonisti delle violenze di Capitol Hill. È quanto emerso dalla testimonianza diretta di Hoan Ton-Tha, amministratore delegato dell’applicazione di riconoscimento facciale Clearview AI, riportata dal “The New York Times” a soli tre giorni dagli eventi. Del resto, l’attacco del 6 gennaio è stato trasmesso in tempo reale attraverso i notiziari via cavo, mostrando in diretta immagini su immagini dei rivoltosi.
La scelta di Clearview AI chiaramente non è casuale: rispetto ai tradizionali database utilizzati dalle Forze dell’Ordine, che si limitano generalmente alle tradizionali foto di guida e foto segnaletiche, l’applicazione si basa sulle foto raccolte dai social network e dal web, appoggiandosi così a una banca dati di oltre 3 miliardi di immagini.
Clearview AI è perciò un’applicazione particolarmente pervasiva e potente. Prima di Capitol Hill è stata giudicata invasiva e controversa, costringendo i legislatori e le aziende di social media a cercare di limitarne le operazioni, ricorda il “The New York Times”, tant’è che l’azienda ha mantenuto un basso profilo fino alla fine del 2019. Ora, a seguito dell’aggressione del 6 gennaio, il suo impiego è cresciuto notevolmente, come ha ricordato lo stesso Hoan Ton-Tha, nonostante i precedenti dubbi e il fatto che l’organizzazione American Civil Liberties Union continui a considerare Clearview AI uno strumento di sorveglianza di massa pericoloso, in particolare rispetto alle comunità di colore.
L’approccio elastico dell’Europa
Come spesso accade, l’emergenza rimescola le carte delle nostre certezze e dei limiti che ci si è posti, anche a livello di attività di polizia e giudiziarie. La domanda, perciò, è lecita: dopo Capitol Hill la percezione della legittimità di un riconoscimento facciale particolarmente spinto potrà realmente cambiare?
In passato è già accaduto che, di fronte a ragioni di pubblica sicurezza, alcune regole comincino a diventare più flessibili, se non proprio permissive (si pensi all’uso e alla diffusione massiva della videosorveglianza dopo l’attentato alle Torri Gemelli dell’11 settembre 2001).
Certo è che - da quest’altra parte dell’oceano - l’Unione Europea, al riguardo, sembra muovere da alcune solide certezze.
Nel “Libro bianco sull’intelligenza artificiale” trova infatti conferma l’idea che “la diffusione di sistemi di riconoscimento facciale in luoghi pubblici comporta rischi specifici per i diritti fondamentali”. Eppure, si può fare eccezione “per motivi di interesse pubblico rilevante”. Di conseguenza, anche se si sottolinea la necessità che l’uso sia “debitamente giustificato, proporzionato e soggetto a garanzie adeguate”, la feroce cronaca degli ultimi anni - per esempio con le azioni di terrorismo che proliferano - sembra in grado di mettere a dura prova anche le certezze del Vecchio Continente. Del resto, lo spazio per una maggiore elasticità, a livello di principio, non manca. Insomma, il dibattito sul rapporto tra sicurezza “per motivi di interesse pubblico rilevante” e diritti fondamentali non potrà che essere perennemente aperto.