L’intelligenza artificiale rivoluziona il mondo dell’anticrimine, rendendo più efficaci molteplici dispositivi e strumenti del settore, ma rischiando di mettere in pericolo la riservatezza delle persone. Il punto di Nicola Bernardi, presidente di Federprivacy.
L’intelligenza artificiale è sempre più presente nelle soluzioni di sicurezza anticrimine, lo dimostrano dispositivi quali le videocamere di sorveglianza così come i software di polizia predittiva. Quanto, tuttavia, questo tipo di tecnologia è effettivamente conciliabile con la tutela della privacy dei cittadini? Un quesito, questo, capace di aprire grandi dibattiti.
La risposta arriva da Nicola Bernardi, presidente di Federprivacy: «Come nel GDPR e nella Direttiva UE 2016/680 per quel che riguarda la tutela dei dati personali usati dalle forze di polizia e dalle autorità di giustizia penale, anche nell’Artificial Intelligence Act vale il principio dell’accountability.
Le aziende e le istituzioni che intendono avvalersi di sistemi di intelligenza artificiale devono quindi essere in grado di dimostrare di aver adottato tutte le misure di sicurezza necessarie per essere conformi alla normativa e proteggere adeguatamente i dati dei cittadini. Questo significa che le organizzazioni che usano sistemi di AI hanno l’onere di documentare come sono arrivate a sviluppare tali tecnologie in modo che non vadano a ledere i diritti fondamentali delle persone e minimizzino i rischi di danni alla privacy».
Il grande impegno del legislatore nel proteggere la privacy degli utenti rispetto ai nuovi scenari aperti dall’impiego dell’intelligenza artificiale è la migliore prova di come il mondo abbia di fronte una tecnologia straordinariamente dirompente. «D’altra parte - prosegue Bernardi - la possibilità di immagazzinare enormi quantità di dati (registrazioni audio, conversazioni telefoniche, immagini di telecamere a circuito chiuso e, in generale, ogni altro tipo di informazione che riguarda la popolazione) e di conservare tale materiale per periodi di tempo lunghi si presta a usi e abusi per quegli Stati che abbiano interesse a limitare la libertà dei propri cittadini.
Purtroppo, qualche esempio di questa prospettiva distopica non ha tardato a manifestarsi, in quanto Paesi come la Cina stanno già integrando queste capacità di accesso a estesissime basi di dati e attività di monitoraggio massivo delle persone, con l’uso di tecniche di riconoscimento facciale per limitare o reprimere gli esponenti dell’opposizione al regime.
Realisticamente, conciliare il rispetto della privacy con la crescente diffusione dell’intelligenza artificiale sarà una vera e propria sfida, su cui non è attualmente possibile fare previsioni attendibili. Nonostante i solidi presìdi giuridici a tutela della privacy di cui disponiamo in Europa, che verranno ulteriormente rafforzati dal Regolamento sull’Intelligenza Artificiale, occorre mostrare molta cautela prima di sentirsi immuni da ripercussioni negative nei confronti della società civile».
Norme in evoluzione
Proprio per questo motivo, è necessario fare il punto su quali norme deve seguire e quali caratteristiche deve possedere l’AI in Italia e in Europa per mitigare i rischi di un utilizzo non adeguato ai fini della sicurezza anticrimine. «Per la normativa ormai si aspetta l’entrata in vigore dell’AI Act, che regolamenterà la disciplina dettagliatamente - spiega il presidente di Federprivacy - Non conosciamo ancora tutti i dettagli del testo che sarà varato dall’UE: per quanto riguarda le sue caratteristiche, attualmente possiamo basarci solo sulla proposta di Artificial Intelligence Act del 2021 (a oggi l’unico documento ufficiale disponibile), nel quale sono previsti quattro livelli di rischio.
Il primo a venir preso in considerazione è il livello considerato “inaccettabile”, secondo cui saranno strettamente vietate le applicazioni che utilizzano tecniche subliminali o i sistemi di punteggio sociale impiegati da autorità pubbliche. Saranno inoltre vietati i sistemi di identificazione biometrica remota in tempo reale utilizzati dalle forze dell’ordine in spazi pubblicamente accessibili». L’identificazione del livello di rischio viene messa in relazione ai possibili campi di applicazione dell’intelligenza artificiale:
«Nel livello di rischio classificato come “elevato” rientrano per esempio le applicazioni legate ai trasporti, all’istruzione, all’impiego e al welfare. Prima di mettere sul mercato o in servizio nell’UE un sistema di AI ad alto rischio, le organizzazioni dovranno condurre una “valutazione di conformità” preliminare e soddisfare un lungo elenco di requisiti per garantire la sicurezza del sistema. Come misura pragmatica, il Regolamento prevede anche che la Commissione Europea crei e mantenga un database di accesso pubblico in cui i fornitori saranno obbligati a fornire informazioni sui loro sistemi di AI ad alto rischio, garantendo trasparenza per tutte le parti interessate».
«Invece - prosegue Bernardi - il rischio considerato “limitato” si riferisce a quei sistemi di AI che devono soddisfare specifici obblighi di trasparenza; per esempio, un individuo che interagisce con una chatbot come ChatGpt dev’essere informato che sta interagendo con una macchina, in modo da poter decidere se procedere (o richiedere di parlare con un essere umano). Infine, il rischio “minimo” è quello relativo ad applicazioni che sono già oggi ampiamente diffuse e costituiscono la maggior parte dei sistemi di AI con cui ci stiamo abituando a interagire. Gli esempi includono filtri antispam, videogiochi abilitati all’AI e sistemi di gestione delle scorte».
Lo scenario applicativo
Entrando nel merito dell’impiego dell’intelligenza artificiale nell’ambito della sicurezza anticrimine, cosa prevedono attualmente le norme italiane ed europee? Esistono scenari con divieti ferrei? Quali sono le applicazioni già consentite?
«Casi in cui la normativa vieta l’utilizzo dell’AI non ce ne sono, ma esistono situazioni in cui l’utilizzo è vincolato a condizioni particolari - osserva Bernardi - Un esempio riguarda l’uso di sistemi di identificazione biometrica a distanza in tempo reale negli spazi accessibili al pubblico. L’accordo politico raggiunto sull’AI Act chiarisce gli obiettivi in cui l’uso della tecnologia è strettamente necessario per scopi di contrasto e quindi le autorità dovrebbero essere eccezionalmente autorizzate a utilizzare tali sistemi. L’accordo, infatti, prevede garanzie aggiuntive e limita tali eccezioni ai casi di vittime di determinati reati, alla prevenzione di minacce reali, presenti o prevedibili (come gli attacchi terroristici) e alla ricerca di persone sospettate di crimini più gravi».
In virtù di uno scenario ancora in divenire, ai fini della sicurezza anticrimine non è ancora possibile segnalare alcuni impieghi dell’AI già assurti a modello di riferimento, in quanto intrinsecamente rispettosi della privacy dei cittadini. «È ancora presto, perché finora l’UE e lo stesso nostro Paese sono stati molto prudenti. In Italia, è stata anche introdotta una moratoria per vietare il riconoscimento facciale in tempo reale nei luoghi pubblici in attesa dell’introduzione del Regolamento Europeo sull’intelligenza artificiale; di conseguenza il Garante per la privacy non ha dato il via libera per Giove, il sistema di polizia predittiva basato su tecnologie di intelligenza artificiale sviluppato dal Dipartimento della Pubblica Sicurezza del Ministero dell’Interno per il contrasto ai cosiddetti crimini predatori (per esempio, furti e rapine).
Prima di poter essere adottato, il sistema, che può attingere all’enorme banca dati delle forze dell’ordine, dovrà essere reso conforme alla normativa in materia di protezione dei dati personali e all’Artificial Intelligence Act».
Un bilancio tra pro e contro
A questo punto, analizzando gli scenari di impiego dell’AI nel campo della sicurezza anticrimine, può essere interessante proporre un primo bilancio tra pro e contro. «Allo stato attuale - argomenta Bernardi - per far funzionare in modo efficace i sistemi di intelligenza artificiale occorre allenare gli algoritmi con enormi quantità di dati, che in ogni caso non saranno mai infallibili, e permane più di qualche perplessità, soprattutto sul rischio che la macchina finisca per esser vittima di pregiudizi su etnia e provenienza e su privacy e libertà personale.
Tuttavia, il contributo dell’intelligenza artificiale alla lotta e al contrasto al crimine sarà molto importante come strumento probatorio testimoniale non scientifico, che potrà essere sicuramente utilizzato nelle indagini e nei processi, ma difficilmente potrà mai sostituire il giudizio umano - l’unico in grado di prendere in considerazione l’infinità di variabili che possono entrare in gioco quando è necessario emettere una sentenza.
Affidare completamente tali decisioni all’intelligenza artificiale comporterebbe il serio rischio di assolvere un colpevole e condannare ingiustamente degli innocenti, come purtroppo le vicende di cronaca degli Stati Uniti hanno già raccontato in numerosi episodi. Una cosa è certa già oggi: è l’intelligenza artificiale a dover essere al servizio dell’uomo, e non il contrario».
L’azione sul campo
Federprivacy ha in programma di mettere in campo nel 2024 una serie di iniziative per stimolare in Italia il dibattito su un uso corretto e adeguato dell’AI nel campo della sicurezza anticrimine e della tutela della privacy. «Già lo scorso anno abbiamo messo l’intelligenza artificiale al centro del dibattito del Privacy Day Forum, e anche per il 2024 stiamo organizzando incontri formativi e convegni in cui promuoveremo un uso corretto e conforme dell’intelligenza artificiale. Inoltre, stiamo già lavorando all’emanazione di specifiche circolari che facciano chiarezza presso la comunità dei Data Protection Officer e altri addetti ai lavori che hanno il compito di rispettare la normativa.
Peraltro - conclude Bernardi - nello svolgimento di queste attività potremo fare riferimento non solo agli atti normativi giuridici, ma anche a standard tecnici molto importanti riconosciuti a livello internazionale, come per esempio quelli della norma tecnica ISO/IEC 42001: 2023 (Information Technology Artificial Intelligence - Management System) pubblicata il 18 dicembre 2023».