Intelligenza Artificiale: tra valutazione del rischio e certificazione

intelligenza artificiale

Uno studio Accredia-CINI (Consorzio Interuniversitario Nazionale per l’Informatica) ha approfondito rischi e opportunità dell’Intelligenza Artificiale.

Se c’è un tema di innegabile attualità, questo è senza dubbio l’Intelligenza Artificiale.
Emblema, da un lato, delle nuove frontiere della tecnologia e, dall’altro, delle implicazioni etiche che la ricerca e l’innovazione impongono in modo sempre più serrato al nostro tessuto sociale, l’Intelligenza Artificiale è ormai terreno di confronto per tutti. Anche, e non in maniera marginale, per il mondo della normazione, della certificazione e dell’accreditamento.

Il convegno “Intelligenza Artificiale tra valutazione del rischio e certificazione accreditata” che si è svolto il 16 ottobre scorso alla Sapienza Università di Roma, organizzato da Accredia in collaborazione con il Laboratorio Nazionale di Artificial Intelligence and Intelligent Systems (AIIS) del Consorzio Interuniversitario Nazionale per l’Informatica (CINI), ha offerto molti spunti di riflessione.

Al centro delle discussioni, l’ultimo studio dell’Osservatorio “Norme tecniche e valutazione della conformità accreditata per lo sviluppo dei sistemi di Intelligenza Artificiale che approfondisce le opportunità che l’IA offre per l’innovazione e il miglioramento della qualità della vita, e allo stesso tempo pone in luce le questioni più significative relative alla sicurezza, alla privacy, all’equità e all’etica.

Lo studio Accredia-CINI esplora l’evoluzione della regolazione sull’IA, a partire dal recente Regolamento UE 2024/1689 (il cosiddetto AI Act, il primo specifico e completo intervento legislativo al mondo sull’intelligenza artificiale), ed elabora tre specifici PoC (Proof of Concept, ossia casi studio di applicazione di standard), di cui due in ambito medico e uno relativo alla Pubblica Amministrazione.

In quest’ultimo caso, che ha visto coinvolto INAIL, si è studiato il ruolo della UNI CEI ISO/IEC 42001:2024 (“Tecnologie informatiche – Intelligenza artificiale – Sistema di gestione”). Questo standard specifica i requisiti e fornisce una guida per la creazione, l’implementazione, la manutenzione e il miglioramento continuo di un sistema di gestione dell’IA nel contesto di un’organizzazione. L’adeguamento a questa norma assicura che ogni processo decisionale automatizzato sia sottoposto a controlli rigorosi prima di essere implementato: in sintesi, un utilizzo responsabile dei sistemi di intelligenza artificiale.

Al convegno è intervenuto anche Daniele Gerundino, Membro del Centro Studi per la Normazione di UNI, che ha ricordato come: “promuovere strategicamente la normazione e l’assesment di conformità sia molto importante“. Anche se “sappiamo che si tratta di una sfida veramente ardua tenendo conto della complessità e della rapidità di evoluzione della tecnologia“, i Paesi del G7 possono “dare un utilissimo contributo alla normazione internazionale per creare un framework che possa essere utilizzato dalle diverse giurisdizioni“.

Promuovere il ruolo della normazione e della valutazione di conformità, incentivare le collaborazioni scientifiche, sensibilizzare gli sviluppatori a creare un’intelligenza artificiale centrata sull’uomo e i suoi valori, nonché garantire il diritto fondamentale alla salvaguardia dei propri dati personali sono le sfide più urgenti che la società deve affrontare.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome