L'utilizzo dell’intelligenza artificiale, che pure può contribuire con efficacia al conseguimento di vantaggi per i cittadini dal punto di vista sociale, economico e ambientale, porta con sé una serie di questioni di natura etica e pratica che mettono in evidenza la necessità di definire una disciplina univoca in materia a livello europeo.
L’intelligenza artificiale pone oggi al giurista dilemmi etici ma anche pratici, legati all’introduzione degli algoritmi che vanno a condizionare - e, spesso, a determinare - le scelte di vita adottate nel mondo reale.
Per un primo esempio, si può fare riferimento alle logiche di funzionamento delle auto a guida autonoma, che oggi assistono semplicemente il guidatore in operazioni semplici e a bassa velocità (parcheggio, frenata assistita, controllo di corsia), ma potrebbero evolversi in futuro fino a mettere nelle mani dell’intelligenza artificiale - supportata dai dati provenienti dai sensori e dalla centrale di controllo - la direzione della vettura, degradando il conducente a mero controllore della situazione, pronto a intervenire in caso di emergenza.
Di fronte a una simile situazione, si pone il dilemma della scelta, da parte dell’intelligenza artificiale, di come comportarsi, per esempio di fronte a due passanti (una bambina e una persona matura) che attraversano improvvisamente la strada da lati opposti: in caso di collisione inevitabile, l’AI si troverebbe infatti costretta a scegliere quale dei due soggetti investire, prendendo la propria decisione non in maniera casuale (come nel caso di perdita di controllo del mezzo o reazione istintiva da parte del conducente) ma sulla base di un calcolo rapidissimo del sistema di guida, che potrebbe decidere di “sacrificare” la bambina (perché non ancora in età produttiva) o la persona di mezza età (che, avendo vissuto più della bambina, si avvia a impattare in maniera sempre più rilevante sui sistemi sanitario e pensionistico) a seconda delle istruzioni ricevute.
Il fattore umano nell’intelligenza artificiale
Un altro problema culturale connesso è quello legato a come e quanto l’esperienza di vita degli informatici che scrivono gli algoritmi incida sulla loro attività, riflettendosi di conseguenza sui comportamenti adottati dall’intelligenza artificiale.
L’AI infatti si autoalimenta, acquisendo informazioni dai sensori e “imparando” nel corso del tempo dalle situazioni che si trova ad affrontare, ma in ogni caso il software deve fare i conti con gli algoritmi scritti dalle squadre di programmazione, che possono risentire di errori e convinzioni a seconda della base culturale ed esperienziale dei singoli programmatori e del capo progetto.
Vari esperimenti condotti dalle forze dell’ordine statunitensi con software di polizia predittiva - durante cui i dati dei crimini commessi sono stati analizzati allo scopo di dislocare con maggiore efficacia le pattuglie sul territorio - hanno portato alla luce i limiti e i difetti dell’intelligenza artificiale applicata alla lotta alla criminalità, riscontrando che il sistema di analisi tende a considerare con maggiore gravità i reati commessi da afroamericani e ispanici rispetto a quelli perpetrati dai cittadini della cosiddetta “comunità bianca”.
È già accaduto anche che l’errata interpretazione di una data o di un valore abbia determinato lo sversamento di ingenti quantità di materie prime nelle discariche, semplicemente perché tra le righe di codice era presente una valutazione errata di determinati parametri ambientali o temporali, o che un aggiornamento via etere, non perfettamente testato prima del rilascio, abbia messo le centraline in uno stato di attesa, escludendo da qualsiasi attività i proprietari degli apparati e rendendo necessario l’intervento materiale di un tecnico per sovrascrivere le istruzioni e disattivare il blocco.
Linee guida generali
Avendo compreso ormai da qualche anno che l’intelligenza artificiale avrà un impatto sempre più forte sui rapporti economici e sociali, nonché sui diritti e sulle libertà dei cittadini, l’Unione Europea sta orientando di conseguenza la propria azione regolatrice nei confronti dei vari settori del mercato. Come in ogni attività di legislazione proiettata al futuro, bisogna riuscire a prevedere l’evoluzione dei settori interessati e, soprattutto, a disciplinare correttamente i beni giuridici messi in discussione dai cambiamenti in itinere.
Il Regolamento Europeo per la tutela dei dati personali vieta decisioni prese in modo del tutto automatico in merito ai temi che possono incidere sulla libertà e sui diritti delle persone, ponendo un primo limite all’uso dell’intelligenza artificiale nelle attività quotidiane e richiedendo la presenza di un essere umano a controllare il processo di elaborazione e i suoi risultati. In una situazione di diffusione su larga scala dell’AI, tuttavia, questo primo limite - peraltro applicabile al solo caso in cui sono trattate informazioni “di identificazione personale” - potrebbe non essere sufficiente, soprattutto nelle circostanze in cui non è possibile far intervenire l’essere umano vista l’esigenza di ridurre al minimo i tempi di reazione.
Serve una regolamentazione
Per tali ragioni è ormai evidente la necessità di una regolamentazione dell’intelligenza artificiale, così da porre limiti e, soprattutto, assicurare garanzie alle attività e ai settori che determinano conseguenze dirette o indirette per gli individui e per la loro vita di relazione (per esempio, cambiamenti climatici, ambiente, sanità, settore pubblico, finanza, mobilità, affari interni e agricoltura). In considerazione della velocità dei cambiamenti tecnologici e delle sfide del futuro, gli Stati Europei intendono impegnarsi a perseguire un approccio moderato ed equilibrato in materia.
All’inizio del 2020, la Commissione Europea ha pubblicato un Libro bianco sull’intelligenza artificiale, che definisce le strategie per promuovere l’adozione dell’AI e affrontare i rischi associati al suo utilizzo, sviluppando un ecosistema di fiducia e un quadro giuridico affidabile, incentrato sui diritti e sui valori fondamentali dell’Unione Europea. Sulla scia di questa dissertazione e dei contributi forniti dagli stati membri e da altri stakeholder, è nata la proposta di regolamentazione Artificial Intelligence Act, attualmente in discussione presso il Parlamento Europeo e il Consiglio dell’UE, che si prefigge lo scopo di regolare lo sviluppo e l’utilizzo dell’intelligenza artificiale per stabilire un clima di fiducia da parte dei cittadini e garantire il rispetto dei diritti e delle libertà fondamentali salvaguardati dalla normativa europea vigente.
Il testo attualmente allo studio delle autorità prevede che i fornitori di tecnologie classificate “ad alto rischio” garantiscano il rispetto di standard qualitativi elevati, in conformità alle normative di settore, e conservino i log di sistema per almeno sei mesi (salvo diversa previsione legislativa), con l’obbligo di ritirare tempestivamente dal mercato un prodotto di cui sia stata accertata la non conformità. Uno specifico riferimento viene fatto anche ai dispositivi medici e alle informazioni da essi gestite, la cui integrità e disponibilità devono essere garantite a riposo e in transito, considerate le evidenti ripercussioni che possono avere sullo stato di salute del paziente.
La proposta di Regolamento ha come obiettivo anche la corretta ripartizione delle responsabilità tra produttori, importatori e distributori di sistemi di AI ad alto rischio, individuando specifici oneri di collaborazione con le autorità nazionali e procedure per mitigare i rischi imprevisti e imprevedibili.
Si dovrà, in sostanza, arrivare a una certificazione UE per sistemi di intelligenza artificiale che, oltre all’accreditamento dei produttori, preveda ragionevolmente l’obbligo di mettere a disposizione delle autorità competenti le valutazioni di conformità eseguite e la documentazione pertinente, per agevolare e garantire l’esecuzione di controlli indipendenti ed efficaci, idonei a instaurare quel clima di fiducia al quale si fa più volte riferimento nella proposta di Regolamento.