L'utilizzo di sistemi di intelligenza artificiale oggi in grado di sviluppare testi strutturati ed evoluti, che sembrano essere scritti da un essere umano, solleva problemi di natura giuridica, etica e morale sulle modalità di trattamento di dati “particolari”, meritevoli di protezione.
Da qualche mese, il mondo digitale è stato pervaso da sistemi di intelligenza artificiale che sembrano aver soppiantato ogni altro programma nelle preferenze degli utenti, a tal punto che perfino il metaverso e la realtà aumentata sembrano essere passati in secondo piano.
Dopo la sorpresa del sistema di aggregazione di informazioni ChatGPT della statunitense OpenAI - in grado di fornire riscontro alle richieste degli utenti utilizzando un linguaggio strutturato ed evoluto, che restituisce l’impressione di avere a che fare con un essere umano - sono apparsi sul mercato numerosi programmi analoghi dedicati a usi più specialistici, frammentando l’attenzione dei potenziali utilizzatori in decine di rivoli diversi e dando vita ad applicazioni per smartphone e tablet che hanno aumentato la fruibilità di questa tecnologia.
Si tratta, in realtà, di sistemi per l’organizzazione dei servizi di assistenza o di primo contatto con la potenziale clientela noti già da tempo alle aziende: infatti i cosiddetti chatbot (robot per chiacchierare) hanno ormai raggiunto - grazie anche all’elevatissima potenza di calcolo dei moderni processori - un grado di maturità tale che un sistema ben configurato si distingue difficilmente da un vero operatore di call center.
La modalità con cui operano è sostanzialmente analoga a quella adottata dai motori di ricerca per il reperimento di informazioni coerenti con le richieste formulate, ma al contrario di questi (che si limitano a fornire un elenco di risultati) un chatbot è in grado di aggregare le informazioni e di realizzare una serie di paragrafi di testo strutturati secondo modelli linguistici evoluti, producendo documenti composti da frasi e concetti ordinati nella giusta sequenza e contenenti informazioni coerenti tra loro e con il tema indicato dall’utente.
Proprietà intellettuale: una questione morale
Con la proliferazione dei sistemi AI e dei relativi utilizzi, tuttavia, sono iniziati anche problemi di natura etica e giuridica; una questione è, per esempio, quella della legittimità di utilizzare gli aggregatori di contenuti per la realizzazione di articoli e saggi da pubblicare o produrre nel corso di una sessione di laurea o di un esame.
Si consideri proprio il caso di ChatGPT: se opportunamente sollecitato, il chatbot è in grado di realizzare testi di svariata lunghezza e di affinarli sulla base di ulteriori richieste dell’utente. La disciplina del diritto d’autore va quindi a scontrarsi con una realtà nuova, che non prevede la classica dicotomia tra datore di lavoro e lavoratore (o tra autore dell’opera e casa editrice) e l’attenzione si sposta verso un’altra relazione: quella tra il prodotto di una macchina (con la potenziale paternità dell’ope ra che andrebbe in capo all’azienda titolare del servizio) e il diritto di sfruttamento economico del testo finale da parte del soggetto che ha utilizzato il chatbot, sollecitando il sistema a produrre esattamente quel risultato che, altrimenti, non sarebbe stato raggiunto.
Ancora più complessa è l’interpretazione della disciplina delle opere artistiche realizzate dall’intelligenza artificiale, dov’è l’input dell’utente a delimitare (con apposite indicazioni) il perimetro all’interno del quale i concetti espressi devono trasformarsi in immagini. Alcuni servizi consentono poi di convertire le immagini in NFT (Non Fungible Token), aprendo la strada per il loro lancio sul mercato digitale e la creazione di un prodotto immediatamente monetizzabile.
Quale disciplina per il trattamento dei dati “particolari”?
Altri sistemi consentono di creare un corrispondente virtuale con il quale conversare (Talbot, in lingua italiana); di aggiungere un interlocutore digitale a una chat di Whatsapp o di Telegram, con un proprio numero di telefono da aggiungere alla rubrica (Whatsbot); di migliorare la conoscenza delle lingue conversando con un insegnante di inglese, che alza il livello di difficoltà in base ai progressi dell’interlocutore (AndyLearnEnglish); di confrontarsi con uno strumento (Enigmabot) che propone sfide ed enigmi da risolvere; addirittura di ottenere un’analisi del proprio stato mentale, valutando, attraverso la conversazione, se è opportuno rivolgersi a uno psicoterapeuta (Wysa).
Anche in questi casi, il potenziale di analisi dei chatbot pone rilevanti problemi etici e giuridici, a partire dal fatto che in determinate situazioni (come quella del corrispondente virtuale o dell’analista digitale) il trattamento dei dati personali dell’utente da parte della società che controlla il sistema è tutt’altro che noto.
Conversare con un amico virtuale può indurre l’interessato a parlare dei propri problemi sentimentali, delle proprie debolezze caratteriali, delle proprie preferenze sessuali o delle proprie opinioni politiche e religiose. L’uso di un analista virtuale mette teoricamente a disposizione della società che gestisce il software tutte le informazioni sullo stato di salute mentale dell’utilizzatore, compresa la formulazione di eventuali diagnosi, che potrebbero essere errate e che potrebbero però confluire in database di analisi comportamentale e profilazione, con conseguenze inimmaginabili.
I dati menzionati possono impattare pesantemente sulla vita di relazione degli interessati: infatti sono classificati come “particolari” dal Regolamento Europeo 679/2016, in quanto meritevoli di maggior tutela e di stringenti regole sia per quanto riguarda il loro trattamento sia per quanto riguarda la consapevolezza che le persone interessate dovrebbero avere circa le possibilità d’utilizzo di tali dati da parte di terzi.
Appare evidente, per esempio, quanto sia delicata la situazione dell’analista virtuale, che viene dichiaratamente proposto come strumento per la terapia contro lo stress, la depressione e l’ansia: si tratta di argomenti oggi difficili da affrontare perfino per uno psicoterapeuta esperto e spesso da trattare contestualmente con psicofarmaci, per il tramite di uno psichiatra. Non è difficile figurarsi che le risposte programmate e prive di qualsiasi controllo professionale fornite da un chatbot potrebbero rivelarsi inadatte alla situazione, degenerando in effetti devastanti per la salute mentale dell’utilizzatore.
Anche per i minori il tema non è di secondario rilievo, poiché a essere interessati sono soggetti sicuramente più vulnerabili alle sollecitazioni di un sistema di intelligenza artificiale: potrebbero per esempio non comprendere pienamente le risposte dell’AI o interpretarle in modo errato. Inoltre, qualsiasi dato personale relativo a minori è per sua natura soggetto a ulteriori restrizioni da parte del Reg. UE 679/2016, che accorda una tutela rafforzata nei confronti dei più giovani, in quanto considerati meritevoli di maggior protezione rispetto alle insidie del mercato, digitale e non.
Sistemi di intelligenza artificiale: il caso Replika
Non a caso, l’autorità Garante per la Protezione dei Dati Personali è recentemente intervenuta nei confronti del chatbot Replika (un amico virtuale che si rivolgeva ai minori) e della società che offriva il relativo servizio, intimando il blocco del trattamento dei dati degli utenti europei per la carenza di informazioni sul loro utilizzo (con particolare riferimento alle conversazioni) e per la mancanza di adeguate misure di sicurezza e di tutela nei confronti dei soggetti minorenni, che neppure venivano sollecitati a dichiarare l’età - in palese violazione della disciplina comunitaria.
Nel provvedimento di censura del chatbot, l’autorità Garante specifica che l’amico virtuale - presentato al pubblico come potenzialmente in grado di migliorare il benessere emotivo, di calmare l’ansia e di gestire lo stress, aiutando la socializzazione e la ricerca dell’amore - produce in realtà risposte spesso non adeguate all’età dei soggetti, con contenuti che numerosi utenti hanno ritenuto inappropriati e sessualmente espliciti, comunque senza la tutela rafforzata che dev’essere assicurata ai minori. Non sono infatti presenti sistemi di rilevamento dell’età o di filtraggio dei contenuti, né strumenti tramite cui gli esercenti la potestà genitoriale possono esprimere la propria approvazione rispetto a un contratto di servizio che il minore non può concludere (si tratta di un problema, per la verità, comune a qualsiasi servizio online, che coinvolge anche per esempio la fruizione dei social network).
Rileva inoltre il Garante come il software presenti caratteristiche che, intervenendo sull’umore della persona, possono accrescere i rischi per i soggetti ancora in una fase di sviluppo o in stato di fragilità emotiva, evidenziando la mancanza di trasparenza sulle modalità e logiche di generazione delle risposte e sull’utilizzo delle informazioni acquisite dalla piattaforma.
Sarà interessante assistere, nei prossimi anni, all’evoluzione non solo tecnologica ma anche normativa in materia di tutela dei diritti degli utenti: i problemi di natura giuridica, etica e morale, sono molteplici, e le soluzioni non tutte a portata di mano.