ChatGPT e la privacy

Le violazioni contestate dal Garante riguardano la mancanza di un’informativa per l’utente e l'assenza di una base giuridica per la raccolta e la conservazione di dati personali. Le nuove normative colmeranno questo gap?
ChatGPT e la privacy
Giorgio Santambrogio-comuni contigui-VéGé

L’Algoritmo di Giorgio Santambrogio

Giorgio Vallortigara, illustre neuroscienziato, nelle scorse settimane ha chiesto a ChatGPT di che colore fosse il cavallo bianco di Napoleone. L’intelligenza artificiale ha risposto che il cavallo si chiamava Marengo e che in realtà era grigio chiaro. Il professore però voleva sapere il colore, non il nome. Allora ha cambiato la domanda: di che colore era il cavallo nero di Napoleone? “Napoleone non aveva cavalli neri”, ha risposto un po’ indispettita ChatGPT. Vallortigara allora ha spiegato che la sua domanda era solo un test logico. La risposta è cambiata ancora. “Non avevo capito, ma se la domanda è un test logico, allora il cavallo nero di Napoleone era sicuramente nero. Anche se – ha ribattuto sempre più puntigliosa –, non ci sono evidenze storiche della sua esistenza, ma l’ammissione di essere cascata nel tranello”.

In questi mesi tutti noi abbiamo giocato con ChatGPT provando scoprirne virtù e difetti, una sorta di febbre digitale universale ci ha colpito. Nessuno escluso. A partire dal 31 marzo, ChatGPT, in Italia, è stato sospeso per alcune settimane: le motivazioni sono note e riguardano un provvedimento d’urgenza del Garante per la Protezione dei Dati Personali. Al netto delle prossime evoluzioni, che potrebbero coinvolgere anche altri stati europei come la Germania, e anche se in questi giorni l’applicazione è stata nuovamente attivata, le domande da porsi sono: perché e quanto durerà questa misura restrittiva? Le nuove normative in arrivo riusciranno a colmare questo gap?

LA NORMATIVA EUROPEA, TRA GDPR E AI ACT

La Commissione europea nei propri documenti programmatici per la regolamentazione dello sviluppo dell’intelligenza artificiale aveva già svolto alcune analisi che potrebbero riguardare anche il recente provvedimento del Garante emesso nei confronti di OpenAI. Infatti, nel cosiddetto Ai Act sono già stati chiariti molti degli aspetti che riguardano il corretto utilizzo di dati personali per l’addestramento dell’intelligenza artificiale. D’altro canto, applicando il Gdpr, il tema dell’utilizzo del dataset per il training dell’Ai non sembra essere una via percorribile se non attraverso una laboriosa attività legale.

Insomma, la questione esiste e non è di lana caprina, soprattutto se immaginiamo le future evoluzioni dell’Ai. Il Gdpr nasce per definire il rispetto di una serie di principi volti a proteggere i dati personali, non per regolamentare l’intelligenza artificiale. Esiste però un punto di raccordo tra il Gdpr e lo sviluppo delle nuove tecnologie. Già nel Gdpr, infatti, oltre alla profilazione dei dati, veniva presa in considerazione una specifica valutazione di impatto necessaria quando il trattamento presentava un rischio elevato per i diritti e le libertà delle persone fisiche, in particolare per l’uso di nuove tecnologie. Invece, l’Ai Act (meglio conosciuta come proposta di regolamento sull’intelligenza artificiale) emessa dalla Commissione europea vuole predisporre una normativa verticale su questo tema.

Per essere tali, le rivoluzioni devono essere normate con occhi nuovi. Sui dati e sulla loro governance viene precisato ad esempio che gli insiemi di dati per il training devono seguire modelli di gestione e governance adeguati e devono garantire: scelte progettuali pertinenti, raccolta dei dati, operazioni di preparazione come annotazione, etichettatura e aggregazione, formulazione di ipotesi pertinenti; e ancora una valutazione e formulazione preventiva della disponibilità, della quantità e dell’idoneità degli insiemi di dati necessari, l’esame di possibili distorsioni e l’identificazione di eventuali lacune o carenze e il modo in cui queste mancanze possono essere affrontate.

OBIETTIVO: FIDUCIA VERSO LE NUOVE TECNOLOGIE

La proposta di regolamento sull’Ai sembra dunque cambiare il paradigma relativo alla trasparenza, passando da una necessità di chiarire tutto anticipatamente a un obbligo di programmazione dell’utilizzo dei dati. In sintesi, vengono allargati i termini dell’utilizzabilità dei dati senza per questo sacrificare il diritto fondamentale dell’utente di sapere come vengono utilizzati. Sembra che con l’Ai Act si passi dall’obbligo giuridico del Gdpr di chiarire all’utente il dettaglio delle specifiche finalità e le basi giuridiche (violazione contestata dal Garante a OpenAI) a un obbligo di chiarire il progetto di utilizzo nei propri modelli di gestione e governance adeguati. La proposta di regolamento vuole creare fiducia nell’Ai introducendo un meccanismo di coordinamento europeo, fornendo capacità adeguate e facilitando gli audit dei sistemi di Ai per documentazione, tracciabilità e trasparenza.

In definitiva, è evidente la necessità di garantire i diritti fondamentali dei cittadini europei, tra cui quello alla protezione dei dati personali, e di regolamentare l’intelligenza artificiale, anche se questo dovrebbe avvenire nel rispetto della necessità di favorire lo sviluppo tecnologico. La difficoltà di gestire questo equilibrio è la sfida del prossimo futuro e forse nei nuovi regolamenti europei in arrivo possiamo trovare la risposta.

© Riproduzione riservata