Foto di Gerd Altmann da Pixabay

Il Garante della privacy italiano ha bandito temporaneamente l’uso online di ChatGPT dopo aver sollevato preoccupazioni sulla violazione della base legale per la protezione dei dati personali. Il divieto ci sarà fino a quando OpenAI, proprietario della chat bot (software progettato per simulare una conversazione), non rispetterà la legge italiana.

OpenAI, una start-up statunitense di ricerca sull’intelligenza artificiale fondata da Elon Musk e Sam Altman, e supportata da Microsoft, ha dichiarato venerdì di aver disabilitato ChatGPT in Italia, malgrado sia conforme al regolamento generale sulla protezione dei dati dell’Unione europea (GDPR 2016/679) che disciplina la loro gestione.

ChatGPT ha fatto subito scalpore grazie alla sua capacità di generare risposte pertinenti alle domande degli utenti attraverso la chat su una vasta gamma di argomenti, oltre a creare una serie di contenuti, quando richiesto, con un linguaggio naturale e intuitivo di grande varietà, simile a quello umano, addestrato su una grande quantità di informazioni raccolte dal database Internet.

L’Italia è diventata il primo Paese occidentale a bloccare la chatbot alimentata da un rivoluzionario sistema di intelligenza artificiale lanciato nel novembre 2022. La restrizione riguarda la versione web di ChatGPT, ma è improbabile che influisca sulle applicazioni software di aziende che dispongono già delle licenze a pagamento con OpenAI per utilizzare la stessa tecnologia che guida il motore di ricerca di Microsoft, la quale ha investito miliardi di dollari per aggiungere ChatGPT al suo motore di ricerca Bing il mese scorso.

L’autorità italiana ha dichiarato che OpenAI deve riferire entro 20 giorni quali misure ha adottato per garantire la privacy dei dati degli utenti o affrontare una multa fino a 20 milioni di euro, oppure il 4% delle entrate globali. Secondo il garante italiano, non vi è alcuna base giuridica per giustificare la raccolta e l’archiviazione di massa di dati personali allo scopo di “addestrare” gli algoritmi alla base del funzionamento della piattaforma.

Ha anche affermato che non essendoci modo di verificare l’età degli utenti, la chatbot di OpenAI espone i minori a risposte assolutamente inadeguate rispetto al loro grado di consapevolezza.

Prima del divieto italiano, OpenAI aveva annunciato che avrebbe messo offline ChatGPT alla fine di questo mese per correggere un bug che consentiva ad alcune persone di vedere titoli, testi dell’oggetto richiesto e cronologia chat di altri utenti. “La nostra indagine ha rilevato che oltre l’1% degli utenti ChatGPT Plus (la versione più potente a pagamento) potrebbe aver rivelato dati personali ad altri utenti. Riteniamo che il numero di utenti i cui dati sono stati effettivamente rivelati sia estremamente basso e abbiamo contattato coloro che potrebbero essere stati interessati”, ha dichiarato l’azienda in una nota diffusa via web.

OpenAI ha dichiarato che ChatGPT funziona perché vuole che la sua intelligenza artificiale impari a conoscere il mondo e non i privati.

Nel frattempo Elon Musk, attraverso una lettera co-firmata con altri ricercatori, ha chiesto una pausa di sei mesi nella ricerca dell’AI e sullo sviluppo di gigantesche menti digitali come quella di GPT-4, in modo che le capacità e i pericoli possano essere adeguatamente studiati e limitati. La versione GPT-5, in arrivo a fine anno, potrebbe essere praticamente indistinguibile da un umano.

Nella lettera si dice che i laboratori di intelligenza artificiale e gli esperti, dovrebbero sfruttare questa pausa per sviluppare e implementare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo avanzato di AI che siano rigorosamente controllati e supervisionati da esperti esterni indipendenti.

L’istituto statunitense Future of Life (FLI), un’organizzazione finanziata principalmente dalla  Musk Foundation che lavora per ridurre i rischi catastrofici ed esistenziali globali e che ha coordinato lo sforzo di questa lettera, ha citato 12 ricerche di esperti tra cui accademici universitari e dipendenti di OpenAI, Google e della sua controllata DeepMind. Anche se quattro esperti citati nella lettera hanno espresso preoccupazione per il fatto che la loro ricerca sia stata utilizzata per fare tali affermazioni.

La lettera inizialmente mancava di protocolli di verifica per le firme raccolte da persone che in realtà non l’hanno firmata, tra cui il presidente cinese Xi Jinping e il capo scienziato AI di Meta Yann LeCun, che ha chiarito via Twitter di non supportarla.

I critici hanno accusato il Future of Life Institute di dare la priorità a scenari apocalittici immaginati rispetto a preoccupazioni più immediate sull’intelligenza artificiale, come ad esempio i pregiudizi razzisti o sessisti programmati nelle macchine. La seria preoccupazione è quella che simili chatbot possano ingannare e manipolare le persone.