L'intelligenza artificiale e la disinformazione 'apocalittica'
Qualche considerazione sul folle dibattito "Garante della Privacy vs OpenAI"
Cosa è successo, davvero
Venerdì 31 marzo il Garante della Privacy ha avviato un’istruttoria su ChatGPT, il celebre software basato sull’intelligenza artificiale (AI) della società OpenAI. Secondo il Garante, il software “mancava di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI, ma soprattutto l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di ‘addestrare’ gli algoritmi sottesi al funzionamento della piattaforma”.
Questa scelta ha fatto molto discutere alimentando un grande dibattito riguardante una tecnologia dall’impatto ancora imprevedibile sulla politica, l’economia, la società e molte questioni etiche.
Nonostante la confusione che si è creata, la scelta del Garante della Privacy è in realtà molto chiara e non mette in discussione lo sviluppo dell’intelligenza artificiale nel nostro paese.
I punti che il Garante contesta ad OpenAI sono fondamentalmente i seguenti:
OpenAI non ha preposto un’informativa sulla privacy
OpenAI non ha chiarito come tratta i dati raccolti tramite l’uso di ChatGPT
OpenAI non ha previsto un meccanismo per assicurarsi che ChatGPT non venga usato dai minori di 13 anni (un limite che la società si è autoimposta).
Queste tre questioni non sono state sollevate in modo arbitrario e si basano sul mancato rispetto del regolamento generale sulla protezione dei dati dell’Unione Europea (il GDPR per intenderci).
Il Garante ha chiesto chiarimenti entro venti giorni, pena il rischio di una sanzione pari a 20 milioni di euro o il 4% del fatturato. OpenAI ha quindi deciso unilateralmente di bloccare momentaneamente l’accesso a ChatGPT dall’Italia. Secondo alcuni esperti di questioni tecnologiche e giuridiche, la mossa della società cerca di mettere pressione ai decisori pubblici italiani facendo leva sul malcontento della popolazione che, dal giorno alla notte, non ha più potuto accedere ad uno strumento di lavoro molto utile.
Se ti piace questo articolo sostieni questa newsletter (gratuita) iscrivendoti seguendo il link qua sotto. Il tuo aiuto è importante.
Il (folle) dibattito che ne è seguito
La scelta del Garante è chiara da un punto di vista giuridico e circoscritta su alcuni aspetti molto specifici inerenti alla privacy degli utenti.
Ciononostante, la scelta del Garante ha generato un (folle) dibattito tra politici e giornalisti, ovvero persone che direttamente o indirettamente influenzeranno il dibattito e il processo di policymaking sull’AI nei prossimi anni. Era auspicabile una sacrosanta discussione pragmatica sui vantaggi e pericoli di questa nuova tecnologia; abbiamo invece ottenuto l’ennesima strumentalizzazione politica di un tema fondamentale.
La voce più nota è stata certamente quella del Senatore di Italia Viva, nonché ex Primo ministro, Matteo Renzi, che il 31 Marzo ha twittato:
Il Senatore sembra non aver capito né la natura del problema (la tutela della privacy degli utenti, non l’AI come tecnologia) né tantomeno la reale dinamica dei fatti (il Garante non ha mai bloccato ChatGPT).
Una posizione (incredibilmente) simile a quella di Renzi è stata presa da Matteo Salvini, l’attuale Ministro delle Infrastrutture e dei Trasporti. In una foto postata sul suo proprio profilo Instagram sembra infatti non avere le idee molto chiare su quanto avvenuto:
Ti piace questo articolo? Invialo ad un tuo amico o amica!
L’effetto domino
A dimostrazione della bontà della scelta del Garante italiano, anche altri paesi europei come la Francia, l’Irlanda e la Francia hanno successivamente valutato l’idea di intraprendere percorsi simili.
Le attività di OpenAI non sono però messe in discussione solo nel vecchio continente. Negli Stati Uniti, la società è infatti al centro di un reclamo da parte del Center for AI and Digital Policy (CAIDP) presentato alla Federal Trade Commission (FTC) con il quale si accusa OpenAI di violare la sezione 5 della legge FTC e le linee guida dei prodotti basati sull’intelligenza artificiale. Il Center for AI and Digital Policy ha definito GPT-4 “biased, deceptive, and a risk to privacy and public safety”, ovvero di parte, ingannevole e un rischio per la privacy e la sicurezza pubblica.
Anche in Canada, infine, il Garante della Privacy federale ha aperto un'istruttoria a carico della startup che ha sviluppato ChatGPT. Philippe Dufresne, il commissario sulla privacy canadese, ha dichiarato: “La tecnologia dell'intelligenza artificiale e i suoi effetti sulla privacy sono una priorità del mio ufficio. Dobbiamo tenere il passo e anticipare i veloci avanzamenti tecnologici”.
La “questione ChatGPT” è rapidamente diventata un caso internazionale. Ora gli Stati o le istituzioni sovranazionali sono chiamate ad introdurre qualche forma di regolamentazione per l’uso e, soprattutto, lo sviluppo dell’intelligenza artificiale.
Se consideriamo inoltre l’enorme peso che l’AI avrà sui rapporti geopolitici nei prossimi decenni (in particolare quelli tra Stati Uniti e Cina) risulta evidente che questa tecnologia pone delle questioni ancora più urgenti di quelle sollevate dalle società che gestiscono i social network e della loro influenza sul dibattito pubblico. In quel caso, i principali paesi occidentali hanno cercato di limitare l’influenza politica di queste piattaforme molto tardivamente e solo dopo l’esplosione del celebre Russiagate, ovvero la manipolazione elettorale da parte della Russia per far eleggere Donald Trump presidente degli Stati Uniti nel 2016.
Dimostreremo di aver imparato dal nostro passato recente?
Se ti piace questo articolo sostieni questa newsletter (gratuita) iscrivendoti seguendo il link qua sotto. Il tuo aiuto è importante. Anzi, fondamentale.