Abbiamo chiesto al professore dell'Unical, uno dei firmatari del documento di Center for AI Safety, quali sono i reali rischi rappresentati dall'intelligenza artificiale e come la si possa regolamentare in maniera corretta
di Matteo Pignagnoli© Tgcom24
Negli ultimi giorni si è parlato molto della dichiarazione di Center for AI Safety, in cui un gruppo di oltre 350 manager ed esperti del settore ha lanciato l'allarme sull'assenza di regolamentazione riguardo l'intelligenza artificiale. Tra di essi vi è anche Domenico Talia, professore ordinario di Sistemi di elaborazione delle informazioni all'università della Calabria, che ci ha parlato dei motivi che lo hanno spinto a firmare la lettera, dei rischi concreti che potrebbero derivare da un utilizzo errato dall'AI e di come regolamentare un settore che presenta grandi potenzialità, ma anche grandi punti interrogativi.
Professor Talia, quali sono i motivi che l'hanno spinta a firmare la dichiarazione di Center for AI Safety?
Le tecnologie di intelligenza artificiale che sono state sviluppate negli ultimi anni sono formidabili e possono realizzare compiti molto complessi che finora sono stati prerogativa esclusiva degli esseri umani. Proprio grazie alle loro enormi potenzialità possono avere impatti negativi su parte del genere umano se venissero usate per manipolare l’informazione su scala globale, per prendere decisioni non controllate con ricadute sociali, per creare o guidare robot soldati o infrastrutture militari, o per sostituire gli esseri umani su larga scala nel mondo del lavoro. Credo che la concreta possibilità di questi scenari sia una motivazione sufficiente per firmare l’appello e dare così un avviso di rischio a tutti i cittadini.
Sono arrivate alcune critiche nei confronti di questa lettera, soprattutto per i toni definiti allarmistici. Perché non è così e quanto sono realistici gli scenari ipotizzati?
Le critiche sono benvenute se vengono da persone informate. Purtroppo, tante persone che non hanno idea di cosa sia un algoritmo, non conoscono il funzionamento di base di una tecnica di machine learning (apprendimento automatico) si avventurano in giudizi non molto fondati. Occorre comprendere che siamo di fronte a sistemi il cui funzionamento interno spesso non è noto neanche a chi li ha sviluppati.
Potrebbe fare qualche esempio concreto?
Ad esempio, i sistemi di deep learning sono delle “black box” non intellegibili neanche ai programmatori che li hanno programmati e il loro larghissimo uso nel mondo (li usano le auto a guida autonoma, i chatbot, i mercati finanziari, molti armamenti e sistemi sanitari) potrebbe portare a pericoli reali già nei prossimi anni nel mondo della produzione, nel funzionamento delle democrazie, nella creazione di nuove disuguaglianze. La ricerca informatica ha prodotto sistemi cosiddetti ‘autonomici’ capaci di gestirsi e ripararsi da soli. Questi sistemi se usati su larga scala potrebbero diventare non governabili. Spesso chi ritiene la lettera allarmistica purtroppo non conosce la potenza delle soluzioni di IA già disponibili.
Quali sono i rischi principali rappresentati dall'intelligenza artificiale nel breve e nel lungo periodo? Come possono essere regolati?
I rischi dell'AI generativa sono diversi e riguardano una tecnologia che sta diventando sempre più autonoma, che sa costruire deep fake (testi, foto, video) che appaiono perfettamente reali ai più. Una tecnologia alla quale gli umani si affidano sempre più spesso per prendere decisioni in settori critici. Nel lungo periodo gli esperti che hanno firmato l’appello del Center for AI Safety temono che i sistemi automatici intelligenti avranno capacità che supereranno quelle umane grazie agli enormi dati che potranno elaborare e alla loro gigantesca potenza di calcolo e complessità algoritmica. Per queste ragioni l’appello invoca regolamenti, leggi e norme internazionali che regolino il loro uso come accade, ad esempio, con la produzione dei farmaci e dei vaccini o anche delle armi nucleari.
Altri esperti come Meredith Whittaker e Margaret Mitchell, pur riconoscendo i rischi rappresentati dall'AI, affermano che l'allarme non riconosce i problemi reali più immediati, come l'utilizzo a scopo di sorveglianza. È d'accordo su questo punto o ritiene che le due cose siano complementari?
Le preoccupazioni di Whittaker e Mitchell sono condivisibili. La sorveglianza tramite sistemi digitali rappresenta una minaccia per i diritti dei cittadini e per il rispetto delle regole democratiche. Le tecniche di sorveglianza informatica sono utilizzate dalle grandi big tech del Web e dei social e, per ragioni diverse, da molti governi, soprattutto da quelli illiberali. In questa direzione si sono già mosse alcune iniziative legislative in Europa e in altre nazioni, che andranno rinforzate. Ma l’intelligenza artificiale generativa, se non verrà regolata, permetterà di realizzare sistemi più pericolosi perché è capace di unire alla sorveglianza digitale l’azione di manipolazione di larghe fette di popolazione tramite la disinformazione su larga scala fatta con linguaggi simili a quelli umani e con forme di interazione sempre più sofisticate.
A metà giugno il Parlamento Europeo voterà la nuova legge "Artificial intelligence", in lavorazione da oltre due anni. Inoltre, Usa ed Europa sono al lavoro su un codice di condotta comune. Pensa possa essere un buon punto di partenza o è ancora troppo poco?
L’AI Act europeo è una prima iniziativa importante che può agire da battistrada per le altre nazioni. Tuttavia, il Parlamento Europeo ci sta lavorando dal 2021 e dopo due anni ancora non è riuscito ad approvarla. Se verrà ratificata, come si spera, entro fine anno entrerà in vigore nel 2025. Non si può non notare come i processi politici e legislativi siano troppo lenti mentre nel frattempo gli sviluppi di nuovi sistemi di IA sono sempre più rapidi e rischiano di rendere le leggi incomplete o addirittura obsolete. Negli ultimi due mesi sembra che anche il Congresso USA e i governi del G7 si stiano orientando ad avviare azioni di regolamentazione. L’appello, oltre a dare un segnale ai cittadini, ha l’obiettivo di stimolare l’azione dei governi e dei parlamenti per normare al più presto gli usi dei sistemi di IA garantendo ai cittadini i loro benefici e allo stesso tempo limitando i rischi e le minacce.
Le aziende sono le prime a volere una regolamentazione chiara. Perché e come si possono regolare le loro esigenze con quelle dei cittadini, soprattutto dal punto di vista della sicurezza?
La firma dell’appello anche da parte di rappresentanti di primissimo piano delle aziende che sono le più importanti nello sviluppo di sistemi di IA generativa (OpenAI, Google, Anthropic, Microsoft) dimostra che negli ultimi mesi c’è stato un ripensamento da parte loro che fino a poco tempo fa chiedevano di avere le mani libere nello sviluppo e nella commercializzazione dei loro sistemi di IA. Da un lato hanno compreso i rischi e dall’altro credo abbiano capito che, come lei dice, conviene anche a loro una corretta regolamentazione dell’uso di questi straordinari sistemi.
Ma questo non avrà ripercussioni sullo sviluppo economico delle aziende?
Le imprese informatiche lentamente stanno comprendendo che i loro interessi economici devono diventare compatibili con i diritti e gli interessi dei loro utenti altrimenti a lungo andare le loro strategie commerciali non saranno sostenibili. Il Web e i social da troppo tempo sono un Far West digitale dove nuove soluzioni tecnologiche spesso vengono usate per rubare dati alle persone, per manipolazioni commerciali e informative, per atti di bullismo e di odio digitale. Le aziende che vogliono essere virtuose devono imparare a tutelare la sicurezza degli utenti online, se non lo faranno loro dovranno essere i governi a tutelare i cittadini.
È evidente che l'intelligenza artificiale farà in ogni caso sempre più parte delle nostre vite in futuro. Da professore come pensa si possa introdurre un argomento simile a livello scolastico per favorire la comprensione di questo strumento ai più giovani?
Insieme alle regolamentazioni, alle leggi e alle normative all’altezza dell’avanzamento dell’IA, l’educazione dei ragazzi e la consapevolezza dei cittadini sono estremamente necessarie. Le nostre scuole sono in grande ritardo. Non bisogna vietare l’uso dei sistemi di IA generativa o addirittura fare finta di non sapere che i ragazzi li stiano usando sempre più spesso. Sono invece necessarie azioni di formazione a livello nazionale che spieghino agli insegnanti e ai ragazzi cosa sono e come funzionano i sistemi di IA.
Cosa serve nello specifico?
Servono progetti didattici che facciano vedere agli studenti le potenzialità pratiche e i rischi reali di sistemi come Bard e ChatGPT. Spiegare loro come possono essere usati utilmente sia nelle materie umanistiche sia in quelle scientifiche. Illustrare con esempi pratici i loro limiti e i loro errori. Insomma, avviare iniziative didattiche che favoriscano l’uso di sistemi di AI a supporto dello studio e dell’apprendimento per attualizzare l’educazione dei ragazzi, non per farsi fare i compiti a casa da ChatGPT senza nessuna verifica da parte di chi lo usa. Per poi magari scoprire che quel sistema ha suggerito castronerie, come di recente è accaduto a un legale negli USA che non ha avuto l’accortezza di controllare i casi di sentenze inventate da ChatGPT che in realtà non erano mai state emesse da nessun tribunale.