Il volume curato da Ruben Razzante e con la prefazione della senatrice Liliana Segre affronta il tema delle finalità e degli strumenti dell’IA con un approccio corale e multidisciplinare
di Giuliana Grimaldi© Ufficio stampa
Nel dibattito sull'Intelligenza artificiale un contributo prezioso arriva dal volume "L'algoritmo dell'uguaglianza"; curato da Ruben Razzante, docente di Diritto dell'informazione all'Università Cattolica di Milano e consulente della commissione anti-odio presieduta da Liliana Segre, il libro si distingue per l'approccio corale: raccoglie infatti diverse e autorevoli voci provenienti da diversi ambiti professionali.
La prefazione della senatrice a vita Segre introduce efficacemente il tema dell'IA come strumento per contrastare hate speech e fake news, mentre i vari saggi, tra cui quello dello stesso professor Ruben Razzante, esplorano le applicazioni di questa nuova tecnologia in campi diversi: dal diritto alla medicina, dall'economia alla formazione.
Il libro evita la polarizzazione tra tecno-ottimisti e tecno-pessimisti, proponendo invece una visione equilibrata che riconosce l'IA come strumento da conoscere, studiare e governare. L'invito finale è quello di considerare tale rivoluzione principalmente come una "sfida culturale", con l'obiettivo di trasformare l'innovazione tecnologica in un reale beneficio per l'intera società.
"L'algoritmo dell'uguaglianza", Ruben Razzante con i contributi di Antonio Albanese, Valentina Di Mattei, Stefano Lucchini, Gianmatteo Manghi, Sabina Nuti, Antonio Patuelli, Layla Pavone, Paola Pietrafesa, Ruben Razzante, Walter Riviera, Alberto Tripi, Edizioni FrancoAngeli, 140 pagine,17 euro.
TgcomLab ha chiesto al curatore, professor Ruben Razzante, di raccontare le intenzioni del testo e parte dei contenuti.
Da dove nasce l'idea di occuparsi di questo argomento?
Già nell’ottava edizione del mio Manuale di diritto dell'informazione dedicavo un paragrafo all'intelligenza artificiale. Parliamo di sei anni fa, perché già allora avevo intuito che questo potesse essere un tema decisivo anche per la tutela della libertà d'espressione. Quindi non è uno studio recente, ma frutto di un'elaborazione teorica e di approfondimenti scientifici che risalgono a diversi anni fa.
Perché la scelta di un approccio multidisciplinare e corale?
Ritengo che questo argomento dell'intelligenza artificiale non debba rimanere entro i confini del dibattito tecnico, quindi tra addetti ai lavori, ma debba investire tutte le categorie professionali e tutte le fasce di popolazione. La vera sfida è democratizzare il dibattito sull'intelligenza artificiale, per impedire che rimanga argomento per pochi eletti.
Cosa ha significato per lei la collaborazione con Liliana Segre nella lotta contro l'odio online attraverso l'IA?
Due anni fa sono stato nominato consulente della Commissione anti-odio del Senato presieduta dalla senatrice Liliana Segre. Nell'ultimo anno mi sono molto occupato di come le tecnologie possono amplificare l'odio in rete, ma anche di come possono essere messe al servizio delle azioni di contrasto all’odio stesso. Sono stato incaricato dalla senatrice di scrivere un emendamento al disegno di legge sull'intelligenza artificiale che prevede che gli ideatori dell’AI sviluppino algoritmi in funzione della tutela dei diritti fondamentali, per riconoscere rapidamente l'odio in rete e le fake news.
In un mondo in cui la Silicon Valley cancella le proprie politiche sull'uguaglianza possiamo aspettarci algoritmi più tolleranti?
I segnali che arrivano da oltreoceano non sono particolarmente incoraggianti. Le grandi piattaforme hanno scelto di allinearsi al modello trumpiano con una rinuncia alla moderazione. La sfida è dimostrare che a livello culturale si può fare un passo avanti, utilizzando la Rete non come strumento di potere, ma come strumento di democrazia, mettendo le tecnologie al servizio di tutti i cittadini. Occorre conciliare gli interessi economici con la tutela dei diritti fondamentali.
Una volta noi Europei eravamo abbastanza concordi nel dire che erano i software e le società cinesi a non rispettare i nostri standard etici. Adesso questa cosa bisognerebbe dirla anche a proposito di società americane, solo che tale unanimità di giudizio e tale consapevolezza forse mancano...
Credo che la consapevolezza ci sia, nel senso che si percepisce che le piattaforme hanno cambiato radicalmente atteggiamento. Ma c'è un clima un po' soporifero: la gente accetta quasi con rassegnazione che le cose debbano stare così. È preoccupante questa arrendevolezza rispetto al mutamento di atteggiamento delle piattaforme, che rinunciano a tutelare gli utenti per allinearsi al nuovo modello introdotto da Trump. Siamo di fronte a una metamorfosi non positiva che va monitorata. Marcare una distinzione rispetto a questo modello credo sia un imperativo categorico di tutte le coscienze che vogliono affermare il principio di democrazia anche in rete.
Come possono gli algoritmi essere educati a riconoscere hate speech e fake news?
La neutralità tecnologica esiste, non è un'utopia. È importante che ci sia uno sforzo pluralista nella costruzione dei modelli algoritmici, affinché gli algoritmi siano bilanciati, equilibrati, tutelino tutti i valori e tutte le differenze. Gli algoritmi possono riconoscere quando un utente sta scaricando illegalmente un contenuto e bloccarlo. Non vedo perché non si possano costruire gli algoritmi in funzione dell'applicazione del principio di uguaglianza nei servizi sanitari, finanziari, tecnologici e delle pubbliche amministrazioni.
Come superare il "jet lag" tra innovazione tecnologica e normative?
L'innovazione tecnologica corre come una lepre e il diritto fa fatica a starle dietro. Le scoperte tecnologiche sono tante e il diritto rimane sempre un po' in affanno. Bisogna accelerare il processo legislativo e utilizzare strumenti flessibili come i codici deontologici e le forme di autoregolamentazione che possono colmare lo scostamento tra la velocità dell'innovazione e la lentezza delle regole.
L'AI Act europeo penalizza le piccole imprese rispetto ai colossi tech?
È vero che rispetto al modello americano c'è una maggiore rigidità europea nell'imporre divieti alle imprese, però abbiamo la certezza che le soluzioni di IA sono rispettose dei diritti fondamentali. La soluzione potrebbe essere applicare in maniera più flessibile l'AI Act, contemperando il rispetto dei diritti fondamentali con la tutela della libertà d'impresa. L'AI Act ha richiesto quattro anni di negoziazione e potrà garantire efficacemente la tutela dei valori occidentali se attuato correttamente.
A livello italiano invece come siamo messi?
È stato approvato un disegno di legge governativo che contiene molte cose positive ma anche qualcuna negativa, perché accentra troppo in mani governative il controllo sull'IA. L'intelligenza artificiale non può essere un affare del Governo. Forse sarebbe stato meglio coinvolgere di più l'Autorità Garante della Privacy e fare in modo che si costituisse una Commissione nazionale sull'intelligenza artificiale per coinvolgere anche le opposizioni.
Quanto è importante la formazione digitale di fronte alla rivoluzione dell'IA?
Il Governo dovrebbe fare campagne di sensibilizzazione sull'IA, sul modello di quelle fatte per il COVID, per spiegare ai cittadini che l'intelligenza artificiale è rischiosa ma anche preziosa. Nelle scuole va introdotta l'educazione digitale, perché utilizzare consapevolmente la rete significa coltivare la cittadinanza digitale.
Quali consigli dà agli utenti per un uso consapevole dei nuovi strumenti tecnologici?
I consigli sono soprattutto legati all'autotutela e alla non sottovalutazione dei rischi della condivisione eccessiva dei propri dati. Prima di condividere un fatto personale, bisogna valutare gli impatti di questa comunicazione: se pubblico informazioni che mi riguardano, ne perdo fatalmente il controllo. E poi occorre applicare uno spirito di sano scetticismo, perché l'intelligenza artificiale sbaglia spessissimo. È uno degli strumenti che può aiutare l'acquisizione di nuove conoscenze, ma sempre con la centralità umana, che non deve mai venir meno.