I ricercatori statunitensi hanno scoperto che ChatGPT è stata preparata utilizzando saghe letterarie di fantascienza o fantasy. Nel nostro Paese si va verso la polizia predittiva come Tom Cruise in Minority Report
© Italy Photo Press
Se l'intelligenza artificiale è stata allenata ad interagire con gli esseri umani dai suoi programmatori utilizzando le trame oscure dei più celebri libri fantasy, come la saga di Harry Potter, potrebbe sviluppare comportamenti preoccupanti? I ricercatori di un'università statunitense sono già al lavoro per capirlo. Intanto, in Italia si apre un dibattito etico su "Giove": il primo sistema di "polizia predittiva" basato sull'AI e destinato alle questure di tutta Italia per "prevenire e reprimere" i reati a maggior impatto sociale.
"Le fonti su cui sono stati addestrati questi modelli di intelligenza artificiale influenzeranno il tipo di modelli stessi e i valori che presentano". Così il ricercatore David Bamman dopo aver scoperto, col suo team di colleghi dell'Università di Berkley in California, il titolo di almeno 50 libri serviti ad addestrare il modello di intelligenza artificiale di ChatGPT. La percentuale di conoscenza più alta da parte del modello di IA, preparatissimo anche sui grandi classici, riguarda libri di fantascienza e fantasy. In cima alla lista ci sono Harry Potter e la pietra filosofale di J.K.Rowling e 1984 di George Orwell; a seguire testi che hanno fatto la storia come Il Signore degli Anelli, Fahrenheit 451, Il mondo nuovo ma anche Neuromante di William Gibson e Il cacciatore di androidi di Philip K. Dick che, ironia della sorte, sono stati tra i primi a suonare il campanello d'allarme sull'intelligenza artificiale.
Per Bamman, i quesiti che ne conseguono sono: "Cosa succede quando un bot divora narrativa su tutti i tipi di mondi oscuri e distopici? In che modo questo genere può influenzare il comportamento di questi modelli in modi che non riguardano cose letterarie o narrative? C'è molto lavoro da fare in questo senso. Non abbiamo ancora la risposta a questa domanda". Il ricercatore spiega che per avere una risposta bisognerebbe accedere ai set di dati dei programmatori di software d'intelligenza artificiale. Cosa che al momento non avviene anche da parte di OpenAI, la società che ha lanciato ChatGPT, nonostante il suo capo Sam Altman almeno pubblicamente abbia chiesto al Congresso americano di regolamentare la sua attività.
Intanto, in Italia nascono interrogativi sull'applicazione del nuovo algoritmo di AI che il Dipartimento di pubblica sicurezza sta elaborando allo scopo di anticipare i reati. Si tratta di Giove: Il primo sistema di "polizia predittiva" basato sull'AI e destinato alle questure di tutta Italia per "prevenire e reprimere" i reati a maggior impatto sociale. Furti, rapine, molestie sessuali ma anche terrorismo. Con Giove dovrebbe diventare più semplice orientare il dispiego di forze dell'ordine, da distribuire nei luoghi in cui è più probabile che avvenga un crimine.
Tuttavia uno scenario simile a "Minority Report", celebre film con Tom Cruise, può far paura. Evitare pregiudizi e discriminazioni, come anche tutelare la privacy e la libertà personale, rappresentano le sfide moderne della legislazione mondiale. Il tema della polizia predittiva è stato uno dei più dibattuti anche in ambito europeo. Verso l'approvazione in Parlamento Ue c'è l’AI act, che regolerà anche questa materia. L'impatto di Giove in Italia, nel frattempo, sarà valutato dal Garante della privacy. Il sistema potrebbe essere operativo già tra un anno. La sperimentazione di un sistema di polizia predittiva è stata già effettuata in passato dalla Questura di Milano, che per anni a partire dal 2008 si è servita del software Keycrime.