Si insedia a Dublino un team che parla tutte le lingue dell'Unione, con il compito di proteggere il dibattito politico da influenze estere, troll e fake news
© lapresse
Facebook ha presentato la "war room" europea per combattere la disinformazione in vista delle elezioni europee di fine maggio. Il quartier generale ha sede a Dublino e conta un team di 40 supervisori capaci di comprendere le 28 lingue dell'Unione europea, coadiuvati da un gruppo di esperti di fake news. Il loro compito sarà quello di sondare il social e "ripulirlo" da influenze politiche, profili fake e troll.
La "war room" europea è la riproposizione di quella che fu istituita a fine 2018 per salvaguardare la genuinità del dibattito politico durante le elezioni di midterm americane, il primo grande appuntamento elettorale statunitense dopo gli scandali che caratterizzarono la campagna elettorale di Trump nel 2016.
La tattica adottata da Facebook in America si è rivelata efficace: in un solo anno sono stati eliminati quasi tre miliardi di utenti falsi, oltre ad aver cancellato innumerevoli fake news. Ad individuare le attività sospette, oltre alle classiche segnalazioni degli utenti, ci pensa un'intelligenza artificiale che analizza costantemente i miliardi di dati inviati quotidianamente sul sito web e li filtra secondo determinate parole chiave. Il team della war room vaglia infine i contenuti selezionati dal filtro e decide se sanzionarli.
I dati resi pubblici indicano che, su tutti i contenuti analizzati e cancellati, il 90% è stato individuato automaticamente dal programma e il 10% è stato individuato grazie a segnalazioni di utenti. "In una situazione del genere - ha sottolineato Nathaniel Gleicher, responsabile della sicurezza informatica di Facebook - non basta una sola organizzazione. C'è bisogno del maggior numero possibile di persone concentrate sul problema", poiché "ci sono una serie di attori che vogliono manipolare il dibattito pubblico".
"Facebook si sta impegnando in prima linea per contrastare le fake news, dovrà diventare un network in cui il bene è amplificato e il male è mitigato" ha invece sottolineato Marc Zuckerberg, patron del social network, tre anni dopo aver definito "folle" la possibilità che l'opinione pubblica potesse essere influenzata da notizie false, all'indomani degli scandali Russiagate e Cambridge Analytica.
Il problema della disinformazione e dell'hate speech, però, non è legato solo a notizie false e programmi automatici. Spesso ci sono persone in carne ed ossa che alimentano il linguaggio dell'odio e creano influenze politiche attraverso sponsorizzazioni, commenti e interazioni con utenti ignari. Facebook li chiama "bad actors" e sono particolarmente difficili da individuare e sanzionare. Gleicher ha spiegato che "il nostro obiettivo è far perdere tempo ai bad actors mentre cercheranno di capire come superare i nostri filtri. In questo modo produrranno meno contenuti e li diffonderanno con maggiore lentezza".
La Spagna ha recentemente avuto un assaggio del sistema di controllo di Facebook in occasione delle elezioni amministrative: pochi giorni prima dell'appuntamento elettorale furono cancellate almeno 17 pagine legate a Vox, il partito di estrema destra, perché "diffondevano contenuti falsi e discorsi d'odio".L'intervento ha coinvolto una platea di quasi due milioni di persone iscritte ai network e, potenzialmente, soggette ad informazione manipolata.
La war room non sarà però aperta all'infinito. Dopo ogni elezione, infatti, la task force di Facebook si scioglie, cosa che accadrà anche nel caso del team di Dublino dedicato alle elezioni europee. Rimarranno invece sempre attivi i filtri e i controlli per contrastare la diffusione di fake news e influenze politiche.