Le crescenti preoccupazioni per gli attacchi terroristici mettono sotto pressione le piattaforme di social networking. Un gruppo di avvocati britannici ha definito come “allarmante” il fatto che aziende come Facebook, Twitter e YouTube di Google abbiano team di poche centinaia di persone per monitorare possibili contenuti estremisti su miliardi di account.

Queste aziende si nascondono dietro il loro status giuridico sovranazionale per sottrarsi alle loro responsabilità e rifiutare di agire in modo responsabile nel caso in cui un intervento danneggi i loro brand”, si legge nel report pubblicato dall’Home Affairs Committee nominato dalla Camera dei Comuni inglese.

Il report individua in Internet, utilizzato come strumento per promuovere la radicalizzazione e il terrore, una delle più grandi minacce per diversi paesi, tra cui il Regno Unito, e accusa Twitter per non aver segnalato in modo proattivo alle forze dell’ordine contenuti estremisti.

Il comitato che ha redatto il report definisce come una “goccia nel mare” i 125.000 account (legati a terroristi) sospesi da Twitter tra la metà del 2015 e il febbraio 2016, e i 14 milioni di video rimossi da Google nel 2014 per diversi tipi di abuso.

Il rapporto riflette la crescente preoccupazione per l’uso dei social network da parte di gruppi terroristici come il gruppo dello Stato Islamico, noto come Isis, per propaganda, comunicazione e reclutamento. “Siamo impegnati in una guerra a tutto campo contro il terrorismo. La moderna linea del fronte è Internet”, ha detto Keith Vaz, membro del Parlamento e presidente del comitato. “I suoi forum, bacheche e piattaforme di social media sono la linfa vitale di Daesh e di altri gruppi terroristici per il reclutamento, il finanziamento e la diffusione dell’ideologia”.

In risposta alle questioni sollevate dal gruppo britannico, le società hanno dichiarato di avere personale che che cerca manualmente i contenuti potenzialmente estremisti presenti online e decide se cancellarli e sospendere gli account. Twitter ha detto di aver “più di cento” persone dedicate a questo lavoro, mentre Facebook e Google non hanno fornito un numero.

I terroristi e il sostegno di attività terroristiche non sono ammessi su Facebook e noi gestiamo queste questioni in modo tempestivo e deciso, con segnalazioni dei contenuti connessi al terrorismo”, ha dichiarato via mail Simon Milner, director of policy di Facebook UK. “Nei rari casi in cui identifichiamo account o materiale terroristico, cerchiamo e rimuoviamo anche account e contenuti associati”.

YouTube ha detto che rimuove i contenuti che incitano alla violenza, sospende gli account gestiti da gruppi terroristici e risponde alle richieste legali per la rimozione di contenuti che infrangono le leggi nazionali.

Twitter non ha commentato direttamente il report, ma ha recentemente dichiarato che, a partire dalla metà del 2015, ha sospeso 360.000 account che violavano le sue politiche relative alla promozione del terrorismo. Lo scorso febbraio la società ha dichiarato che, come hanno notato anche altre aziende ed esperti, non c’è un “algoritmo magico” per identificare i contenuti terroristici su Internet.

Lo scorso maggio Facebook, Google, Microsoft e Twitter si sono accordate per attivare un processo per la ricezione e la revisione di notifiche sulle espressioni di odio online da parte di utenti dell’Unione Europea sulle loro piattaforme. L’obiettivo è riuscire a valutare entro 24 ore le “notifiche valide” e intervenire tempestivamente con la rimozione di contenuti o la sospensione di account.

Le società di social networking stanno anche affrontando cause legali negli USA per i contenuti terroristi trovati sui loro siti. In una di queste cause, depositata presso un tribunale federale della California, il padre di una vittima dell’attacco terroristico dello scorso novembre a Parigi accusa Twitter, Facebook e Google di aver consapevolmente consentito all’Isis di utilizzare le loro reti social “come strumento di propaganda estremista, raccolta di fondi e attrazione di nuove reclute”.