Gli eventi recenti mostrano come Facebook – già sostenitore delle leggi sulla blasfemia – continui la sua "censura stile sharia" di tutti i contenuti che gli sembrerebbero contrari ai suoi "standard comunitari".
Un articolo pubblicato dal Wall Street Journal l'8 gennaio ha rilevato che i dirigenti di Facebook – e di Twitter – avevano rimosso dalle loro piattaforme l'attivista Laura Loomer dopo le lamentele di Zahra Billoo, direttrice esecutiva del Consiglio delle relazioni islamico-americane (CAIR) presso la sede di San Francisco. Facebook, tuttavia, ha omesso di rivelare che il CAIR è stato un complice non incriminato nel più grande caso di finanziamento del terrorismo nella storia degli Stati Uniti. Gli Emirati Arabi Uniti inoltre considerano il CAIR un'organizzazione terroristica.
Non dovrebbe però sorprendere che i dirigenti del Consiglio delle relazioni islamico-americane siano in grado di esercitare tale potere sui social media. Secondo Sam Westrop di Islamist Watch:
"Dal 2008, la Silicon Valley Community Foundation (SVCF) ha erogato 330.524 dollari a due organizzazioni islamiste, il Council on American-Islamic Relations (CAIR) e l'Islamic Relief (...) La SVCF, con un patrimonio di oltre 8miliardi di dollari, è la più importante fondazione comunitaria americana. Alcune delle più grandi aziende tecnologiche statunitensi sono partner della Fondazione. Con una donazione di 1,5 miliardi di dollari, Mark Zuckerberg, fondatore di Facebook, è il principale donatore della SVCF".
In altre parole, la Silicon Valley sembra avere l'abitudine di sostenere finanziariamente gli islamisti.
Secondo Jihad Watch, la stessa Billoo, "nei tweet che continuano a essere disponibili pubblicamente (...) ha espresso il suo sostegno al califfato islamico e alla legge della sharia. E in molti tweet ella afferma che l'Isis è sullo stesso piano morale dei soldati americani e israeliani, aggiungendo che 'le nostre truppe sono impegnate nel terrorismo'".
Anche a gennaio, Facebook ha rimosso dalla pagina Fb di Political Gamers UK le inserzioni a favore della petizione, promossa dal movimento "Britain First", contro la ristrutturazione e l'ampliamento di una moschea del Regno Unito. "Britain First" ha annunciato che avrebbe citato in giudizio il gigante dei social media per "discriminazione politica".
Questi due recenti casi di censura su Facebook sono tutt'altro che un'eccezione. Nel 2018, gli episodi di censura più eclatanti su Fb sono stati i seguenti:
Il sito web di informazione Voice of Europe ha riportato di essere stato ripetutamente censurato a causa di articoli che riflettevano la posizione critica di uomini politici dell'Europa centrale e orientale nei confronti dei flussi migratori. Un esempio è costituito da una recensione del libro dell'ex presidente ceco Vaclav Klaus, Europe All Inclusive, in cui egli afferma: "L'afflusso di migranti è paragonabile alle invasioni barbariche dell'Europa". Voice of Europe ha deciso di non pubblicare più "tutte le notizie su Facebook perché non vogliamo perdere la nostra pagina".
Michael Hesemann, storico e scrittore cattolico tedesco, si è visto cancellare i suoi commenti sul ruolo storico dell'Islam in Europa perché non erano conformi agli "standard comunitari" di Facebook. Hesemann aveva scritto: "L'Islam ha sempre giocato un solo ruolo nei 1700 anni di storia dell'Occidente cristiano: quello della spada di Damocle che pendeva sopra di noi, la minaccia delle barbarie contro cui bisognava unirsi e combattere. In questo senso, l'Islam non fa parte della storia tedesca...".
Jamie Glazov, caporedattore di FrontPage Magazine, è stato bannato per 30 giorni da Facebook per aver postato gli screenshot delle minacce che certi musulmani gli avevano rivolto. In un'altra occasione, Facebook lo aveva bloccato per 30 giorni, perché aveva pubblicato il giorno del 17° anniversario dell'11 settembre un articolo su come evitare altri 11 settembre, titolato "9 Steps to Successfully Counter Jihad" ("Nove misure per contrastare con successo il jihad"). (Più di recente, un altro gigante dei social media, Twitter, ha ammonito Glazov che il suo nuovo libro, Jihadist Psychopath: How He Is Charming, Seducing, and Devouring Us, viola il codice penale pakistano, secondo cui Glazov pare stia "profanando il Sacro Corano". Per il momento, Twitter non si è ancora pronunciato, ma l'episodio mostra chiaramente che il social media è disposto a prendere in considerazione la legge della sharia.)
Facebook ha chiuso la pagina dell'imam australiano Mohammad Tawhidi colpevole di aver "dileggiato con un post il gruppo terroristico Hamas e di aver parlato con sarcasmo delle 'pacifiche proteste palestinesi'".
Facebook ha bloccato permanentemente la pagina della branca europea del movimento giovanile anti-immigrati Generation Identity per i suoi "contenuti estremisti".
Facebook ha censurato un post che criticava il trattamento che l'Islam riserva agli omosessuali affermando che era un "discorso di incitamento all'odio" e ha bannato per 30 giorni il direttore del sito web Politicalite, autore dell'articolo.
Facebook blocca regolarmente i post di Jihad Watch, il sito web dello storico e autore Robert Spencer. È successo, ad esempio, a settembre e a dicembre.
I casi sopracitati non sono che una piccolissima parte degli episodi pubblicizzati che interessano un certo numero di utenti di Fb che hanno grande visibilità pubblica. I profili delle persone meno conosciute vengono bloccati continuamente. Ad esempio, Joachim Nikolaus Steinhöfel, avvocato, giornalista e attivista anti-censura, gestisce un sito web che documenta la censura attuata da Fb solo in Germania. Secondo le stesse statistiche di Facebook, il social media ha rimosso in media 288mila post al mese in tutto il mondo.
Questo non dovrebbe sorprendere – Fb, ad esempio, è firmatario di un Codice di condotta della Commissione europea per contrastare le forme illegali di incitamento all'odio online, che obbliga il gigante dei social media a esaminare e a rimuovere nel giro di 24 ore "le forme illegali di incitamento all'odio". Il vicepresidente delle politiche pubbliche di Facebook, Richard Allan scriveva nel 2017:
"Noi definiamo i discorsi di incitamento all'odio come un attacco contro una persona sulla base di quelle che si chiamano 'caratteristiche protette' – razza, appartenenza etnica, origini nazionali, appartenenza religiosa, orientamento sessuale e di genere, disabilità o gravi malattie.
"Non esiste una risposta universalmente accettata alla domanda 'quando qualcosa oltrepassa il limite'...
"Talvolta, è ovvio che qualcosa può considerarsi una forma di incitamento all'odio e deve essere rimossa, perché si tratta di una istigazione diretta alla violenza contro delle caratteristiche protette, o di parole che degradano o disumanizzano una persona. Se identifichiamo delle minacce credibili di violenza imminente contro qualcuno, come quelle proferite violando una caratteristica protetta, segnaliamo altresì l'informazione alle forze dell'ordine locali".
Facebook, tuttavia, sembra essere "creativamente" selettivo nel modo in cui sceglie di applicare le proprie regole. Rimuove, ad esempio, "i contenuti che glorificano la violenza o celebrano la sofferenza o l'umiliazione altrui". In Svezia, però, Ahmad Qadan ha proceduto regolarmente – sulla sua pagina Fb – a chiedere donazioni a favore dell'Isis. I suoi messaggi sono rimasti online per due anni. Facebook si è limitato a cancellare i post dopo l'intervento del Servizio di sicurezza svedese (Säpo). Nel novembre del 2017, Ahmad è stato condannato a sei mesi di prigione perché ritenuto colpevole di aver utilizzato Facebook allo scopo di raccogliere fondi per finanziare l'acquisto di armi per gruppi terroristici come lo Stato islamico e Jabhat al-Nusra e per aver pubblicato messaggi che invocavano "gravissimi episodi di violenza da perpetrare sostanzialmente o in maniera sproporzionata contro i civili con l'intenzione di creare terrore nella popolazione".
Facebook ha risposto dicendo: "In alcune occasioni commettiamo errori. Quando ciò accade, li correggiamo non appena ne veniamo a conoscenza".
A settembre, i media canadesi hanno rivelato che Zakaria Amara, capo di un'organizzazione terroristica di Toronto, che sta attualmente scontando una condanna a vita per aver pianificato attentati con camion in stile al-Qaeda nel centro di Toronto, aveva una pagina Facebook sulla quale pubblicava foto della prigione e riflessioni sul suo percorso di terrorista. Solo dopo che i media canadesi avevano chiesto a Fb informazioni sull'account, il social media ha cancellato il profilo di Amara "per violazione dei nostri standard comunitari".
In Francia, un detenuto identificato come Amir è stato accusato a novembre di aver utilizzato un telefono di contrabbando per postare dalla sua cella dei testi di propaganda a favore dell'Isis. Facebook, a quanto pare, non ci ha fatto caso.
Più di recente, in Germania, Frank Magnitz, un parlamentare del Partito Alternativa per la Germania (AfD), è stato vittima di una violenta aggressione, che il suo partito ha definito come un "tentato omicidio". Un gruppo tedesco "Antifa", Antifa Kampfsausbildung, ha postato "grazie" in risposta all'attacco. Facebook ha rilevato che il sostegno del gruppo alla violenza contro un membro del parlamento era perfettamente conforme ai suoi "standard".
Forse la selettività di Facebook è dovuta a un certo numero di alleanze manifeste. Nel luglio del 2017, Joel Kaplan, vicepresidente delle politiche pubbliche di Facebook, avrebbe promesso al ministro dell'Interno pakistano Chaudhry Nisar Ali Khan di "rimuovere i falsi account e i contenuti espliciti, pieni di odio e provocatori che incitano alla violenza e al terrorismo".
"Il portavoce ha detto che nel corso di una conversazione con il vicepresidente di Facebook, Nisar aveva affermato che l'interna umma musulmana era profondamente turbata e vivamente preoccupata dall'utilizzo improprio delle piattaforme dei social media per diffondere contenuti blasfemi. (...) Nisar ha dichiarato che il Pakistan apprezzava la comprensione mostrata dai dirigenti di Faebook e la loro cooperazione estesa a tali questioni".
L'amministratore delegato di Facebook Mark Zuckerberg sembra più che mai incline alla censura. In una recente nota, scritta nel linguaggio oscuro e noioso dei burocrati, il Ceo di Fb ha illustrato la sua strategia di dissuasione dei "contenuti al limite", un concetto privo di senso per designare tutto ciò che Zuckerberg e Facebook potrebbero mai voler censurare. Ecco come lo definisce Zuckerberg:
"Uno dei principali problemi che i social network si trovano a dover affrontare è che, se lasciate senza controllo, le persone interagiranno in modo sproporzionato con i contenuti più provocatori e sensazionalistici. (...) Su larga scala, ciò può minare la qualità del dibattito pubblico e portare alla polarizzazione. Nel nostro caso, si può anche degradare la qualità dei nostri servizi.
"La nostra ricerca mostra che, a prescindere da dove noi poniamo il limite a ciò che è consentito, se un contenuto si avvicina a quel limite, le persone tenderanno a interagire con esso...
"Questo è un problema basilare che noi possiamo affrontare penalizzando un contenuto borderline così che questo sia meno condiviso e susciti meno coinvolgimento. Dando alla curva di distribuzione l'aspetto del grafico sottostante, dove la distribuzione diminuisce man mano che il contenuto diventa più sensazionalistico, le persone sono disincentivate dal creare un contenuto provocatorio che sia il più possibile vicino al limite.
"È interessante notare che la nostra ricerca ha rilevato che questo modello naturale di contenuto borderline che suscita maggiore interesse si applica non solo alle notizie, ma a quasi ogni categoria di contenuti. Ad esempio, le foto prossime alla nudità, come gli indumenti rivelatori o le posizioni sessualmente allusive, generavano un vivo interesse prima che noi modificassimo la curva di distribuzione per scoraggiare questo fenomeno. Lo stesso dicasi per i post che non rientrano nella nostra definizione di incitamento all'odio, ma restano offensivi.
"Questo schema può essere applicato ai gruppi a cui le persone aderiscono e alle pagine che seguono. È particolarmente importante tenere conto di questo perché, mentre i social network in generale espongono le persone a punti di vista più disparati, e mentre i gruppi in generale incoraggiano l'inclusione e l'accettazione, i gruppi e le pagine disgreganti possono alimentare la polarizzazione. Per risolvere il problema, dobbiamo applicare queste modifiche nella distribuzione non solo al feed ranking, ma a tutti i nostri sistemi di raccomandazione delle cose alle quali voi dovreste aderire".
E curioso che Zuckerberg abbia presentato la sua idea di disincentivare i "contenuti al limite" come qualcosa di nuovo, quando, in effetti, è una regola ferrea di Facebook da almeno diversi anni. Nel novembre del 2017, ad esempio, "il traffico verso Jihad Watch dalla pagina di Facebook è crollato improvvisamente del 90 per cento e non si è mai ripreso", come afferma il creatore del sito, Robert Spencer.
A quanto pare, Facebook continua a sostenere le leggi sulla blasfemia.
. È Distinguished Senior Fellow presso il Gatestone Institute.