La censura su Facebook (e non solo): una testimonianza
di Paolo Becchi
Cosa è la Rete? Il luogo in cui il pensiero libero, quello fuori dal coro, riusciva ancora ad esprimersi, e a volte come è successo a me nel mese di agosto diventare per qualche giorno virale, battendo con le notizie sulla crisi di governo tutti i vecchi mezzi di informazione. È nella Rete che era nato, giusto dieci anni fa, per volontà di Gianroberto Casaleggio il M5s, ora sepolto da Beppe Grillo nel Palazzo. Ma oggi anche quello spazio aereo di libertà ci viene sottratto. E se per caso non è la Rete a censurare ci pensano le istituzioni accademiche a farlo. È quello che è accaduto di recente a Marco Gervasoni, docente di Storia comparata dei sistemi politici, allontanato dalla Luiss per aver rilanciato con commento un tweet di Giorgia Meloni sul tema della immigrazione clandestina. Una vergogna, per non dire di peggio.
Ma vorrei anzitutto raccontarvi quello è successo a me, a dire il vero non me ne sarei neppure accorto se non fosse che chi cura gratis, per amicizia, la mia pagina Facebook è un giovane studente di ingegneria molto esperto. Dal 30 agosto al 6 settembre la mia pagina Facebook, circa 20mila seguaci, è stata sottoposta a quello che tecnicamente viene chiamato «shadow-ban», una delle tante misure censorie adoperare dal social network più diffuso al mondo per oscurare i post degli utenti che non rispettano gli «standard della community», ovvero per coloro che diffondono ciò che viene definito «linguaggio d’odio». Una misura a cui molti sono sottoposti. Di recente, ad esempio, è successo a «Sentinelle In Piedi», una Associazione che si batte per la difesa della famiglia tradizionale e del diritto alla vita.
Nel mio caso specifico, per non meglio precisate ragioni, l’algoritmo di Facebook ha deciso di rendere i miei post “invisibili” ai lettori. La mia pagina non è stata disabilitata, né i miei post pregressi eliminati. Potevo continuare a scrivere ciò che volevo, ma per una settimana i miei messaggi sono rimasti confinati alla mia bacheca senza che potessero raggiungere il centro dell’agorà, vale a dire la «home di Facebook». Così, le visualizzazioni dei singoli post sono di colpo crollate da 50mila utenti in media raggiunti da un singolo post in un giorno, con picchi di 200.000 visualizzazioni per alcuni post scritti sulla crisi di governo, a poche decine di utenti (i lettori più fidelizzati che di loro sponte hanno cercato la mia bacheca nel mare magnum dei flussi digitali).
Vi sono vari livelli di censura. Il più grave è l’eliminazione della pagina tout court, come è avvenuto di recente a CasaPound, Forza Nuova e Donald Trump Italian Fan Club, evidentemente per motivi politici, oppure cancellando, senza alcuna motivazione, pagine molto seguite di satira politica, come, ad esempio, ArsenaleKappa (con 120.000 followers) e successivamente TankDifferent. E la stessa sorte è toccata alle vignette di Alfio Krancic, mentre Socialisti gaudent pagina cult della sinistra italiana tra satira e politica risulta «nascosta». Neppure la satira, se non è mainstream, ha diritto di esprimersi. In questi giorni la pagina di Vox Italia, il nuovo partito sovranista ispirato ideologicamente da Diego Fusaro, è stata «temporaneamente» nascosta, perché violava non si sa bene quali standard della community, o solo perché stava crescendo troppo rapidamente? Basta poi, come è successo a Paolo Borgognone, un giovane ricercatore autore di valide pubblicazioni, presentare i propri libri anche in CasaPound per essere schedati da Facebook e sottoposti a censura per «incitamento all’odio». Di tutti questi casi e di altri ancora si è occupato «byoblu», uno dei siti di controinformazione più importanti in Italia, diretto da Claudio Messora.
Vi sono poi casi in cui l’algoritmo decide di eliminare un post perché sono presenti in esso parole «d’odio» come «culo». Non so bene il «culo» (o il «cazzo») cosa possono avere a che fare con l’odio, credevo avessero che fare con l’amore. Forse per il via del «vaffan», bisognerebbe chiederlo all’algoritmo. Per il «culo» se la sono presa persino con Vittorio Sgarbi.
Vi sono altri casi in cui l’algoritmo interdice un utente impedendogli di scrivere per un determinato lasso di tempo. È successo alla caporedattrice di Sputnik Margarita Simonyan e a Marcello Veneziani, a cui è stato interdetto di pubblicare per tre giorni, a causa della parola «negro» nel titolo di un articolo. Ci auguriamo che Vittorio Feltri, direttore di Libero, non sia su Facebook perché lo avrebbero «bannato» a vita.
Poi c’è la censura meno invasiva, ma forse per questo più subdola, che è quella che ho subito io. Impossibile rendersene conto per chi non è pratico e non sa consultare gli strumenti di analitica messi a disposizione dall’app di Facebook. Questo social mette a disposizione di ciascun utente una bacheca, da cui far partire un messaggio verso l’agorà pubblica costituita dai propri amici (nel caso di profilo privato) o seguaci (nel caso di profilo pubblico). Più il messaggio è efficace, più viene rilanciato dagli utenti nell’agorà, più diventa virale. Ma ad un certo punto, se stai avendo successo, arriva l’algoritmo che, autonomamente, dispone le indagini su ciò che pubblichi («linguaggio d’odio»), redige i capi d’accusa («hater», «odiatore», diffusore di odio o di fake news), ed emette la sentenza (censura): i messaggi rimangono sulla bacheca della tua pagina personale, ma non vanno più nell’agorà. Puoi ancora parlare, ma nessuno può più sentirti. Ti hanno messo il silenziatore e neppure senza informarti perché lo hanno fatto. Ma poi chi veramente deciso?
Questo è inquietante. Noi pensiamo che a decidere sia la carne, la carne umana e ci sbagliamo; oggi le decisioni le prendono autonomamente le macchine con i loro algoritmi. È l’intelligenza artificiale che supera quella umana, una intelligenza costruita però – mi scuserà l’algoritmo se per caso dovesse leggere questo articolo – per mettertelo nel «culo».
Dicono: Facebook è una azienda privata, può fare quello che vuole. Piattaforme private che hanno un grosso potere nella comunicazione e costituiscono di fatto un monopolio in effetti fanno quello che vogliono: chiudono canali di partiti o bloccano, come è successo qualche settimana fa, gli account dell’ex Presidente della Repubblica cubana. Piattaforme che offrono un servizio pubblico, e Facebook è la maggiore «agorà mondiale», se vogliono operare in Italia dovrebbero però rispettare le nostre leggi e la nostra Costituzione, la quale garantisce a tutti il diritto di manifestare liberamente il proprio pensiero, con la parola, lo scritto e «ogni altro mezzo di diffusione». E questo dovrebbe valere, a maggior ragione, anche per le università, pubbliche o private che siano. Accusano i sostenitori del «sovranismo» di essere a favore di una democrazia illiberale, ma a quanto pare è piuttosto il neoliberalismo tuttora imperante ad essere diventato totalitario, invadendo persino lo spazio della Rete, un tempo considerato il luogo in cui ci si poteva esprimere con la massima libertà, sulla base di una interpretazione estensiva del Primo Emendamento della Costituzione degli Stati Uniti.
****
Del resto, per comprendere quanto il tema sia centrale, si ricordi che il problema della gestione dei contenuti d’istigazione all’odio sul web e sulle piattaforme è studiato da oltre vent’anni. Si tratta di un tema complicatissimo e assai scivoloso. Per un approfondimento non posso qui che rinviare al bel libro di Giovanni Ziccardi, L’odio online. Violenza verbale e ossessioni in rete (Milano, Raffaello Cortina Editore, 2016). I punti in discussione da tempo, e che coinvolgono tecnici, giuristi e politici, sono essenzialmente i seguenti. Alcuni di questi sono anche emersi dai fatti che ho appena raccontato.
Il primo è se si possa parlare letteralmente di «censura» e di violazione della libertà d’espressione quando non è lo Stato a intervenire, ma «semplici» società private. Non sarebbe, in fin dei conti, un loro diritto, ben esplicitato nelle policies e nei regolamenti interni (e anche contrattualmente), fare ciò che desiderano con i contenuti che ospitano?
Il secondo, al contrario, è che è vero che non sono Stati ad intervenire, ma le piattaforme hanno assunto oggi un «interesse pubblico». E se e così perché dovrebbero essere libere di fare ciò che fanno, se il servizio che oggi offrono ha assunto appunto un interesse pubblico?
Il terzo riguarda il fatto che vi sia una segretezza assoluta nei criteri utilizzati per rimuovere contenuti d’istigazione all’odio. Non sono procedure trasparenti, nessuno conosce i parametri utilizzati. Sono, quindi, assolutamente discrezionali.
Il quarto punto solleva questioni di questo tipo: dove sono i confini, in questa azione, tra odio, istigazione all’odio e parlato «violento» ma ammesso? Li stabiliscono giovani ventenni che prendono decisioni in pochi secondi seguendo una lista per punti ed esempi, o ci sono decisioni più meditate ai vertici e, magari, stimolate da indagini o da influenze politiche? Insomma dietro l’algoritmo chi c’è?
Il quinto punto solleva il problema, e la domanda, su perché le piattaforme siano al centro di questo tema dell’odio e non lo siano lo Stato, o più in generale la società. Perché lo Stato ha abdicato completamente al ruolo di «regolatore» dell’odio e le piattaforme possono agire liberamente e senza controlli/vincoli svolgendo il ruolo di legislatore, giudice ed esecutore? Dedicare tanta attenzione alle responsabilità delle piattaforme non porta a non vedere il problema reale, che è nella organizzazione politica e sociale?
Il sesto punto coinvolge il fatto che l’istigazione all’odio e l’attacco a gruppi deboli e di minoranza sia un problema sociale, mentre spesso l’«odio» è soprattutto un sentimento privato. Come si fa a distinguere, in un quadro così complesso, quando l’istigazione all’odio è un problema sociale e, quindi, occorre intervenire e quando, invece, è solo un problema personale?
Un aspetto più tecnico, il settimo, ci fa domandare come si faccia, in concreto, a operare «chirurgicamente» evitando la cancellazione o la sospensione di profili o contenuti che sono in realtà legittimi? L’intervento dell’uomo (che valuti) è pensabile in un quadro con miliardi di contenuti nuovi ogni giorno? E se alla fine non decide l’uomo ma una macchina non è questo un problema piuttosto serio?