Facebook
Wiko

Il rapporto tra Facebook, il social network da oltre due miliardi di utenti fondato da Mark Zuckerberg, e le fake news sembra legato a doppio filo. La piattaforma è da anni al centro di discussioni in materia di disinformazione e spesso le è stata contestata una scarsità assordante nelle strategie per correggere alcuni problemi insiti nella sua struttura originale.

Fin dalle elezioni del 2016 e dall’affaire Cambridge Analytica, l’opinione pubblica e gli enti governativi USA non hanno smesso di contestare le pratiche attive dietro le porte chiuse del social, accusato di aver “pilotato” il voto degli americani che ha portato Donald Trump alla Casa Bianca.

Un momento estremamente divisivo negli Stati Uniti quello delle elezioni, mesi delicati in cui le informazioni che circolano su una piattaforma così vasta e dalla fruizione quotidiana sono fondamentali nella formazioni delle opinioni per alcuni segmenti demografici.

Un altro momento altrettanto delicato e, in qualche modo, divisivo, sono i mesi che stiamo vivendo. La pandemia scatenata dal Covid è anche la prima in cui Internet ha un ruolo così fondamentale nella quotidianità umana e in cui le informazioni giocano un ruolo di primo piano.

Il report di Avaaz

Un report di Avaaz ha sottolineato come lo scorso anno Facebook abbia registrato 3.8 miliardi di visualizzazioni di contenuti ingannevoli. Il movimento cittadino globale che monitora tali aspetti ha dichiarato che i siti web che contengono tali contenuti hanno ricevuto un numero di visualizzazioni circa 4 volte superiore rispetto a siti certificati come quello dell’Organizzazione Mondiale della Sanità (OMS).

All’inizio dell’anno, Facebook ha instaurato collaborazioni proprio con queste organizzazioni al fine di condividere con gli utenti informazioni corrette e puntuali e scacciare le ombre della disinformazione legata al covid. Pratiche che sicuramente avranno avuto un certo impatto, eppure Avaaz ha scoperto che contenuti ingannevoli in materia di salute hanno ricevuto 460 milioni di visualizzazioni ad Aprile 2020 e 3.8 miliardi durante lo scorso anno.

I dati di questo nuovo studio mettono in mostra la volontà di Facebook di porre un freno alla diffusione di questi contenuti, senza però arrivare davvero a un risultato concreto. Un pattern che sembra reiterato all’interno del perimetro del social: del resto è stato Zuckerberg stesso a esprimere la volontà di eliminare questi contenuti dalla propria piattaforma ma l’algoritmo, disegnato per accrescere l’engagement dei contenuti ritenuti “emozionali”, lascia ampio campo a queste pratiche.

Avaaz ha tentato di convincere Facebook ad assumere una posizione forte e azioni concrete per fermare la disinformazione, mettendo in luce pratiche scorrette durante le elezioni USA del 2016, la protesta dei Gilet Gialli in Francia e le elezioni spagnole. Facebook ha risposto rimuovendo account e cambiando le proprie politiche.

In particolare, in merito alle fake news legate al covid, Facebook ha messo in campo un sistema di alert che notifica retroattivamente all’utente di essere entrato in contatto con contenuti fuorvianti. Una pratica giudicata promettente da Avaaz, ma ritenuta troppo sporadica per essere davvero efficace. Per esempio, spesso agli utenti viene notificato di essere entrati in contatto con contenuti fuorvianti, ma non viene specificato quali contenuti fossero né qual è invece l’informazione corretta.

Quello che Avaaz suggerisce è un vero e proprio “detox” dell’algoritmo, che tagli dell’80% la reach dei post (il numero di persone a cui un post viene mostrato) ingannevoli. Anche perché è noto che l’algoritmo di Facebook predilige quei contenuti divisivi che generano emozioni e discussioni. Il problema dunque sembra risiedere nel cuore della piattaforma, nella sua stessa natura. Ammetterlo e sviluppare una strategia correttiva significherebbe per Zuckerberg rimettere in discussione tutta la struttura di Facebook. Inoltre, la pratica del social di cancellare account e contenuti, sempre secondo Avaaz, darebbe solo la possibilità ad alcuni di modificare la narrativa dei fatti e parlare di censura.

I dati dei contenuti fuorvianti legati alla salute su Facebook

Prendendo in esame i contenuti ingannevoli legati alla salute, Avaaz ha scoperto che Facebook ha identificato come fuorvianti – e l’ha quindi notificato agli utenti – solo il 16% degli stessi. Il restante 84% non riportava nessuna indicazione in merito.

Tali contenuti comprendono articoli quali:

  • 8.4 milioni di visualizzazioni per una storia che sosteneva che un programma di vaccinazioni contro la polio sostenuto da Bill Gates ha portato alla paralisi mezzo milione di bambini in India.
  • 4.5 milioni di visualizzazioni di storie legate a cure fasulle.
  • 2.4 milioni di visualizzazioni di articoli e contenuti che diffondevano false affermazioni riguardo l’efficacia della quarantena.
  • 13.4 milioni di visualizzazioni per un post che metteva in relazione le reti 5G e problemi di salute.

Queste storie vengono condivise da siti web come RealFarmacy.com, che ha più di un milione di follower sulla sua pagina Facebook e GreenMedInfo, che ha oltre 540mila followers.

Sono pagine fondamentali nella condivisione di contenuti fuorvianti, responsabili del 43% delle visualizzazioni degli stessi. Avaaz ha identificato 42 account Facebook che condividono contenuti ingannevoli in materia di salute: combinati, hanno 28 milioni di follower. Questi siti e questi account di solito interagiscono tra loro per amplificare il loro messaggio e rendere complicato per Facebook tenere sotto controllo le condivisioni dei loro contenuti.

Il fatto che questi siti siano attivi da molti anni e condividano i propri contenuti non in gruppi chiusi ma su Pagine pubbliche, è lo specchio più impietoso della difficoltà di Facebook a debellare il virus della disinformazione una volta per tutte.