Questo post potrebbe essere composto da poche righe. Gli utenti hanno dimostrato in larga scala (elezioni presidenziali degli Stati Uniti del 2016) di non essere in grado di distinguere contenuti autentici da fake news, e Facebook annuncia la volontà di dare priorità ai contenuti degli utenti e che saranno loro stessi a determinare l’attendibilità di una fonte: è uno scherzo? Se è evidente il problema delle persone nella comprensione della verità, perché affidare a loro la determinazione della stessa? Non è un po’ un autogol?
Cosa ha fatto Facebook, da Trump ad oggi, in materia di fake news
Oggi scorrevo le notizie tech sul mio profilo Feedly, e ho visto un post di Violet Blue su Mashable, dal titolo molto interessante: “Facebook’s fake war on fake news”. Proverò a riassumerlo rapidamente ma consiglio di leggerlo, perché è pieno di link ai post precedenti di riferimento e ai provvedimenti di Facebook nel tempo.
Il post ripercorre l’ultimo anno e mezzo di Facebook nella lotta alle fake news, tema scoppiato dopo l’elezione di Trump nel novembre 2016. Dopo le presidenziali, nonostante fossero stati ricevuti avvertimenti da parte del governo degli USA sulla diffusione delle fake news e dell’influenza sugli elettori di questa propaganda, Zuckerberg ha negato il fatto, affermando che il 99% dei contenuti su Facebook fosse autentico.
Poi, nel 2017, il casino: si verificano in tutto il mondo episodi di violenza razzista legati direttamente a fake news diffuse su Facebook. In risposta, Facebook decise di introdurre la possibilità di segnalare le fake news e un’etichetta (Disputed) attestante l’analisi della notizia da parte di organizzazioni selezionate da Facebook e che la stessa potrebbe essere non affidabile. In pratica determinate organizzazioni in partnership con Facebook effettuano fact-checking. La velocità del controllo però non era per niente ottimale, e in più l’etichetta poteva anche essere il classico bottone rosso da “non premere” che però ti viene voglia di premere, e premi.
Ad aprile 2017 Facebook afferma che in generale le fake news su Facebook sono diminuite. Ma non fornisce dati in merito, perché “È difficile per noi, perché non possiamo leggere ogni post pubblicato.” (traduzione mia). A luglio 2017 ricercatori di Oxford affermano che la propaganda in rete è oggi tra gli strumenti più potenti contro la democrazia, e Facebook ha un importante ruolo in merito.
Ad agosto 2017, Facebook annuncia che impedirà alle pagine che pubblicano notizie false di utilizzare la piattaforma per sponsorizzare post. Nonostante nei mesi Facebook abbia sempre cercato di minimizzare in fenomeno fake news, dietro interrogazione del congresso, Facebook ammette a settembre il ruolo della propaganda russa e l’utilizzo dell’advertising di Facebook per influenzare le elezioni del 2016. Nello stesso mese le organizzazioni che in passato diedero disponibilità per il fact-checking affermano che Facebook ha rifiutato di condividere con loro qualsiasi dato in merito alle attività, rendendo impossibile comprendere l’efficacia (o l’inefficacia) dell’attività stessa.
Dicembre 2017. Un anno dopo l’introduzione dell’etichetta Disputed, Facebook afferma che questo stesso strumento non è efficace. Così lancia gli articoli correlati, per favorire le fonti alternative, ma in realtà non è stata proprio una moss che ha migliorato la situazione fake news. Questo è tutto, o almeno è stato tutto sino a pochi giorni fa.
Priorità agli amici a discapito delle pagine
Pochi giorni fa il post su Facebook di Zuckerberg che tanto ha fatto parlare. Facebook darà priorità ai post degli amici rispetto a quelli delle pagine, a quei post più coinvolgenti. Facebook vuole aumentare la qualità dei contenuti e del tempo che ci passiamo. Ma in tema di informazione e fake news, praticamente, vedremo sempre meno contenuti pubblicati da media e organizzazioni, e più contenuti che, verosimilmente, andranno a rafforzare le nostre convinzioni. Meno varietà, sempre più forza all’echo chamber. La diffusione delle notizie false potrebbe essere molto forte con il cambiamento annunciato da Zuckerberg e che vedremo in pratica nei prossimi mesi.
In più, ancora più di recente, un altro annuncio (fonte Wired): Facebook farà segnalare agli utenti le fonti che ritengono attendibili. Perché Facebook non si sente a proprio agio decidendo cosa è affidabile e cosa no, né nel chiedere agli esperti, che non risolverebbero il problema dell’obiettività delle informazioni. Così, torniamo al problema iniziale. Io ti conosco, so per certo che non sai guidare una macchina standoci da solo dentro, allora decido di farti guidare, e che la tua guida influisca anche come guidano gli altri. Tutto logico, no?
Non ci sono commenti
Aggiungi il tuo