Facebook può influenzare la realtà?

Facebook è il social usato da circa 22 milioni di italiani.
La maggior parte di questi si collegano alle pagine di questo Social Network almeno una volta al giorno.

Con questo articolo, vogliamo analizzare, alla luce del funzionamento della piattaforma stessa e dall'uso che se ne fa, quale possa essere il condizionamento che gli utenti possono avere dall'uso del social network.

La questione verrà analizzata, non dal punto di vista morale, ma da addetti ai lavori.
Gli spunti per scrivere questo articolo provengono dagli articoli di alcuni giornali che in alcuni casi hanno attribuito a Facebook la vittoria di Trump alle elezioni americane, in altri sostengono che la macchina del fango agisca illecitamente per promuovere il NO nel referendum costituzionale del 4 dicembre.

Partiamo dalla fine, ovvero dalla risposta al quesito:
Facebook influenza le scelte delle persone

Questo è d'altronde naturale, ognuno di noi viene influenzato dalle opinioni delle persone che frequentiamo, siamo influenzati dai giornali o dai libri che leggiamo, e sicuramente qualsiasi cosa ci circonda ci permette di riflettere su questioni che ci stanno più o meno vicine.
Basti pensa a quanti di noi sono stati ispirati dalla vista di un cielo stellato, da un panorama mozzafiato, dalla bellezza di una donna.

Se dunque non c'è nulla di cui stupirsi nello scoprire che Facebook influenza il nostro modo di pensare, andiamo a comprendere in che modo questo avvenga.

Ognuno di noi è connesso tramite Facebook a diverse persone (o pagine), si va dalle poche decine alle diverse centinaia (nella maggior parte dei casi), fino ad arrivare a numeri di connessioni nel rango delle migliaia. Tuttavia è nella realtà impossibile riuscire a seguire gli aggiornamenti di un così elevato numero di connessioni.
Sin dalla nascita Facebook ha dunque dovuto fare i conti con un problema rilevante:

"Come fare filtrare la mole enorme di dati che ogni utente dovrebbe ricevere, facendo in modo che l'esperienza dell'utente sia la più soddisfacente possibile?"

In questo senso, sebbene con aggiornamenti degli algoritmi sempre più raffinati, Facebook cerca di fare esattamente quello che fa il nostro cervello quando ci troviamo in un luogo affollato.

Quando ci troviamo in un luogo con moltissime persone il nostro cervello per prima cosa filtra tutte le conversazioni, questo genera un rumore di fondo indistinguibile. Tuttavia se percepiamo una parola per noi chiave, riusciamo a selezionare quella singola conversazione per seguirla con attenzione, se l'interesse prosegue restiamo concentrati e forse ci avvicineremo alla fonte per ascoltare meglio, viceversa se comprendiamo si sia trattato di un falso allarme, distogliamo velocemente l'attenzione alla ricerca di nuove fonti di interesse.
È abbastanza chiaro che il nostro interesse è influenzato sulle esperienze passate, per cui se fra tutte le persone ve ne è qualcuna particolarmente aderente al nostro modello ideale di riferimento, la nostra attenzione andrà in quella direzione.
Inoltre se notiamo un capannello di persone, la nostra curiosità tenderà ad essere attratta in quella direzione.

Durante una sessione Facebook avviene più o meno la stessa cosa. Effettuando l'accesso, di fatto entriamo un luogo pieno di tutte le nostre connessioni. Facebook, sulla base delle nostre sessioni precedenti (che rappresentano la nostra esperienza), cerca di isolare il rumore di fondo proponendoci i post più aderenti ai nostri interessi.
Chiaramente i paramenti che vengono valutati nel proporci i post sono numerosissimi e comprendono chi scrive, le parole o le immagini contenute, quanto vengono condivisi, commentati, in che misura ricevono like o altre reazioni. Inoltre questi algoritmi vengono spesso aggiornati per migliorare l'esperienza dell'utente.

Di fatto Facebook crea delle bolle fatte a misura di ogni singolo utente. 
La domanda iniziale quindi potrebbe divenire:
Può Facebook modificare le nostre opinioni alterando la realtà?

Per rispondere a questa domanda ognuno di noi dovrebbe esaminare la propria esperienza utente, e auto valutare se Facebook ha rafforzato o modificato le proprie opinioni e in che modo questo sia avvenuto.

Nei fatti, rispetto a qualsiasi argomento, quello che accade è che Facebook ci propone sempre dei post che oscillano intorno alla nostra posizione ovvero al nostro modo di interpretare la realtà.
Tuttavia questa oscillazione non è costante, ma si aggiorna costantemente in base al modificarsi della nostra opinione.
Facebook, allo stato attuale, ci propone molti punti di vista rispetto a qualsiasi argomento si prenda in esame.

Questa scelta, al di là di intenti sociologici, ha motivazioni commerciali.
Il business di Facebook è la pubblicità. Affinché la pubblicità possa essere visualizzata il social network deve essere vitale. Una rete sociale è vitale quando le interazioni sono attive e il grado di appagamento dei partecipanti è elevato.
Bisogna quindi soddisfare due bisogni complementari degli utenti. Da un lato per avere appagamento gli utenti hanno necessità di ricevere notizie che rafforzano le proprie opinioni, dal verso opposto c'è da considerare che senza le notizie che illustrano posizioni diverse, questo appagamento si trasformerebbe in noia.

Quello che tuttavia viene oggi contestato alla piattaforma è il mancato controllo sulle notizie false.

Certo è però che diventa davvero difficile riuscire cosa sia vero o falso.
Facciamo qualche esempio.

Quanti di voi credono che Antonio Banderas sia un mugnaio che lavora presso il Mulino Bianco, e quanti di voi credono che i biscotti del Mulino Bianco vengano prodotti in un idilliaco mulino isolato dal mondo?

Se passasse l'idea che devono essere fornite solo notizie vere, tutte le pubblicità che vediamo quotidianamente dovrebbero scomparire.

Ma senza voler andare a considerare questi casi così estremi entriamo nel cuore della questione.

La forza del pettegolezzo

Che le bufale corrano sul web è esperienza comune, tuttavia se in via ideale sarebbe possibile etichettare alcune notizie come verificate. Si opererebbe una vera censura se alcune notizie non verificate dovessero essere eliminate, visto che tutti sappiamo che la verità non esiste.
Anche nel caso che una verità dovesse essere certificata, appare evidente che questa certificazione dovrebbe essere attribuita da un equo giudice e non da un ipotetico impiegato del social network, ne tanto meno da un algoritmo o peggio ancora da un ufficio governativo (come avviene in Cina).

Inoltre, se si dovesse ritenere veramente che alcune notizie non verificate possano influenzare decisioni importanti (come delle votazioni) a cui quindi non dovrebbe essere data evidenza perché fuorvianti, in che modo dovrebbero essere considerati gli ormai famosi sondaggi che tanto spesso risultano completamente campati in aria (vedi ultime elezioni americane)?

Come è possibile difendersi dalle notizie false?

Non si può.
Perché la verità è sempre un punto di vista. La stessa notizia vera può essere raccontata in tanti modi diversi, tutti veri per chi li racconta e contemporaneamente fuorvianti per chi non le condivide.

L'unico modo per difendersi è informarsi cercando più fonti possibili senza aver paura delle opinioni degli altri e soprattutto senza pensare che la nostra sia la Verità e che chi non la capisce è un idiota.

Se in una consultazione elettorale vince chi "i ben pensanti" ritengono frutto di ipotetiche influenze nei confronti di soggetti idioti, vuol dire che "i ben pensanti" non sono riusciti ha trasformare il corpo elettorale in soggetto intelligente, dimostrando quindi che i primi idioti sono proprio loro.

P.S. La nostra azienda è specializzata in consulenza informatica e comunicazione on-line. Chi volesse approfondire questi argomenti può contattarci. 

CONTATTI

Share on Google Plus