Nel gennaio del 2012 Facebook ha condotto un esperimento all'insaputa di circa 700.000 mila utenti: molti di loro sono stati esposti a "contenuti emotivi" delle pagine che osservavano di tipo fortemente positivo, altri a contenuti molto negativi.
A seconda dei contenuti osservati, le persone postavano commenti positivi o negativi come reazione a quanto letto. Era evidente un fenomeno ben conosciuto in psicologia come "contagio emotivo".
Quando venne pubblicato il risultato dello studio vi furono critiche e pesanti reazioni per tale esperimento, peraltro legale, su temi così delicati come l'etica e la privacy on-line.
Forse non tutti sanno che l'algoritmo sottostante a Facebook e che ci propone quotidianamente gli aggiornamenti, che vediamo scorrere nella nostra pagina si basa già su una serie di principi, totalmente automatizzati, stabiliti per dare priorità a uno o all’altro contenuto in base agli amici con cui entriamo più spesso in contatto o alla popolarità di uno stato o di una foto. Come dire, l'algoritmo ci indirizza già verso determinati contenuti, pensati per noi! Facebook decide cosa farci vedere, mentre noi crediamo che si tratti di notizie e profili scelti in modo imparziale.
Nel caso dell'esperimento i ricercatori di Facebook hanno utilizzato il software Linguistic Inquiry and Word Count, ed i risultati hanno mostrato come la condivisione di emozioni positive ci porti ad esprimerne di altrettanto ottimistiche mentre vedere amici e conoscenti di cattivo umore ci condiziona in questo senso.
Da notare che alla sottoscrizione di Facebook noi tutti accettiamo le condizioni di questo servizio e le relative profilazioni. Quindi nulla di illegale, ma credo che ben pochi di noi siano consapevoli di quello che sottoscrivono: poi gli algoritmi che diavolo sono? Mi risponda chi lo sa e ne conosce l'utilizzo. Facebook cambia il suo algoritmo quando e come vuole senza doverci chiedere ulteriore assenso tacito o esplicito.
E' anche vero che nel 2012 oltre 340.000 persone si sono recate a votare in elezioni del Congresso Americano dopo avere letto commenti di amici su Facebook, orientati in un senso o nell'altro (Democratici o Repubblicani) e qui non si parla di scegliere una bevanda o un hamburger ma si tratta di "comunicazione politica".
Va detto che il gruppo di ingegneri di Facebook ha lavorato in collaborazione con ricercatori delle Università della California e della Cornell, stupiti per le reazioni della stampa e dei media in generale per tale "ricerca". Gli ingegneri di Facebook hanno manipolato l'algoritmo per orientare le reazioni e studiare l'effetto sugli ignari lettori, senza chieder alcun permesso o scusarsi poi. Ad onore del vero uno degli ingegneri, tale Adam Kramer, membro della squadra di analisi dei dati di Facebook e fra gli autori dello studio ha detto che lo scopo della ricerca era rendere migliore il servizio e si è mostrato: "... Dispiaciuto per l'ansia causata nei lettori". Come dire che lo studio è stato fatto per i lettori e non c'è motivo di non credere alla buona fede di Facebook.
E voi cosa ne pensate...?
Aggiornamento del 5 settembre: su un server ad accesso libero sono stati trovati i dati di 419 milioni di utenti Facebook, account e numeri di telefono. Facebook, interpellata, ha minimizzato la cosa e assicurato che ora tutto è sotto controllo e non accadrà più.
Aggiornamento del 5 settembre: su un server ad accesso libero sono stati trovati i dati di 419 milioni di utenti Facebook, account e numeri di telefono. Facebook, interpellata, ha minimizzato la cosa e assicurato che ora tutto è sotto controllo e non accadrà più.
Nessun commento
Nota. Solo i membri di questo blog possono postare un commento.