Filter bubble: nel web siamo chiusi in una bolla

Era febbraio 2011 e Eli Pariser, ospite di una conferenza TED, metteva in guardia da quella che lui definiva la filter bubble, la bolla prodotta dai filtri dei servizi web che usiamo quotidianamente.

Google ci mostra i risultati che, secondo quanto conosce di noi in base alle nostre abitudini di navigazione, ritiene più pertinenti e interessanti per noi. Del resto, è stato lo stesso fondatore e CEO di Google Larry Page a sostenere, una decina di anni fa, che «Il motore di ricerca perfetto deve comprendere esattamente che cosa l’utente intende e restituire esattamente ciò che desidera». E non si può dire che Google non sia riuscito ad avvicinarsi all’obiettivo che si poneva il suo fondatore: il motore di ricerca di Google è sempre più preciso ed è in grado di suggerirci i risultati più conformi ai nostri desideri. Nel minor tempo possibile. Nel luogo in cui ci troviamo, perché da quando la disponibilità di connessione mobile è alla portata di tutti è diventato fondamentale rispondere alle richieste tenendo conto della localizzazione di chi compie la ricerca. E pazienza se nella ricerca di precisione ci va di mezzo un po’ della nostra privacy e il nostro comportamento online diventa un parametro su cui tarare il motore di ricerca. Pazienza, ancora, se la precisione ci porta a escludere, ad ogni ricerca, un pezzo di mondo, quello che Google, non noi, ritiene non essere interessante per noi.

La prova è semplice: scegliete una parola chiave, cercatela con Google e fatela cercare ad alcuni amici in luoghi diversi e con storie e interessi diversi. Confrontate, poi, la pagina dei risultati. Le differenze che troverete sono il risultato dell’intervento dei filtri messi a punto da Google per «comprendere esattamente che cosa l’utente intende e restituire esattamente ciò che desidera» e senza che ve ne siate accorti Google vi ha avvolti in una bolla, creata appunto dai suoi filtri.

Nel 2010 Eric Schmidt, allora amministratore delegato di Google, disse, a proposito della potenza del targeting individuale, che presto la tecnologia sarebbe stata così precisa che sarebbe stato molto difficile per le persone guardare o consumare qualcosa che non è stato in qualche modo cucito apposta per loro.

Perché non si tratta solo dei risultati di un motore di ricerca, la bolla è ovunque intorno a noi, prodotta più o meno da tutti i servizi che usiamo il cui credo, da alcuni anni, è diventato la “personalizzazione”: homepage su misura per noi e i nostri interesse, consigli per acquisti basati sui nostri acquisti precedenti e sulle nostre abitudini e i nostri interessi.

Leggiamo gli articoli che la testata ritiene interessanti per noi, perfino acquistare un prodotto è sempre meno questione di libera scelta tra tutti i prodotti possibili e sempre più il risultato di un percorso guidato, obbligato.

Un altro esempio di bolla, forse più evidente ancora? L’algoritmo che regola la timeline di Facebook è ciò che decide – secondo criteri non del tutto noti – quali aggiornamenti dei nostri amici e delle pagine che seguiamo vediamo e quali no.

Vi sarà capitato di notare che di alcuni amici non vedete mai comparire post e che di alcune pagine vedete gli aggiornamenti solo andando sulla pagina stessa. E’ “colpa” dell’algoritmo di Facebook che, sulla base del vostro comportamento (dentro e fuori Facebook) pensa di farvi un favore mostrando alcuni aggiornamenti e nascondendone altri. Da un lato vi protegge dall’information overload a cui sareste sottoposti altrimenti, dall’altro punta a mettervi a vostro agio, darvi contenuto interessante che faccia sì che passiate più tempo possibile sulla sua piattaforma. Ma l’effetto finale è che vi mette di fronte a una piccola porzione di mondo – ritagliata su di voi, ma secondo criteri suoi e non controllabili da voi – lasciandovi credere che si tratti del mondo nella sua interezza.

A maggio di quest’anno la rivista Science ha pubblicato i risultati di una ricerca condotta da Eytan Bakshy, Solomon Messing e Lada A. Adamic, ricercatori di Facebook su utenti di Facebook statunitensi che hanno apertamente dichiarato la propria affiliazione politica nel profilo, cioè circa 10 milioni di persone. Lo studio quantifica la misura in cui ciascuno incontra notizie più o meno diverse mentre interagisce con il News Feed di Facebook.

La ricerca ha evidenziato come il posizionamento di una notizia nella pagina condizioni il tasso di click e interazione. Lo stesso link posizionato in cima alla pagina ha un 10-15 % di probabilità in più di essere cliccato di uno che sta alla posizione numero 40. Inoltre, l’algoritmo di curation che regola il News Feed di Facebook tende a rimuovere notizie provenienti da fonti diverse con le quali l’utente potrebbe essere in disaccordo, mentre non rimuove quelle con le quali potrebbe essere d’accordo. Gli studiosi definiscono “trasversale” una notizia proveniente da una fonte con la quale l’utente ha meno tendenza ad essere d’accordo.

Per una persona che si definisce “conservatore” l’algoritmo filtra 1 notizia “trasversale” su 20, 1 su 13 per una persona che si autodefinisce “liberale”.

Infine, la ricerca ha mostra che le scelte degli individui su cosa consumare limita ulteriormente l’esposizione a contenuti “trasversale”: i conservatori cliccano a poco meno del 30% di notizie trasversali, mentre i liberali a poco più del 20%.

I numeri della ricerca mostrano una situazione meno preoccupante di quanto si poteva pensare, tuttavia confermano un duplice effetto dei filtri prodotti dall’algoritmo: da un lato, le persone tendono a circondarsi di persone con cui condividono opinioni e punti di vista, dall’altro, l’algoritmo tende a dare meno evidenza a ciò di cui la democrazia ha più bisogno – notizie e informazioni sui più importanti temi sociali.

Il web, alla sua nascita, aveva tutte le caratteristiche per essere un potente strumento a disposizione della democrazia e del cambiamento social, per connettere ciascun individuo, ovunque si trovasse e in qualunque condizione socio-economica, al mondo intero. Il web oggi, in mano a pochi grandi colossi, statunitensi e fortemente intrisi di ideologia anarcocapitalista, sta diventando tutt’altro e, come ci invita Eli Pariser, dovremmo preoccuparcene tutti, prima che sia troppo tardi.

0 commenti

Lascia un Commento

Vuoi partecipare alla discussione?
Fornisci il tuo contributo!

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *