How the net traps us all in our own little bubbles

An invisible revolution has taken place is the way we use the net, but the increasing personalisation of information by search engines such as Google threatens to limit our access to information and enclose us in a self-reinforcing world view, writes Eli Pariser in an extract from The Filter Bubble

internet search customisation eli pariser

A slide from Eli Pariser’s TED Talk presentation which discusses how major internet players are tailoring information to individuals. Illustration: Justin Kemerling and Eli Pariser

Few people noticed the post that appeared on Google’s corporate blog on 4 December 2009. It didn’t beg attention – no sweeping pronouncements, no Silicon Valley hype, just a few paragraphs sandwiched between a round-up of top search terms and an update on Google’s finance software.

Not everyone missed it. Search-engine blogger Danny Sullivan pores over the items on Google’s blog, looking for clues about where the monolith is headed next, and to him, the post was a big deal. In fact, he wrote later that day, it was “the biggest change that has ever happened in search engines“. For Danny, the headline said it all: “Personalised search for everyone”.

Starting that morning, Google would use 57 signals – everything from where you were logging in from to what browser you were using to what you had searched for before – to make guesses about who you were and what kinds of sites you’d like. Even if you were logged out, it would customise its results, showing you the pages it predicted you were most likely to click on.

Most of us assume that when we google a term, we all see the same results – the ones that the company’s famous Page Rank algorithm suggests are the most authoritative based on other pages’ links. But since December 2009, this is no longer true. Now you get the result that Google’s algorithm suggests is best for you in particular – and someone else may see something entirely different. In other words, there is no standard Google any more.

It’s not hard to see this difference in action. In the spring of 2010, while the remains of the Deepwater Horizon oil rig were spewing oil into the Gulf of Mexico, I asked two friends to search for the term “BP”. They’re pretty similar – educated white left-leaning women who live in the north-east. But the results they saw were quite different. One saw investment information about BP. The other saw news. For one, the first page of results contained links about the oil spill; for the other, there was nothing about it except for a promotional ad from BP. Even the number of results returned differed – 180 million for one friend and 139 million for the other. If the results were that different for these two progressive east-coast women, imagine how different they would be for my friends and, say, an elderly Republican in Texas (or, for that matter, a businessman in Japan).

With Google personalised for everyone, the query “stem cells” might produce diametrically opposed results for scientists who support stem-cell research and activists who oppose it. “Proof of climate change” might turn up different results for an environmental activist and an oil-company executive. A huge majority of us assume search engines are unbiased. But that may be just because they’re increasingly biased to share our own views. More and more, your computer monitor is a kind of one-way mirror, reflecting your own interests while algorithmic observers watch what you click. Google’s announcement marked the turning point of an important but nearly invisible revolution in how we consume information. You could say that on 4 December 2009 the era of personalisation began.

With little notice or fanfare, the digital world is fundamentally changing. What was once an anonymous medium where anyone could be anyone – where, in the words of the famous New Yorker cartoon, nobody knows you’re a dog – is now a tool for soliciting and analysing our personal data. According to one Wall Street Journal study, the top 50 internet sites, from CNN to Yahoo to MSN, install an average of 64 data-laden cookies and personal tracking beacons each. Search for a word like “depression” on Dictionary.com, and the site installs up to 223 tracking cookies and beacons on your computer so that other websites can target you with antidepressants. Open a page listing signs that your spouse may be cheating, and prepare to be haunted with DNA paternity-test ads. The new internet doesn’t just know you’re a dog: it knows your breed and wants to sell you a bowl of premium dog food.

The race to know as much as possible about you has become the central battle of the era for internet giants like Google, Facebook, Apple and Microsoft. As Chris Palmer of the Electronic Frontier Foundation explained to me: “You’re getting a free service, and the cost is information about you. And Google and Facebook translate that pretty directly into money.” While Gmail and Facebook may be helpful, free tools, they are also extremely effective and voracious extraction engines into which we pour the most intimate details of our lives. Your smooth new iPhone knows exactly where you go, whom you call, what you read; with its built-in microphone, gyroscope and GPS, it can tell whether you’re walking or in a car or at a party.

While Google has (so far) promised to keep your personal data to itself, other popular websites and apps make no such guarantees. Behind the pages you visit, a massive new market for information about what you do online is growing, driven by low-profile but highly profitable personal data companies like BlueKai and Acxiom. Acxiom alone has accumulated an average of 1,500 pieces of data on each person on its database – which includes 96% of Americans – along with data about everything from their credit scores to whether they’ve bought medication for incontinence. And any website – not just the Googles and Facebooks of the world – can now participate in the fun. In the view of the “behaviour market” vendors, every “click signal” you create is a commodity, and every move of your mouse can be auctioned off within microseconds to the highest commercial bidder.

As a business strategy, the internet giants’ formula is simple: the more personally relevant their information offerings are, the more ads they can sell, and the more likely you are to buy the products they’re offering. And the formula works. Amazon sells billions of dollars in merchandise by predicting what each customer is interested in and putting it in the front of the virtual store. Up to 60% of US film download and DVD-by-mail site Netflix’s rentals come from the guesses it can make about each customer’s preferences.

In the next three to five years, says Facebook chief operating officer Sheryl Sandberg, the idea of a website that isn’t customised to a particular user will seem quaint. Yahoo vice president Tapan Bhat agrees: “The future of the web is about personalisation… now the web is about ‘me’. It’s about weaving the web together in a way that is smart and personalised for the user.” Google CEO Eric Schmidt enthuses that the “product I’ve always wanted to build” is Google code that will “guess what I’m trying to type”. Google Instant, which guesses what you’re searching for as you type, and was rolled out in the autumn of 2010, is just the start – Schmidt believes that what customers want is for Google to “tell them what they should be doing next”.

It would be one thing if all this customisation was just about targeted advertising. But personalisation isn’t just shaping what we buy. For a quickly rising percentage of us, personalised news feeds like Facebook are becoming a primary news source – 36% of Americans aged under 30 get their news through social-networking sites. And Facebook’s popularity is skyrocketing worldwide, with nearly a million more people joining each day. As founder Mark Zuckerberg likes to brag, Facebook may be the biggest source of news in the world (at least for some definitions of “news”). And personalisation is shaping how information flows far beyond Facebook, as websites from Yahoo News to the New York Times-funded startup News.me cater their headlines to our particular interests and desires. It’s influencing what videos we watch on YouTube and what blog posts we see. It’s affecting whose emails we get, which potential mates we run into on OkCupid, and which restaurants are recommended to us on Yelp – which means that personalisation could easily have a hand not only in who goes on a date with whom but in where they go and what they talk about. The algorithms that orchestrate our ads are starting to orchestrate our lives.

The basic code at the heart of the new internet is pretty simple. The new generation of internet filters looks at the things you seem to like – the actual things you’ve done, or the things people like you like – and tries to extrapolate. They are prediction engines, constantly creating and refining a theory of who you are and what you’ll do and want next. Together, these engines create a unique universe of information for each of us – what I’ve come to call a filter bubble – which fundamentally alters the way we encounter ideas and information. Of course, to some extent we’ve always consumed media that appealed to our interests and avocations and ignored much of the rest. But the filter bubble introduces three dynamics we’ve never dealt with before.

First, you’re alone in it. A cable channel that caters to a narrow interest (say, golf) has other viewers with whom you share a frame of reference. But you’re the only person in your bubble. In an age when shared information is the bedrock of shared experience, the filter bubble is a centrifugal force, pulling us apart.

Second, the filter bubble is invisible. Most viewers of conservative or liberal news sources know that they’re going to a station curated to serve a particular political viewpoint. But Google’s agenda is opaque. Google doesn’t tell you who it thinks you are or why it’s showing you the results you’re seeing. You don’t know if its assumptions about you are right or wrong – and you might not even know it’s making assumptions about you in the first place. My friend who got more investment-oriented information about BP still has no idea why that was the case – she’s not a stockbroker. Because you haven’t chosen the criteria by which sites filter information in and out, it’s easy to imagine that the information that comes through a filter bubble is unbiased, objective, true. But it’s not. In fact, from within the bubble, it’s nearly impossible to see how biased it is.

Finally, you don’t choose to enter the bubble. When you turn on Fox News or read The New Statesman, you’re making a decision about what kind of filter to use to make sense of the world. It’s an active process, and like putting on a pair of tinted glasses, you can guess how the editors’ leaning shapes your perception. You don’t make the same kind of choice with personalised filters. They come to you – and because they drive up profits for the websites that use them, they’ll become harder and harder to avoid.

Personalisation is based on a bargain. In exchange for the service of filtering, you hand large companies an enormous amount of data about your daily life – much of which you might not trust friends with. These companies are getting better at drawing on this data to make decisions every day. But the trust we place in them to handle it with care is not always warranted, and when decisions are made on the basis of this data that affect you negatively, they’re usually not revealed.

Ultimately, the filter bubble can affect your ability to choose how you want to live. To be the author of your life, professor Yochai Benkler argues, you have to be aware of a diverse array of options and lifestyles. When you enter a filter bubble, you’re letting the companies that construct it choose which options you’re aware of. You may think you’re the captain of your own destiny, but personalisation can lead you down a road to a kind of informational determinism in which what you’ve clicked on in the past determines what you see next – a web history you’re doomed to repeat. You can get stuck in a static, ever- narrowing version of yourself – an endless you-loop.

And there are broader consequences. In Bowling Alone, his book on the decline of civic life in America, Robert Putnam looked at the problem of the major decrease in “social capital” – the bonds of trust and allegiance that encourage people to do each other favours, work together to solve common problems, and collaborate. Putnam identified two kinds of social capital: there’s the in-group-oriented “bonding” capital created when you attend a meeting of your college alumni, and then there’s “bridging” capital, which is created at an event like a town meeting when people from lots of different backgrounds come together to meet each other. Bridging capital is potent: build more of it, and you’re more likely to be able to find that next job or an investor for your small business, because it allows you to tap into lots of different networks for help.

Everybody expected the internet to be a huge source of bridging capital. Writing at the height of the dotcom bubble, Tom Friedman declared that the internet would “make us all next-door neighbours”. In fact, this idea was the core of his thesis in The Lexus and the Olive Tree: “The internet is going to be like a huge vice that takes the globalisation system … and keeps tightening and tightening that system around everyone, in ways that will only make the world smaller and smaller and faster and faster with each passing day.”

Friedman seemed to have in mind a kind of global village in which kids in Africa and executives in New York would build a community together. But that’s not what’s happening: our virtual neighbours look more and more like our real-world neighbours, and our real-world neighbours look more and more like us. We’re getting a lot of bonding but very little bridging. And this is important because it’s bridging that creates our sense of the “public” – the space where we address the problems that transcend our narrow self-interests.

We are predisposed to respond to a pretty narrow set of stimuli – if a piece of news is about sex, power, gossip, violence, celebrity or humour, we are likely to read it first. This is the content that most easily makes it into the filter bubble. It’s easy to push “Like” and increase the visibility of a friend’s post about finishing a marathon or an instructional article about how to make onion soup. It’s harder to push the “Like” button on an article titled “Darfur sees bloodiest month in two years”. In a personalised world, important but complex or unpleasant issues – the rising prison population, for example, or homelessness – are less likely to come to our attention at all.

As a consumer, it’s hard to argue with blotting out the irrelevant and unlikable. But what is good for consumers is not necessarily good for citizens. What I seem to like may not be what I actually want, let alone what I need to know to be an informed member of my community or country. “It’s a civic virtue to be exposed to things that appear to be outside your interest,” technology journalist Clive Thompson told me. Cultural critic Lee Siegel puts it a different way: “Customers are always right, but people aren’t.”

The era of personalisation is here, and it’s upending many of our predictions about what the internet would do. The creators of the internet envisioned something bigger and more important than a global system for sharing pictures of pets. The manifesto that helped launch the Electronic Frontier Foundation in the early 1990s championed a “civilisation of Mind in cyberspace” – a kind of worldwide metabrain. But personalised filters sever the synapses in that brain. Without knowing it, we may be giving ourselves a kind of global lobotomy instead.

Early internet enthusiasts like web creator Tim Berners-Lee hoped it would be a new platform for tackling global problems. I believe it still can be, but first we need to pull back the curtain – to understand the forces that are taking the internet in its current direction. We need to lay bare the bugs in the code – and the coders – that brought personalisation to us.

If “code is law”, as Creative Commons founder Larry Lessig declared, it’s important to understand what the new lawmakers are trying to do. We need to understand what the programmers at Google and Facebook believe in. We need to understand the economic and social forces that are driving personalisation, some of which are inevitable and some of which are not. And we need to understand what all this means for our politics, our culture and our future.

Adapted from The Filter Bubble by Eli Pariser.

I motori di ricerca e i social network ci conoscono sempre meglio. Grazie alle tracce che lasciamo in rete, sanno cosa ci piace. E selezionano i risultati, scegliendo solo i più adatti a noi. Ma in questo modo la nostra visione del mondo rischia di essere distorta.

Poche persone hanno notato il post apparso sul blog ufficiale di Google il 4 dicembre 2009. Non cercava di attirare l’attenzione: nessuna dichiarazione sconvolgente né annunci roboanti da Silicon valley, solo pochi paragrafi infilati tra la lista delle parole più cercate e un aggiornamento sul software finanziario di Google. Ma non è sfuggito a tutti. Il blogger Danny Sullivan analizza sempre con cura i post di Google per cercare di capire quali sono i prossimi progetti dell’azienda californiana, e lo ha trovato molto interessante. Più tardi, quel giorno, ha scritto che si trattava del “più grande cambiamento mai avvenuto nei motori di ricerca”. Bastava il titolo per capirlo: “Ricerche personalizzate per tutti”.

Oggi Google usa 57 indicatori – dal luogo in cui siamo al browser che stiamo usando al tipo di ricerche che abbiamo fatto in precedenza – per cercare di capire chi siamo e che genere di siti ci piacerebbe visitare. Anche quando non siamo collegati, continua a personalizzare i risultati e a mostrarci le pagine sulle quali probabilmente cliccheremo. Di solito si pensa che facendo una ricerca su Google tutti ottengano gli stessi risultati: quelli che secondo il famoso algoritmo dell’azienda, PageRank, hanno maggiore rilevanza in relazione ai termini cercati. Ma dal dicembre 2009 non è più così. Oggi vediamo i risultati che secondo PageRank sono più adatti a noi, mentre altre persone vedono cose completamente diverse. In poche parole, Google non è più uguale per tutti.

Accorgersi della differenza non è difficile. Nella primavera del 2010, mentre la piattaforma Deepwater Horizon vomitava petrolio nel golfo del Messico, ho chiesto a due mie amiche di fare la stessa ricerca su Google. Entrambe vivono nel nordest degli Stati Uniti e sono bianche, colte e di sinistra: insomma, due persone abbastanza simili. Entrambe hanno cercato “Bp”. Ma hanno ottenuto risultati molto diversi. Una ha trovato informazioni sugli investimenti legati alla Bp. L’altra le notizie. In un caso, la prima pagina dei risultati di Google conteneva i link sull’incidente nel golfo, nell’altro non c’era niente del genere, solo una pubblicità della compagnia petrolifera. Perfino il numero dei risultati era diverso: 180 milioni per una e 139 milioni per l’altra. Se le differenze tra due donne di sinistra della costa est erano così grandi, immaginate quanto possono esserlo, per esempio, rispetto a quelle di un vecchio repubblicano del Texas o di un uomo d’affari giapponese.

Ora che Google è personalizzato, la ricerca di “cellule staminali” probabilmente dà risultati diametralmente opposti agli scienziati che sono favorevoli alla ricerca sulle staminali e a quelli che sono contrari. Scrivendo “prove del cambiamento climatico” un ambientalista e il dirigente di una compagnia petrolifera troveranno risposte contrastanti. La maggioranza di noi crede che i motori di ricerca siano neutrali. Ma probabilmente lo pensiamo perché sono impostati in modo da assecondare le nostre idee. Lo schermo del computer rispetta sempre più i nostri interessi mentre gli analisti degli algoritmi osservano tutto quello che clicchiamo. L’annuncio di Google ha segnato il punto di svolta di una rivoluzione importante ma quasi invisibile del nostro modo di consumare le informazioni. Potremmo dire che il 4 dicembre 2009 è cominciata l’era della personalizzazione.

Dimmi cosa voglio
Il mondo digitale sta cambiando, discretamente e senza fare troppo chiasso. Quello che un tempo era un mezzo anonimo in cui tutti potevano essere chiunque – in cui nessuno sa che sei un cane, come diceva una famosa vignetta del New Yorker – ora è un modo per raccogliere e analizzare i nostri dati personali. Secondo uno studio del Wall Street Journal, i cinquanta siti più popolari del mondo, dalla Cnn a Yahoo! a Msn, installano in media 64 cookie e beacon carichi di dati su di noi. Se cerchiamo una parola come “depressione” su un dizionario online, il sito installa nel nostro computer fino a 223 cookie e beacon che permettono ad altri siti di inviarci pubblicità di antidepressivi. Se facciamo una ricerca sulla possibilità che nostra moglie ci tradisca, saremo tempestati di annunci sui test del dna per accertare la paternità dei figli. Oggi la rete non solo sa che sei un cane, ma anche di che razza sei, e vuole venderti una ciotola di cibo.

La gara per sapere il più possibile su di noi è ormai al centro della battaglia del secolo tra colossi come Google, Facebook, Apple e Microsoft. Come mi ha spiegato Chris Palmer dell’Electronic frontier foundation, “il servizio sembra gratuito, ma lo paghiamo con le informazioni su di noi. Informazioni che Google e Facebook sono pronti a trasformare in denaro”. Anche se sono strumenti utili e gratuiti, Gmail e Facebook sono anche efficienti e voracissime macchine per estrarre informazioni, in cui noi riversiamo i dettagli più intimi della nostra vita. Il nostro iPhone sa esattamente dove andiamo, chi chiamiamo, cosa leggiamo. Con il suo microfono incorporato, il giroscopio e il gps, è in grado di capire se stiamo camminando, siamo in macchina o a una festa.

Anche se (finora) Google ha promesso di non divulgare i nostri dati personali, altri siti e applicazioni molto popolari non garantiscono nulla del genere. Dietro le pagine che visitiamo, si annida un enorme mercato di informazioni su quello che facciamo online. Lo controllano società per la raccolta dei dati poco conosciute ma molto redditizie, come BlueKai e Acxiom. La sola Acxiom ha accumulato una media di 1.500 informazioni – dalla capacità di credito ai farmaci comprati online – su ogni persona nel suo database, che comprende il 96 per cento degli americani. E qualsiasi sito web, non solo Google e Facebook, ora può partecipare al banchetto.

Secondo i piazzisti del “mercato dei comportamenti”, ogni clic è una merce e ogni movimento del nostro mouse può essere venduto, in pochi microsecondi, al miglior offerente. Come strategia di mercato, la formula dei colossi di internet è semplice: più informazioni personali sono in grado di offrire, più spazi pubblicitari possono vendere, e più probabilità ci sono che compriamo i prodotti che ci vengono mostrati. È una formula che funziona. Amazon vende miliardi di dollari di merce provando a prevedere quello che può interessare a ogni consumatore e mettendo i risultati in evidenza nel suo negozio virtuale. Più del 60 per cento dei film scaricati o dei dvd affittati su Netflix dipende dalle ipotesi che il sito fa sulle preferenze di ciascun cliente.

Secondo la direttrice operativa di Facebook, Sheryl Sandberg, nel giro di tre, al massimo cinque anni l’idea di un sito non personalizzato sembrerà assurda. Uno dei vicepresidenti di Yahoo!, Tapan Bhat, è d’accordo: “Il futuro del web è la personalizzazione. Ormai il web parla con ‘me’. La rete deve essere intelligente e fatta su misura per ogni utente”. L’ex amministratore delegato di Google, Eric Schmidt, dichiara con entusiasmo: “Il prodotto che ho sempre voluto creare” è un codice che “indovina quello che sto per scrivere”. Google instant, che anticipa quello che vogliamo cercare mentre scriviamo, è uscito nell’autunno del 2010, ed è solo l’inizio. Secondo Schmidt gli utenti vogliono che Google “dica cosa devono fare dopo”.

Se fosse solo un modo per vendere pubblicità mirata, non sarebbe tanto grave. Ma la personalizzazione non condiziona solo quello che compriamo. Per una percentuale sempre maggiore di utenti, i siti di notizie personalizzate come Face­book stanno diventando fonti di informazione fondamentali: il 36 per cento degli americani sotto i trent’anni legge le notizie sui social network. Come dice il suo fondatore, Mark Zuckerberg, Facebook è forse la più grande fonte di notizie del mondo (almeno per quanto riguarda una certa idea di “notizie”). Ma la personalizzazione non sta condizionando il flusso delle informazioni solo su Facebook: ormai servizi come Yahoo News e News.me, lanciato dal New York Times, adattano i titoli ai nostri particolari interessi e desideri.

La personalizzazione interviene anche nella scelta dei video che guardiamo su YouTube e sui blog. Influisce sulle email che riceviamo, sui potenziali partner che incontriamo su OkCupid, e sui ristoranti che ci consiglia Yelp: la personalizzazione può stabilire non solo con chi usciamo, ma anche dove andiamo e di cosa parleremo. Gli algoritmi che gestiscono le pubblicità mirate stanno cominciando a gestire la nostra vita. Come ha spiegato Eric Schmidt, “sarà molto difficile guardare o comprare qualcosa che in un certo senso non sia stato creato su misura per noi”.

Il codice della nuova rete è piuttosto semplice. I filtri di nuova generazione guardano le cose che ci piacciano – basandosi su quello che abbiamo fatto o che piace alle persone simili a noi – e poi estrapolano le informazioni. Sono in grado di fare previsioni, di creare e raffinare continuamente una teoria su chi siamo, cosa faremo e cosa vorremo. Insieme, filtrano un universo di informazioni specifico per ciascuno di noi, una “bolla dei filtri”, che altera il modo in cui entriamo in contatto con le idee e le informazioni. In un modo o nell’altro tutti abbiamo sempre scelto cose che ci interessano e ignorato quasi tutto il resto. Ma la bolla dei filtri introduce tre nuove dinamiche.

Prima di tutto, al suo interno siamo soli. Un canale via cavo dedicato a chi ha un interesse specifico (per esempio il golf), ha altri telespettatori che hanno qualcosa in comune tra loro. Nella bolla invece siamo soli. In un’epoca in cui le informazioni condivise sono alla base di esperienze condivise, la bolla dei filtri è una forza centrifuga che ci divide. In secondo luogo, la bolla è invisibile. La maggior parte delle persone che consultano fonti di notizie di destra o di sinistra sa che quelle informazioni si rivolgono a chi ha un particolare orientamento politico. Ma Google non è così trasparente. Non ci dice chi pensa che siamo o perché ci mostra i risultati che vediamo.

Non sappiamo se sta facendo ipotesi giuste o sbagliate su di noi, non sappiamo neanche se le sta facendo. La mia amica che cercava notizie sulla Bp non ha idea del perché abbia trovato informazioni sugli investimenti, non è un’agente di borsa. Dato che non abbiamo scelto i criteri con cui i siti filtrano le informazioni in entrata e in uscita, è facile immaginare che quelle che ci arrivano attraverso la bolla siano obiettive e neutrali. Ma non è così. In realtà, dall’interno della bolla è quasi impossibile accorgersi di quanto quelle informazioni siano mirate. Non decidiamo noi quello che ci arriva. E, soprattutto, non vediamo quello che esce.

Infine, non scegliamo noi di entrare nella bolla. Quando guardiamo Fox News o leggiamo The New Statesman, abbiamo già deciso che filtro usare per interpretare il mondo. È un processo attivo, e come se inforcassimo volontariamente un paio di lenti colorate, sappiamo benissimo che le opinioni dei giornalisti condizionano la nostra percezione del mondo. Ma nel caso dei filtri personalizzati non facciamo lo stesso tipo di scelta. Sono loro a venire da noi, e dato che si arricchiscono, sarà sempre più difficile sfuggirgli.

La fine dello spazio pubblico
La personalizzazione si basa su un accordo economico. In cambio del servizio che offrono i filtri, regaliamo alle grandi aziende un’enorme quantità di dati sulla nostra vita privata. E queste aziende diventano ogni giorno più brave a usarli per prendere decisioni. Ma non abbiamo nessuna garanzia che li trattino con cura, e quando sulla base di questi dati vengono prese decisioni che influiscono negativamente su di noi, di solito nessuno ce lo dice. La bolla dei filtri può influire sulla nostra capacità di scegliere come vogliamo vivere. Secondo Yochai Benkler, professore di legge ad Harvard e studioso della nuova economia della rete, per essere artefici della nostra vita dobbiamo essere consapevoli di una serie di modi di vivere alternativi.

Quando entriamo in una bolla dei filtri, permettiamo alle aziende che la costruiscono di scegliere quali alternative possiamo prendere in considerazione. Ci illudiamo di essere padroni del nostro destino, ma la personalizzazione può produrre una sorta di determinismo dell’informazione, in cui quello che abbiamo cliccato in passato determina quello che vedremo in futuro, una storia destinata a ripetersi all’infinito. Rischiamo di restare bloccati in una versione statica e sempre più ridotta di noi stessi, una specie di circolo vizioso. Ci sono anche conseguenze più ampie. Nel suo Capitale sociale e individualismo., il libro sul declino del senso civico in America, Robert Putnam affronta il problema dell’assottigliamento del “capitale sociale”, cioè di quei legami di fiducia e lealtà reciproca che spingono le persone a scambiarsi favori e a collaborare per risolvere problemi comuni.

Putnam individua due tipi di capitale sociale: “Lo spirito di gruppo”, che per esempio si crea tra gli ex studenti della stessa università, e il “senso della comunità”, che per esempio si crea quando persone diverse si incontrano in un’assemblea pubblica. Questo secondo tipo di capitale è molto potente: se lo accumuliamo, abbiamo più probabilità di trovare un posto di lavoro o qualcuno disposto a investire nella nostra impresa, perché ci consente di attingere a tante reti diverse.

Tutti si aspettavano che internet sarebbe stata una grande fonte di capitale del secondo tipo. Al culmine della bolla tecnologica di dieci anni fa, Thomas L. Friedman scriveva che internet ci avrebbe resi “tutti vicini di casa”. Questa idea era alla base del suo libro Le radici del futuro: “Internet diventerà una grande morsa che prenderà il sistema della globalizzazione e continuerà a stringerlo intorno a tutti fino a rendere il mondo ogni giorno più piccolo e veloce”.

Friedman aveva in mente una sorta di villaggio globale in cui i bambini africani e i dirigenti d’azienda di New York avrebbero formato un’unica comunità. Ma non è quello che sta succedendo. I nostri vicini virtuali somigliano sempre più a quelli reali, e i nostri vicini reali somigliano sempre più a noi. Abbiamo sempre più “spirito di gruppo” ma pochissimo “senso della comunità”. E questo è importante perché dal senso della comunità nasce la nostra idea di uno “spazio pubblico” in cui cerchiamo di risolvere i problemi che vanno oltre i nostri interessi personali. Di solito tendiamo a reagire a una gamma di stimoli molto limitata: leggiamo per prima una notizia che riguarda il sesso, il potere, la violenza, una persona famosa, oppure che ci fa ridere. Questo è il tipo di contenuti che entra più facilmente nella bolla dei filtri. È facile cliccare su “mi piace” e aumentare la visibilità del post di un amico che ha partecipato a una maratona o di una ricetta della zuppa di cipolle.

È molto più difficile cliccare “mi piace” su un articolo intitolato “In Darfur è stato il mese più sanguinoso degli ultimi due anni”. In un mondo personalizzato, ci sono poche probabilità che questioni importanti, ma complesse o sgradevoli, arrivino alla nostra attenzione. Tutto questo non è particolarmente preoccupante se le informazioni che entrano ed escono nel nostro universo personale riguardano solo prodotti di consumo. Ma quando la personalizzazione riguarda anche i nostri pensieri, oltre che i nostri acquisti, nascono altri problemi. La democrazia dipende dalla capacità dei cittadini di confrontarsi con punti di vista diversi. Quando ci offre solo informazioni che riflettono le nostre opinioni, internet limita questo confronto. Anche se a volte ci fa comodo vedere quello che vogliamo, in altri momenti è importante che non sia così.

Come i vecchi guardiani delle porte della città, i tecnici che scrivono i nuovi codici hanno l’enorme potere di determinare quello che sappiamo del mondo. Ma diversamente da quei guardiani, quelli di oggi non si sentono i difensori del bene pubblico. Non esiste l’algoritmo dell’etica giornalistica. Una volta Mark Zuckerberg, il fondatore di Facebook, ha detto ai suoi colleghi che per un utente “uno scoiattolo che muore nel suo giardino può essere più rilevante di tutte le persone che muoiono in Africa”. Su Facebook la “rilevanza” è praticamente l’unico criterio che determina quello che vedono gli utenti. Concentrarsi sulle notizie più rilevanti sul piano personale, come lo scoiattolo che muore, è una grande strategia di mercato. Ma ci lascia vedere solo il nostro giardino e non le persone che altrove soffrono, muoiono o lottano per la libertà.

Non è possibile tornare al vecchio sistema dei guardiani, e non sarebbe neanche giusto. Ma se adesso sono gli algoritmi a prendere le decisioni e a stabilire quello che vediamo, dobbiamo essere sicuri che le variabili di cui tengono conto vadano oltre la stretta “rilevanza” personale. Devono farci vedere l’Afghanistan e la Libia, non solo Apple e il nostro cantante preferito. Come consumatori, non è difficile stabilire quello che per noi è irrilevante o poco interessante. Ma quello che va bene per un consumatore non va bene necessariamente anche per un cittadino. Non è detto che quello che apparentemente mi piace sia quello che voglio veramente, e tantomeno che sia quello che devo sapere per essere un cittadino informato di una comunità o di un paese. “È nostro dovere di cittadini essere informati anche su cose che sembrano essere al di fuori dei nostri interessi”, mi ha detto l’esperto di tecnologia Clive Thomp­son. Il critico Lee Siegel la mette in un altro modo: “I clienti hanno sempre ragione, le persone no”.

Lobotomia globale
L’era della personalizzazione sta ribaltando tutte le nostre previsioni su internet. I creatori della rete avevano immaginato qualcosa di più grande e di più importante di un sistema globale per condividere le foto del nostro gatto. Il manifesto dell’Electronic frontier foundation all’inizio degli anni novanta parlava di una “civiltà della mente nel ciberspazio”, una sorta di metacervello globale. Ma i filtri personalizzati troncano le sinapsi di quel cervello. Senza saperlo, ci stiamo facendo una lobotomia globale.

I primi entusiasti di internet, come il creatore del web Tim Berners-Lee, speravano che la rete sarebbe stata una nuova piattaforma da cui affrontare insieme i problemi del mondo. Io penso che possa ancora esserlo, ma prima dobbiamo guardare dietro le quinte, capire quali forze stanno spingendo nella direzione attuale. Dobbiamo smascherare il codice e i suoi creatori, quelli che ci hanno dato la personalizzazione.

Se “il codice è legge”, come ha dichiarato il fondatore di Creative commons Larry Lessig, è importante capire quello che stanno cercando di fare i nuovi legislatori. Dobbiamo sapere in cosa credono i programmatori di Google e Face­book. Dobbiamo capire quali forze economiche e sociali sono dietro alla personalizzazione, che in parte sono inevitabili e in parte no. E dobbiamo capire cosa significa tutto questo per la politica, la cultura e il nostro futuro. Le aziende che usano gli algoritmi devono assumersi questa responsabilità. Devono lasciarci il controllo di quello che vediamo, dicendoci chiaramente quando stanno personalizzando e permettendoci di modificare i nostri filtri. Ma anche noi cittadini dobbiamo fare la nostra parte, imparare a “conoscere i filtri” per usarli bene e chiedere contenuti che allarghino i nostri orizzonti anche quando sono sgradevoli. È nel nostro interesse collettivo assicurarci che internet esprima tutto il suo potenziale di mezzo di connessione rivoluzionario. Ma non potrà farlo se resteremo chiusi nel nostro mondo online personalizzato.

di Eli Pariser, The Observer, traduzione di Bruna Tortorella, da Internazionale.it

Lascia un commento

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...

%d blogger cliccano Mi Piace per questo: