Poche persone hanno notato il post apparso sul blog ufficiale di Google il 4 dicembre 2009. Non cercava di attirare l’attenzione, ma non è sfuggito a tutti. Il blogger Danny Sullivan analizza sempre con cura i post di Google per cercare di capire quali sono i prossimi progetti dell’azienda californiana, e lo ha trovato molto interessante. Più tardi, quel giorno, ha scritto che si trattava del “più grande cambiamento mai avvenuto nei motori di ricerca”. Bastava il titolo per capirlo: “Ricerche personalizzate per tutti”.
Di solito si pensa che facendo una ricerca su Google tutti ottengano gli stessi risultati ma dal dicembre 2009 non è più così. Oggi vediamo i risultati che sono più adatti a noi, mentre altre persone vedono cose completamente diverse. In poche parole, Google non è più uguale per tutti.
Potremmo dire che il 4 dicembre 2009 è cominciata l’era della personalizzazione.
Dimmi cosa voglio
Il mondo digitale sta cambiando, discretamente e senza fare troppo chiasso. Quello che un tempo era un mezzo anonimo in cui tutti potevano essere chiunque – in cui nessuno sa che sei un cane, come diceva una famosa vignetta del New Yorker – ora è un modo per raccogliere e analizzare i nostri dati personali. Se cerchiamo una parola come “depressione” su un dizionario online, il sito installa nel nostro computer fino a 223 cookie e beacon che permettono ad altri siti di inviarci pubblicità di antidepressivi. Se facciamo una ricerca sulla possibilità che nostra moglie ci tradisca, saremo tempestati di annunci sui test del dna per accertare la paternità dei figli. Oggi la rete non solo sa che sei un cane, ma anche di che razza sei, e vuole venderti una ciotola di cibo.
La gara per sapere il più possibile su di noi è ormai al centro della battaglia del secolo tra colossi come Google, Facebook, Apple e Microsoft. Come mi ha spiegato Chris Palmer dell’Electronic frontier foundation, "il servizio sembra gratuito, ma lo paghiamo con le informazioni su di noi".
Anche se (finora) Google ha promesso di non divulgare i nostri dati personali, altri siti e applicazioni molto popolari non garantiscono nulla del genere. Dietro le pagine che visitiamo, si annida un enorme mercato di informazioni su quello che facciamo online. Lo controllano società per la raccolta dei dati poco conosciute ma molto redditizie, come BlueKai e Acxiom. Secondo i piazzisti del “mercato dei comportamenti”, ogni clic è una merce e ogni movimento del nostro mouse può essere venduto, in pochi microsecondi, al miglior offerente.
Se fosse solo un modo per vendere pubblicità mirata, non sarebbe tanto grave. Ma la personalizzazione non condiziona solo quello che compriamo. Per una percentuale sempre maggiore di utenti, i siti di notizie personalizzate come Facebook stanno diventando fonti di informazione fondamentali: il 36 per cento degli americani sotto i trent’anni legge le notizie sui social network. Come dice il suo fondatore, Mark Zuckerberg, Facebook è forse la più grande fonte di notizie del mondo (almeno per quanto riguarda una certa idea di “notizie”). Ma la personalizzazione non sta condizionando il flusso delle informazioni solo su Facebook: ormai servizi come Yahoo News e News.me, lanciato dal New York Times, adattano i titoli ai nostri particolari interessi e desideri.
La personalizzazione interviene anche nella scelta dei video che guardiamo su YouTube e sui blog. Influisce sulle email che riceviamo, sui potenziali partner che incontriamo su OkCupid, e sui ristoranti che ci consiglia Yelp: la personalizzazione può stabilire non solo con chi usciamo, ma anche dove andiamo e di cosa parleremo. Gli algoritmi che gestiscono le pubblicità mirate stanno cominciando a gestire la nostra vita. Come ha spiegato Eric Schmidt, “sarà molto difficile guardare o comprare qualcosa che in un certo senso non sia stato creato su misura per noi”.
Il codice della nuova rete è piuttosto semplice. I filtri di nuova generazione guardano le cose che ci piacciono – basandosi su quello che abbiamo fatto o che piace alle persone simili a noi – e poi estrapolano le informazioni. Sono in grado di fare previsioni, di creare e raffinare continuamente una teoria su chi siamo, cosa faremo e cosa vorremo. Insieme, filtrano un universo di informazioni specifico per ciascuno di noi, una “bolla dei filtri”, che altera il modo in cui entriamo in contatto con le idee e le informazioni. In un modo o nell’altro tutti abbiamo sempre scelto cose che ci interessano e ignorato quasi tutto il resto. Ma la bolla dei filtri introduce tre nuove dinamiche.
Prima di tutto, al suo interno siamo soli. Un canale via cavo dedicato a chi ha un interesse specifico (per esempio il golf), ha altri telespettatori che hanno qualcosa in comune tra loro. Nella bolla invece siamo soli. In un’epoca in cui le informazioni condivise sono alla base di esperienze condivise, la bolla dei filtri è una forza centrifuga che ci divide. In secondo luogo, la bolla è invisibile. La maggior parte delle persone che consultano fonti di notizie di destra o di sinistra sa che quelle informazioni si rivolgono a chi ha un particolare orientamento politico. Ma Google non è così trasparente. Non ci dice chi pensa che siamo o perché ci mostra i risultati che vediamo. In realtà, dall’interno della bolla è quasi impossibile accorgersi di quanto quelle informazioni siano mirate. Non decidiamo noi quello che ci arriva. E, soprattutto, non vediamo quello che esce.
Infine, non scegliamo noi di entrare nella bolla. Quando guardiamo Fox News o leggiamo The New Statesman, abbiamo già deciso che filtro usare per interpretare il mondo. È un processo attivo, e come se inforcassimo volontariamente un paio di lenti colorate, sappiamo benissimo che le opinioni dei giornalisti condizionano la nostra percezione del mondo. Ma nel caso dei filtri personalizzati non facciamo lo stesso tipo di scelta. Sono loro a venire da noi, e dato che si arricchiscono, sarà sempre più difficile sfuggirgli.
La fine dello spazio pubblico
La personalizzazione si basa su un accordo economico. In cambio del servizio che offrono i filtri, regaliamo alle grandi aziende un’enorme quantità di dati sulla nostra vita privata. E queste aziende diventano ogni giorno più brave a usarli per prendere decisioni. Ma non abbiamo nessuna garanzia che li trattino con cura, e quando sulla base di questi dati vengono prese decisioni che influiscono negativamente su di noi, di solito nessuno ce lo dice. La bolla dei filtri può influire sulla nostra capacità di scegliere come vogliamo vivere. Secondo Yochai Benkler, professore di legge ad Harvard e studioso della nuova economia della rete, per essere artefici della nostra vita dobbiamo essere consapevoli di una serie di modi di vivere alternativi.
Quando entriamo in una bolla dei filtri, permettiamo alle aziende che la costruiscono di scegliere quali alternative possiamo prendere in considerazione. Ci illudiamo di essere padroni del nostro destino, ma la personalizzazione può produrre una sorta di determinismo dell’informazione, in cui quello che abbiamo cliccato in passato determina quello che vedremo in futuro, una storia destinata a ripetersi all’infinito.
Abbiamo sempre più “spirito di gruppo” ma pochissimo “senso della comunità”. E questo è importante perché dal senso della comunità nasce la nostra idea di uno “spazio pubblico” in cui cerchiamo di risolvere i problemi che vanno oltre i nostri interessi personali. Di solito tendiamo a reagire a una gamma di stimoli molto limitata: leggiamo per prima una notizia che riguarda il sesso, il potere, la violenza, una persona famosa, oppure che ci fa ridere. Questo è il tipo di contenuti che entra più facilmente nella bolla dei filtri. È facile cliccare su “mi piace” e aumentare la visibilità del post di un amico che ha partecipato a una maratona o di una ricetta della zuppa di cipolle.
È molto più difficile cliccare “mi piace” su un articolo intitolato “In Darfur è stato il mese più sanguinoso degli ultimi due anni”. In un mondo personalizzato, ci sono poche probabilità che questioni importanti, ma complesse o sgradevoli, arrivino alla nostra attenzione. Tutto questo non è particolarmente preoccupante se le informazioni che entrano ed escono nel nostro universo personale riguardano solo prodotti di consumo. Ma quando la personalizzazione riguarda anche i nostri pensieri, oltre che i nostri acquisti, nascono altri problemi. La democrazia dipende dalla capacità dei cittadini di confrontarsi con punti di vista diversi. Quando ci offre solo informazioni che riflettono le nostre opinioni, internet limita questo confronto. Anche se a volte ci fa comodo vedere quello che vogliamo, in altri momenti è importante che non sia così.
Come i vecchi guardiani delle porte della città, i tecnici che scrivono i nuovi codici hanno l’enorme potere di determinare quello che sappiamo del mondo. Ma diversamente da quei guardiani, quelli di oggi non si sentono i difensori del bene pubblico. Non esiste l’algoritmo dell’etica giornalistica. Una volta Mark Zuckerberg, il fondatore di Facebook, ha detto ai suoi colleghi che per un utente “uno scoiattolo che muore nel suo giardino può essere più rilevante di tutte le persone che muoiono in Africa”. Su Facebook la “rilevanza” è praticamente l’unico criterio che determina quello che vedono gli utenti. Concentrarsi sulle notizie più rilevanti sul piano personale, come lo scoiattolo che muore, è una grande strategia di mercato. Ma ci lascia vedere solo il nostro giardino e non le persone che altrove soffrono, muoiono o lottano per la libertà.
Non è possibile tornare al vecchio sistema dei guardiani, e non sarebbe neanche giusto. Ma se adesso sono gli algoritmi a prendere le decisioni e a stabilire quello che vediamo, dobbiamo essere sicuri che le variabili di cui tengono conto vadano oltre la stretta “rilevanza” personale. Devono farci vedere l’Afghanistan e la Libia, non solo Apple e il nostro cantante preferito. Come consumatori, non è difficile stabilire quello che per noi è irrilevante o poco interessante. Ma quello che va bene per un consumatore non va bene necessariamente anche per un cittadino. Non è detto che quello che apparentemente mi piace sia quello che voglio veramente, e tantomeno che sia quello che devo sapere per essere un cittadino informato di una comunità o di un paese. “È nostro dovere di cittadini essere informati anche su cose che sembrano essere al di fuori dei nostri interessi”, mi ha detto l’esperto di tecnologia Clive Thompson. Il critico Lee Siegel la mette in un altro modo: “I clienti hanno sempre ragione, le persone no”.
Lobotomia globale
L’era della personalizzazione sta ribaltando tutte le nostre previsioni su internet. I creatori della rete avevano immaginato qualcosa di più grande e di più importante di un sistema globale per condividere le foto del nostro gatto. Il manifesto dell’Electronic frontier foundation all’inizio degli anni novanta parlava di una “civiltà della mente nel ciberspazio”, una sorta di metacervello globale. Ma i filtri personalizzati troncano le sinapsi di quel cervello. Senza saperlo, ci stiamo facendo una lobotomia globale.
I primi entusiasti di internet, come il creatore del web Tim Berners-Lee, speravano che la rete sarebbe stata una nuova piattaforma da cui affrontare insieme i problemi del mondo. Io penso che possa ancora esserlo, ma prima dobbiamo guardare dietro le quinte, capire quali forze stanno spingendo nella direzione attuale. Dobbiamo smascherare il codice e i suoi creatori, quelli che ci hanno dato la personalizzazione.
Se “il codice è legge”, come ha dichiarato il fondatore di Creative commons Larry Lessig, è importante capire quello che stanno cercando di fare i nuovi legislatori. Dobbiamo sapere in cosa credono i programmatori di Google e Facebook. Dobbiamo capire quali forze economiche e sociali sono dietro alla personalizzazione, che in parte sono inevitabili e in parte no. E dobbiamo capire cosa significa tutto questo per la politica, la cultura e il nostro futuro. Le aziende che usano gli algoritmi devono assumersi questa responsabilità. Devono lasciarci il controllo di quello che vediamo, dicendoci chiaramente quando stanno personalizzando e permettendoci di modificare i nostri filtri. Ma anche noi cittadini dobbiamo fare la nostra parte, imparare a “conoscere i filtri” per usarli bene e chiedere contenuti che allarghino i nostri orizzonti anche quando sono sgradevoli. È nel nostro interesse collettivo assicurarci che internet esprima tutto il suo potenziale di mezzo di connessione rivoluzionario. Ma non potrà farlo se resteremo chiusi nel nostro mondo online personalizzato.
Eli Pariser
Che iddio ti cerry!