Quante stronzate leggete al giorno? Siamo sommersi da notizie false, dati discutibili presi fuori contesto, studi ‘scientifici’ condotti su un campione di tre unicorni ed enfatizzati da comunicati stampa, tweet che discutono una notizia condivisa da un amico su Facebook, che l’ha letta su un blog, che l’ha ripresa da un giornale online, che l’ha ripresa da un articolo d’opinione — che non si capisce più da dove venga ma alla terza iterazione è diventata altro.

Riconoscere una stronzata può essere arduo. Non sempre tutte le stronzate sono palesi come gli articoli del blog del M5S. A volte si celano dietro grafici fuorvianti. Altre riguardano cose che non conosciamo bene e sulle quali, quindi, non possiamo affidarci troppo al nostro giudizio. Nel frattempo, invece di dare una mano, l’ecosistema di distribuzione delle notizie agevola la diffusione delle stronzate. Le notizie false hanno vita lunga, o come postula il Bullshit Asymmetry Principle: “the amount of energy needed to refute bullshit is an order of magnitude bigger than to produce it.” In certi casi, i giornali nemmeno collaborano a migliorare la situazione.

Sopravvivere a questo bullshit overload richiede strumenti critici, di valutazione. Mark Galeotti, sul New York Times, suggerisce che la strada per risolvere il problema sia l’educazione del pubblico:

Instead of trying to combat each leak directly, the United States government should teach the public to tell when they are being manipulated. Via schools and nongovernmental organizations and public service campaigns, Americans should be taught the basic skills necessary to be savvy media consumers, from how to fact-check news articles to how pictures can lie.

Calling Bullshit è un corso della University of Washington (di Seattle) che parte da queste premesse: che gli strumenti critici e d’analisi per discernere una stronzata da un’altra non siano così ovvi e diffusi, e che le stronzate nuove, che leggiamo oggi, siano più insidiose di quelle di un tempo — meno ovvie. Che la via per salvarsi non sia affidarsi ad algoritmi che decidano per noi cosa sia vero e cosa no (nonostante si possa fare di più — in certi casi il problema delle fake news è simile a quello dello spam), ma sviluppare un senso critico che ci aiuti autonomamente ad analizzare una notizia, una visualizzazione, una statistica.

Il corso è appena iniziato, è gratuito, e si può seguire online. La prima lezione introduttiva è già disponibile. Lo consiglio.

Da un paio d’anni Google ha iniziato a dare risposte: a selezionare, fra le fonti e i risultati di una ricerca, una singola risposta da evidenziare in un riquadro in cima alla lista dei risultati. Google promuove questi risultati dandogli un maggiore peso visivo e includendo il loro contenuto direttamente nella pagina dei risultati — evitando così all’utente di dover visitare un altro sito per leggerli. Li chiama featured snippets:

Quando un utente pone una domanda, la risposta restituita potrebbe essere mostrata in un riquadro speciale di snippet in primo piano nella parte superiore della pagina dei risultati di ricerca. Questo riquadro di snippet in primo piano include un riepilogo della risposta estratto da una pagina web, insieme a un link alla pagina, il relativo titolo e l’URL.

L’obiettivo è quello di riuscire a rispondere direttamente alle domande dell’utente, invece di essere uno strumento di ricerca per trovare e valutare delle possibili risposte. Stando ai dati raccolti da Google agli utenti queste risposte senza sforzo, immediate, piacciono — perché possono trovare quello che cercano senza dover visitare un altro sito o un’altra app. Funzionano molto dai dispositivi mobili — perché siamo più di fretta — ma soprattutto sono un vantaggio competitivo per quanto riguarda gli assistenti vocali: una lista di risultati non funziona su smartwatch e assistenti come Google Home e né Siri né Echo sono al momento in grado di fornire risposte dirette estrapolate da pagine web.

Il problema è che, come sottolinea un post di The Outline, queste risposte a volte sono assurde, sbagliate, aiutano a diffondere teorie cospirazioniste; sono insomma inaffidabili. Google risponde Obama alla domanda ‘chi è il re degli Stati Uniti?’, pensa che lo stesso stia pianificando un colpo di stato, e spiega che tutte le donne sono prostitute se gli si chiede ‘perché le donne sono cattive?’. Un algoritmo, basato su popolarità di un risultato, pagerank e altri oscuri criteri, promuove un risultato a risposta in automatico. Google ha la capacità di intervenire manualmente per modificare le risposte di certe ricerche, e spesso lo fa, ma è probabile che passi del tempo prima che si renda conto sia necessario intervenire — e in quel tempo molte persone leggano la risposta fasulla:

In theory, featured snippets will always temporarily turn up some bad answers, but the net effect would be better answers. “It’ll never be fully baked, because Google can’t tell if something is truly a fact or not,” said Danny Sullivan of Search Engine Land. “It depends on what people post on the web. And it can use all its machine learning and algorithms to make the best guess, but sometimes a guess is wrong. And when a guess is wrong, it can be spectacularly terrible.”

Tutto ciò è un problema perché, stando a un recente sondaggio, il 63% delle persone si fida di Google. Queste risposte sono decontestualizzate: l’utente non visita il sito originario, non nota il layout, il contenuto o gli autori (tutti indizi che aiutano a valutare la veridicità di una fonte), ma le legge attraverso l’interfaccia pulita di Google, e potrebbe così essere portato a pensare che queste risposte vengano direttamente da Google (il problema è peggiore con gli assistenti vocali).

I social network — ottimizzati per mostrarci cose che ci piacciono — stanno contribuendo alla diffusione di cospirazioni e teorie imbecilli. Una volta che un utente si iscrive a un gruppo contro gli OGM, per fare un esempio, finisce in un circolo vizioso in cui gli vengono suggerite e presentate varie notizie e opinioni altrettanto opinabili — come i gruppi anti vaccini, o i vari metodi naturali e “ingiustamente” non riconosciuti per curare una malattia.

Scrive Fast Company:

In his 1962 book, The Image: A Guide to Pseudo-Events in America, former Librarian of Congress Daniel J. Boorstin describes a world where our ability to technologically shape reality is so sophisticated, it overcomes reality itself. “We risk being the first people in history,” he writes, “to have been able to make their illusions so vivid, so persuasive, so ‘realistic’ that they can live in them.” […]

Rather than pulling a user out of the rabbit hole, the recommendation engine pushes them further in. We are long past merely partisan filter bubbles and well into the realm of siloed communities that experience their own reality and operate with their own fact.

Per dimostrare questo effetto, il Wall Street Journal ha creato due differenti versioni del news feed di Facebook: in un caso il news feed raccoglie le notizie che vedono e vengono consigliate ai sostenitori del partito democratico, nell’altro quelle che vengono proposte alle persone che votano i repubblicani.

Si discute molto in questi giorni della sezione trending topics di Facebook, che a differenza del news feed — nel quale la priorità di una notizia rispetto a un’altra viene determinata da un algoritmo — ha delle persone dietro che scelgono a quali notizie dare rilevanza. Pare, stando alle dichiarazioni di uno dei giornalisti che lavora a Facebook, che il social network abbia optato più volte per censurare una notizia a supporto del partito conservatore in favore del partito democratico.

In realtà, trending topics è una sezione piccola di Facebook che vive nella sidebar del sito. Facebook può sì influenzare i suoi utenti scegliendo a quali notizie dare risalto, ma che sicuramente ha più impatto sulle loro idee e scelte politiche è il news feed — e il news feed ahimè ha un problema ben più grosso: ci mostra solo quello che ci dà ragione, contribuendo a una polarizzazione generale delle nostre opinioni. È editoriale ma meno esplicitamente: non ha un gruppo di persone dietro che ne curano il contenuto — come trending topics —, ma ha un algoritmo basato comunque su un principio: suggerirci cose che ci piacciono.

Come scrive Ben Thompson, è il news feed che rischia di fare un danno maggiore alla società:

This, then, is the deep irony of this controversy: Facebook is receiving a huge amount of criticism for allegedly biasing the news via the empowerment of a team of human curators to make editorial decisions, as opposed to relying on what was previously thought to be an algorithm; it is an algorithm, though — the algorithm that powers the News Feed, with the goal of driving engagement — that is arguably doing more damage to our politics than the most biased human editor ever could. The fact of the matter is that, on the part of Facebook people actually see — the News Feed, not Trending News — conservatives see conservative stories, and liberals see liberal ones; the middle of the road is as hard to find as a viable business model for journalism (these things are not disconnected).

La verità è che il problema risiede nella premessa di Facebook di essere neutrale: né l’algoritmo che determina cosa mostrarci nel news feed, né la sezione curata manualmente da un gruppo di giornalisti, lo sono. Entrambi sono editoriali — ed è il news feed, l’idea che solo quello che ci piace ed è in sintonia con le nostre opinioni debba interessarci — che dovrebbe preoccuparci maggiormente.

La cascata d’informazione non filtrata e ordinata cronologicamente a cui ci ha abituato Twitter, Instagr.am, i blog prima e Facebook poi è un modo sempre più inefficace di processare e organizzare l’informazione online, scrive Casey Johnston:

The feed arose as a simple way to take advantage of the new possibilities of the web. How should information be sorted when it’s being created continually, and not in packaged issues or editions? Early on, putting content in a long list according to the time it was posted made the most sense. It’s the easiest way to organize anything, ever: You just make a pile, and the oldest stuff is at the bottom. It was a perfect paradigm for social networks: It’s transparent, so you don’t need to explain to your users how it works. It fits nicely on a smartphone. Best of all, it encourages people to constantly refresh, which reads as a certain kind of engagement.

Unfortunately, chronological order doesn’t scale well. Once a medium or platform has had its here-comes-everyone moment, the stuff you actually want to see gets buried in an undifferentiated stream — imagine a library organized chronologically, or even the morning edition of a newspaper. People are doing too many things and they are happening all at once, and the once-coherent experience of people using a platform unravels into noise.

Nel momento in cui un servizio raggiunge un numero considerevole di utenti, il rumore diventa troppo forte e non solo si fa fatica a tenersi aggiornati ma si fa anche fatica a capire con chi si ha a che fare — con chi si sta comunicando:

And, as it turns out, the same neutrality and transparency that made time-based sorting so appealing can be a particular liability for social media. It’s an established fact of social media services that, once they reach enough size that the potential audience for a post becomes nebulous, people shy from posting on them, because they can’t predict what reaction they’ll get. This — called “context collapse” — is why we’ve seen group messaging services boom as broader social media ones have flattened; in your Slack or HipChat or GroupMe, you know how your friends or family will react to a link you post. On an open and unfiltered social media feed, the outcome of posting to a public is far too unpredictable.

Fingere di essere informati

Non è mai stato così facile, come lo è oggi, pretendere di essere informati e eruditi, senza in realtà sapere nulla.” In “Faking Cultural Literacy“, Karl Greenfeld ha riassunto il modo in cui oggi ci muoviamo nell’informazione: non ci interessa assumerla ma condividerla, e ci interessa condividerla — sui social network, o nelle conversazioni faccia a faccia —  per mostrare ai nostri amici che siamo informati, che siamo istruiti:

Selezioniamo quello che ci appare rilevante da Facebook, Twitter o fonti simili, e poi lo rigurgitiamo. Quello che oggi a noi interessa non è necessariamente aver consumato un contenuto di prima mano, ma semplicemente sapere che esiste — e avere una posizione a riguardo, essere in grado di discuterne in merito.

Tony Haile, CEO di Chartbeat (un’azienda che si occupa di statistiche online), ha dichiarato in un tweet che non esiste correlazione fra la condivisione di un pezzo su un social network e l’effettiva lettura di quest’ultimo da parte dell’utente. Apparentemente, non abbiamo più tempo per leggere libri o articoli, ma solamente per assimilare le opinioni succinte che i nostri amici o fonti hanno a riguardo di essi: ci bastano quelle, per potere avere un’opinione che sia scambiabile in un’interazione, per non mostrarci impreparati.

Tutte le volte che qualcuno, in qualsiasi posto, online o fuori dalla rete, menziona qualcosa, dobbiamo fingere di esserne al corrente. L’informazione è diventata una valuta di scambio:

Chi decide cosa sappiamo, quali opinioni vediamo, quali idee riproponiamo come nostre osservazioni? Algoritmi, apparentemente, quali Google, Facebook e Twitter. […] Abbiamo affidato le nostre opinioni a questa fonte di dati che ci permette di mostrarci informati a un party, in qualunque situazione. […] Qualcuno ammette mai di essersi completamente perso nella conversazione? No. Annuiamo e diciamo “ho sentito quel nome”, o “suona familiare”, che solitamente significa che non abbiamo alcuna familiarità con il soggetto in questione.

Com’è che ci annoiamo, nonostante Internet?

Com’è possibile annoiarsi nonostante Google e un accesso illimitato all’informazione come quello che abbiamo oggi, è la domanda a cui sostanzialmente prova a dare risposta un articolo di Aeon Magazine legando fra loro due concetti: quello di informazione e quello del significato che traiamo da essa.

Internet dà accesso all’informazione, che tuttavia è il materiale più grezzo attraverso il quale giungiamo a un significato: uno stream di fatti e opinioni, di cose sensate e insensate, nel quale possiamo andare a pescare per trovare qualcosa di più grande. Non si tratta solo di filtrare il rumore dal segnale, ma con pazienza, tempo e capacità trasformarlo in qualcosa di meglio: in conoscenza dotata di un significato.

La conoscenza inizia ad avere senso quando iniziamo a stabilire delle connessioni, a trarre storie da essa, storie attraverso le quali diamo un senso al mondo e alla nostra posizione in esso. È la differenza fra il memorizzare l’orario dei bus di una città che non visiterai mai e utilizzare quell’orario per esplorare la città in cui sei appena arrivato. Quando seguiamo le connessioni — quando permettiamo alla conoscenza di portarci da qualche parte, accettando il rischio che questo punto d’arrivo cambi lungo il tragitto — questa può dare la nascita a un “significato”.

Se c’è un antidoto alla noia, questo non è l’informazione fine a se stessa ma il significato — che da quando c’è internet in alcuni casi è diventato ancora più difficile da trarre. Perché l’informazione è intrattenimento, a meno che non si vada oltre essa e la si elevi. Perché la ricerca di un significato non richiede solo lo stimolo dato dall’informazione ma anche un impegno nel trovare e costruire dei collegamenti:

Internet è un aiuto incredibile nella ricerca di connessioni che portino un significato. Ma se le radici della noia risiedono nella mancanza di significato, piuttosto che in una mancanza di stimoli, e se esiste un sottile, variegato processo attraverso il quale l’informazione può essere elevata a significato, il flusso costante di informazione a cui stiamo diventando abituati non può aiutarci a portare in atto questo compito. Al massimo, può permetterci di distrarci posticipandolo con un loop infinito di click.

In altre parole, sarebbe necessario “staccarsi” da Internet e dal flusso costante di informazione per riuscire a trovare un significato più profondo della mera acquisizione di essa. “Spegni la macchina, non per sempre, non perché ci sia nulla di cattivo in essa, ma per riconoscere il limite: c’è solo una certa quantità di informazione che siamo in grado di sopportare, e non possiamo andare a pescare nel ruscello [internet] se vi stiamo affogando“.

Un articolo pubblicato da Monkey See, un blog della NPR, sull’ansia del consumo — di articoli, informazioni, libri, tutto quanto insomma. Da leggere quando ci sentiamo in colpa perché ignoriamo la timeline di Twitter, lasciamo che il lettore di feed RSS accumuli articoli o posticipiamo la lettura di un pezzo a Instapaper. Internet è piena di cose magnifiche, e finiremo per perdercele quasi tutte. La soluzione sta nell’accettare questo fatto, selezionando con cura, evitando di arrendersi alla mole:

It’s an effort, I think, to make the world smaller and easier to manage, to make the awareness of what we’re missing less painful. There are people who choose not to watch television – and plenty of people don’t, and good for them – who find it easier to declare that they don’t watch television because there is no good television than to say they choose to do other things, but acknowledge that they’re missing out on Mad Men — which is surrender[1. Più tecnicamente definito l’approccio alla Paul Miller al problema]. […] If “well-read” means “not missing anything,” then nobody has a chance. If “well-read” means “making a genuine effort to explore thoughtfully,” then yes, we can all be well-read. But what we’ve seen is always going to be a very small cup dipped out of a very big ocean, and turning your back on the ocean to stare into the cup can’t change that.

Come avrete capito dai diversi post che ho scritto sull’argomento, sono convinto che la risposta all’information overload che prevede che ci si privi della rete per riacquistare l’attenzione perduta sia sbagliata: perché mette il focus sul soggetto sbagliato (la rete, e non l’individuo e l’uso che ne fa di questa rete) e perché non risolve nulla, se non temporaneamente (poi in rete ci si torna, e la si usa come prima).

(Lo sguardo dell’artista)

Non posso quindi che apprezzare l’articolo apparso sul Wall Street Journal: «Il futuro non appartiene a quelli che abbassano il volume, cancellano le proprie iscrizioni, o si disconnettono.» Appartiene a quelli che hanno imparato a selezionare, limitare e variare l’informazione che consumano:

Yes, there are times to unplug. Effective people in any occupation do not zoom at warp speed continuously; even field generals retreat to move forward. Finding time to pause, think, reflect, recharge, and be creative is absolutely essential to success in any field. We need to take stock of things overlooked in the hubbub of daily life.

The future belongs not to those who turn down the volume, cancel their subscriptions, or unplug. Instead it will go to those who vary their information diets, listen for important but subtle “weak signals,” and go out into the world to discover remarkable people, ideas, places, products, and services for themselves. Take it all in, as the discerning omnivore you ought to be.

Via | Giuseppe Granieri

We, the Web Kids“, di Piotr Czerski; pubblicato dall’Atlantic e tradotto in italiano da Internazionale:

Abbiamo imparato ad accettare che troveremo molte risposte anziché una sola, e da queste possiamo dedurre la versione più probabile scartando quelle che ci sembrano meno credibili. Selezioniamo, filtriamo, ricordiamo e siamo disposti ad abbandonare le informazioni che abbiamo in favore di altre aggiornate e migliori, se ne troviamo.

Per noi il web è una sorta di memoria esterna condivisa. Non dobbiamo ricordare dettagli superflui: date, calcoli, formule, nomi di strade, definizioni particolareggiate. Ci basta avere un riassunto, l’essenziale per elaborare le informazioni e riferirle ad altri. Se ci servono i dettagli, possiamo recuperarli nel giro di pochi secondi

C’è qualcosa di molto vero, in queste parole. Ma soprattutto c’è l’importanza, oggi quanto mai tale, di essere in grado di filtrare l’informazione e distinguere quella rilevante, e veritiera, da quella che non vale nulla. Su Internet si trovano articoli e saggi per avvallare qualsiasi ipotesi e, con un click in più, per smontarla. Sta alla persona, e alla sua bravura nel filtrare e orientarsi in questo “nuovo mondo”, capire e scegliere correttamente a cosa prestare la sua attenzione.