Da un paio d’anni Google ha iniziato a dare risposte: a selezionare, fra le fonti e i risultati di una ricerca, una singola risposta da evidenziare in un riquadro in cima alla lista dei risultati. Google promuove questi risultati dandogli un maggiore peso visivo e includendo il loro contenuto direttamente nella pagina dei risultati — evitando così all’utente di dover visitare un altro sito per leggerli. Li chiama featured snippets:
Quando un utente pone una domanda, la risposta restituita potrebbe essere mostrata in un riquadro speciale di snippet in primo piano nella parte superiore della pagina dei risultati di ricerca. Questo riquadro di snippet in primo piano include un riepilogo della risposta estratto da una pagina web, insieme a un link alla pagina, il relativo titolo e l’URL.
L’obiettivo è quello di riuscire a rispondere direttamente alle domande dell’utente, invece di essere uno strumento di ricerca per trovare e valutare delle possibili risposte. Stando ai dati raccolti da Google agli utenti queste risposte senza sforzo, immediate, piacciono — perché possono trovare quello che cercano senza dover visitare un altro sito o un’altra app. Funzionano molto dai dispositivi mobili — perché siamo più di fretta — ma soprattutto sono un vantaggio competitivo per quanto riguarda gli assistenti vocali: una lista di risultati non funziona su smartwatch e assistenti come Google Home e né Siri né Echo sono al momento in grado di fornire risposte dirette estrapolate da pagine web.
Il problema è che, come sottolinea un post di The Outline, queste risposte a volte sono assurde, sbagliate, aiutano a diffondere teorie cospirazioniste; sono insomma inaffidabili. Google risponde Obama alla domanda ‘chi è il re degli Stati Uniti?’, pensa che lo stesso stia pianificando un colpo di stato, e spiega che tutte le donne sono prostitute se gli si chiede ‘perché le donne sono cattive?’. Un algoritmo, basato su popolarità di un risultato, pagerank e altri oscuri criteri, promuove un risultato a risposta in automatico. Google ha la capacità di intervenire manualmente per modificare le risposte di certe ricerche, e spesso lo fa, ma è probabile che passi del tempo prima che si renda conto sia necessario intervenire — e in quel tempo molte persone leggano la risposta fasulla:
In theory, featured snippets will always temporarily turn up some bad answers, but the net effect would be better answers. “It’ll never be fully baked, because Google can’t tell if something is truly a fact or not,” said Danny Sullivan of Search Engine Land. “It depends on what people post on the web. And it can use all its machine learning and algorithms to make the best guess, but sometimes a guess is wrong. And when a guess is wrong, it can be spectacularly terrible.”
Tutto ciò è un problema perché, stando a un recente sondaggio, il 63% delle persone si fida di Google. Queste risposte sono decontestualizzate: l’utente non visita il sito originario, non nota il layout, il contenuto o gli autori (tutti indizi che aiutano a valutare la veridicità di una fonte), ma le legge attraverso l’interfaccia pulita di Google, e potrebbe così essere portato a pensare che queste risposte vengano direttamente da Google (il problema è peggiore con gli assistenti vocali).