pointerQuelli che di lavoro devono guardare il porno

Facebook (e tutti i social network principali di cui facciamo uso) hanno una schiera di moderatori che si preoccupano di tenere l’ambiente pulito per noi. Non se ne parla molto, perché ci piace pensare che il processo sia automatico, ma è un numero impressionante di persone che di lavoro passano la giornata a guardare immagini porno, video di decapitazioni e tutti quei contenuti che noi preferiremmo evitare (e che di fatto, grazie a loro, raramente dobbiamo subire).

Adrian Chen narra, su Wired, la storia di queste persone:

So companies like Facebook and Twitter rely on an army of workers employed to soak up the worst of humanity in order to protect the rest of us. And there are legions of them—a vast, invisible pool of human labor. Hemanshu Nigam, the former chief security officer of MySpace who now runs online safety consultancy SSP Blue, estimates that the number of content moderators scrubbing the world’s social media sites, mobile apps, and cloud storage services runs to “well over 100,000”—that is, about twice the total head count of Google and nearly 14 times that of Facebook.

È un processo meno automatico di quello che potremmo pensare, che richiede in certe situazioni una buona conoscenza della cultura del Paese di riferimento, e di cosa possa risultare offensivo o meno.

(Internet è di tutti?)