Steven Levy ha fatto una chiacchierata con Elon Musk (e Sam Altman) per capire meglio che piani hanno per OpenAI:

I want to return to the idea that by sharing AI, we might not suffer the worst of its negative consequences. Isn’t there a risk that by making it more available, you’ll be increasing the potential dangers?

Altman: I wish I could count the hours that I have spent with Elon debating this topic and with others as well and I am still not a hundred percent certain. You can never be a hundred percent certain, right? But play out the different scenarios. Security through secrecy on technology has just not worked very often. If only one person gets to have it, how do you decide if that should be Google or the U.S. government or the Chinese government or ISIS or who? There are lots of bad humans in the world and yet humanity has continued to thrive. However, what would happen if one of those humans were a billion times more powerful than another human?

Musk: I think the best defense against the misuse of AI is to empower as many people as possible to have AI. If everyone has AI powers, then there’s not any one person or a small set of individuals who can have AI superpower.

Elon Musk, Sam Altman e un numero piuttosto cospicuo di nomi della Silicon Valley ha presentato OpenAI, una no-profit dedicata ad avanzare lo stato dell’intelligenza artificiale senza concentrarsi sui profitti, ma sul “bene” che l’umanità può derivarne (se volete spaventarvi, c’è una serie di lunghi post del blog Wait but Why che spiega cosa potrebbe succedere nel caso vada tutto storto).

OpenAI:

Because of AI’s surprising history, it’s hard to predict when human-level AI might come within reach. When it does, it’ll be important to have a leading research institution which can prioritize a good outcome for all over its own self-interest.

We’re hoping to grow OpenAI into such an institution. As a non-profit, our aim is to build value for everyone rather than shareholders. Researchers will be strongly encouraged to publish their work, whether as papers, blog posts, or code, and our patents (if any) will be shared with the world. We’ll freely collaborate with others across many institutions and expect to work with companies to research and deploy new technologies.

Cosa sognano le macchine

Google si è chiesta cosa vedano le sue macchine — quelle che a cui ha insegnato a riconoscere e analizzare le foto. Simulando una rete neurale, ha provato a dare una risposta a questa domanda (è tutto ben spiegato nel loro post).

Queste reti non devono solamente riconoscere un’immagine, ma possono anche generarne di nuove. Si sono quindi chiesti cosa una macchina veda, partendo da un’immagine (delle nuvole, ad esempio) fornita a caso — quali oggetti riconosca, e cosa enfatizzi.

Scrivono:

This creates a feedback loop: if a cloud looks a little bit like a bird, the network will make it look more like a bird. This in turn will make the network recognize the bird even more strongly on the next pass and so forth, until a highly detailed bird appears, seemingly out of nowhere.

Ovvero, questa è una delle tante cose che è le macchine hanno immaginato:

Il video giusto da guardare dopo essersi letti i due pezzi di Wait But Why? su AI.

(via @diegopetrucci)

Black Mirror

Black Mirror è una serie tv di Charlie Brooker[1. Il cui Wipe annuale è appuntamento imperdibile a capodanno], dedicata a esplorare l’impatto che la tecnologia odierna (smartphone, computer, social network, etc.) così come quella attualmente in sviluppo (AI), avranno sulle nostre vite.

Due cose che mi piacciono della serie. La prima: che ogni episodio esplora una degenerazione diversa, fra le tante possibili. Il terzo episodio, “The Entire History of You”, mostra l’impatto che una versione avanzata dei Google Glass potrebbe avere su relazioni e ricordi. Un chip, inserito direttamente nel cervello, è in grado di registrare tutto quello che ci succede: finiamo con il diventare ossessionati dai ricordi e col rivivere i momenti belli di continuo, nello stesso modo in cui oggi ricorriamo a Facebook. “The Waldo Moment”, l’ultimo episodio della prima serie, mostra un comico “proporsi” come politico, grazie a un panorama informativo dedicato più a intrattenere che informare (è meno futuristico, e con il Movimento 5 Stelle in Italia ci andiamo molto vicini). Ma se ne volete uno davvero terrificante “White Christmas“, lo speciale che Channel 4 (che ha commissionato la serie) ha mandato in onda a Natale, è quello da vedere.

La seconda ragione per cui Black Mirror funziona è che i device che i protagonisti usano per quanto diano luogo a scenari distopici e poco augurabili, sono anche molto belli. E sono belli sia nelle funzionalità (a volte) che, soprattutto, nel design. Sembrano oggetti che Apple avrebbe potuto disegnare, e in ciò si svela l’elemento più spaventoso di Black Mirror: il fatto che queste tecnologie — per quanto diano spazio a scenari e ipotesi terrificanti — si diffondano per scelta, non forzatamente. Vengano volentieri e spontaneamente adottate dai protagonisti degli episodi, grazie a un design minimalista e molto in linea con i gusti correnti che ci fa dimenticare, se non nasconde, i pericoli.

Scrive il New York Times:

To that end, the gadgets in “Black Mirror,” including the creepy memory-recording devices, look sleek enough to want, which is perhaps the show’s cleverest trick. It is impossible to watch the show and not idly fantasize about having access to some of the services and systems they use, even as you see them used in horrifying ways. (You might not feel this way about, say, “The Terminator.”) Most television shows and movies can’t even correctly portray the standard interfaces that we use to browse the Web, send a text message or make a voice call, let alone design them in a desirable way.

“Black Mirror” resonates because the show manages to exhibit caution about the role of technology without diminishing its importance and novelty, functioning as a twisted View-Master of many different future universes where things have strayed horribly off-course. (This is an advantage it has over the movies: a blockbuster must settle on one convincing outcome and stick with it.)

Nell’immaginario comune i robot sono una minaccia, nei media e nei film. Non per le conseguenze che potrebbero avere — ad esempio sul lavoro a causa dell’automazione — quanto perché li immaginiamo simili a noi, e per questo potenzialmente capaci di ribellarsi. Una ribellione che ha impossibilità di attuarsi nei robot odierni: semplicemente perché non siamo ancora in grado di costruire un computer cosciente.

Per questo trovo rassicurante, e bellissimo, questo articolo di Om Malik — in cui Om cita il complesso di Frankenstein di Asimov:

Isaac Asimov dubbed our expectations and the resulting fear “the Frankenstein complex”:a fear of artificial human beings. In fiction and in movies, our exposure to robotics has been that drones/HAL/Terminator/RoboCop will replace humanity. And yet while Kiva’s robots and Roomba replace many human functions, they are nowhere near as threatening as those humanlike contraptions we associate with the word “robot.” They are doing what robots are supposed to do: repetitive jobs that humans don’t want. I wonder if the media portrayal of robots might be the core reason why we are so uncomfortable with the idea of robots

Il complesso di Frankenstein, spiegato da Treccani:

Dunque il robot come incarnazione della tecnologia che sfugge al controllo del suo creatore? Non dopo Asimov che, con le sue tre leggi, trasformò i robot in macchine d’uso comune. “Lo dipinsi [il robot] come una creatura assolutamente innocua, intesa a svolgere il lavoro per il quale era stata progettata. Incapace di nuocere all’uomo, eppure oggetto di soprusi da parte degli esseri umani che, afflitti da un ‘complesso di Frankenstein’ [.], si ostinavano a considerare quelle povere macchine come creature pericolose” (ibidem).

Il cambiamento d’orizzonte narrativo operato da Asimov trasforma il robot dal prodotto di una ybris, che giocoforza necessita della sua nemesis, a simbolo pacifico ma emblematico che obbliga l’uomo a confrontarsi con il proprio futuro, riconsiderando se stesso e le sue categorie mentali. Tema, questo, fondante di tutta la fantascienza post-asimoviana.

Zeynep Tufekci:

When people confidently announce that once robots come for our jobs, we’ll find something else to do like we always did, they are drawing from a very short history. The truth is, there’s only been one-and-a-three-quarters of a machine age—we are close to concluding the second one—we are moving into the third one. And there is probably no fourth one.

Humans have only so many “irreplaceable” skills, and the idea that we’ll just keep outrunning the machines, skill-wise, is a folly.