Pur non avendo alcuna esperienza personale in merito, credo Siri risulti molto più utile su Apple Watch che su iPhone — offre un modello d’interazione immediato, senza possibilità di distrazione, adatto a reperire quel tipo d’informazione concisa che uno va a ricercare su smartwatch. Non siamo ancora arrivati al punto da poter fare tutto per comandi vocali (dato che Siri non funziona perfettamente), ma credo l’idea di un’assistente vocale acquisti su smartwatch non solo più utilità, ma risulti anche più normale (mentre raramente parlo all’iPhone, non credo avrei problemi a parlare all’orologio).
Project Soli di Google — presentato in occasione del Google I/O, e nato dentro il laboratorio ATAP, “Advanced Technology and Projects” — è un altro passo in questa direzione. Google ha miniaturizzato in un minuscolo chip di 9 millimetri quadrati un radar, in grado di determinare i movimenti che facciamo con la mano, e come muoviamo le dita, identificando così gesture di vario tipo. Ad esempio, sfiorare due polpastrelli fra loro, come a indicare la rotazione di una rotella, può indicare il desiderio di variare il volume.
Date le dimensioni, il chip potrà essere inserito in smartwatch, smartphone e wearable di dimensioni ridotte e offrire un modello d’interazione che non richiede una UI. Con le stesse intenzioni è nato dentro ATAP un altro progetto, Project Jacquard, che vuole trasformare i nostri vestiti nell’interfaccia. Il progetto è già capace di creare tessuti in fibra conduttiva capaci di comunicare con lo smartphone, e Google ha già stipulato una partnership con Levi’s per produrre i primi abiti “intelligenti”. Basta scorrere la mano lungo la manica della camicia, per avviare un’azione sullo smartphone.
Project Soli e Jacquard offrono nuovi modelli d’interazione per l’internet delle cose, suggerendo anche che per certi wearable un’interfaccia grafica possa essere un di più, una complessità aggiuntiva, un impedimento alla loro efficacia.