L’articolo di Bret Victor, A Brief Rant on the Future of Interaction Design, di cui ho pubblicato la traduzione in italiano ieri, ha ricevuto evidentemente molta attenzione. Bret ha aggiunto qualche osservazione in risposta alle reazioni che il suo intervento ha suscitato, e mi è sembrato corretto tradurre anche questa aggiunta.
[Articolo originale | Original article: Responses: A Brief Rant On The Future Of Interaction Design]
Un paio di giorni fa ho pubblicato Un Breve Sfogo sul Futuro del Design dell’Interazione. Ecco alcune delle reazioni più comuni che ho ricevuto, e qualche osservazione su di esse.
Non hai offerto una soluzione.
Esatto, per questo l’ho chiamato sfogo e non saggio: descrive un problema, non un’idea. (E tra l’altro non si tratta nemmeno del genere di cosa che solitamente pubblico o che voglio pubblicare).
La soluzione non è nota, e ho pensato che inventarmi qualcosa su due piedi non avrebbe portato alcun contributo valido.
Il nocciolo del mio sfogo era che una soluzione verrà trovata attraverso una lunga ricerca, e che tale ricerca non avrà luogo senza che prima vi sia una consapevolezza del problema. La mia intenzione era ottimisticamente quella di spingere qualche potenziale ricercatore e finanziatore verso interfacce tangibili, materiali dinamici, interfacce aptiche e settori correlati che ancora non sono stati propriamente definiti. Se ciò avverrà, allora le mie intenzioni saranno andate a buon fine.
Bravo! L’iPhone è pessimo! L’iPad è pessimo!
No! L’iPad è ottimo! Per ora!
Nel 1900, la nuova macchina fotografica Kodak di Eastman era ottima. La pellicola era in bianco e nero, ma piaceva lo stesso a tutti. Ma era anche ovvio che qualcosa mancasse, e la ricerca proseguì. Una pellicola a colori pratica da usare fu introdotta una trentina d’anni più tardi, e prese progressivamente il sopravvento.
D’altro canto, malgrado l’invenzione dell’olografia sia avvenuta 60 anni fa, non era così ovvio che alle fotografie bidimensionali dotate di un’unica prospettiva mancasse qualcosa di essenziale. Magari nessuno si è sfogato abbastanza. Immagino che la fotografia 3D non abbia goduto di grande attenzione accademica, visto che persino oggi, nel 2011, crediamo che la possibilità di rifocalizzare una foto sia un’idea fantastica.
Oggi l’iPad va bene così. È piatto e vitreo e piace a tutti. Ma se tutto quel che avremo fra le mani tra vent’anni sarà un iPad con qualche piccola aggiunta di interfaccia aptica, allora le cose non andranno molto bene.
Sei quindi a favore di cose come stilo / tastiera / bastoncini e sassi?
La mia richiesta è stata quella di puntare a un “medium dinamico che possiamo vedere, percepire e manipolare”. Quegli oggetti non sono dinamici, quindi no.
Lo schermo di un computer è un medium dinamico visivo: può rappresentare visivamente quasi ogni cosa. Un medium dinamico tattile dovrebbe poter rappresentare tangibilmente quasi ogni cosa. Lo si potrebbe ottenere mediante un derivato dei materiali deformabili (come questi), un derivato dell’olografia aptica (come questo), attraverso aggregazioni pazzesche di nanobot, o probabilmente attraverso una tecnologia non ancora concepita.
Non ho preferenze particolari. Sviluppate pure la ricerca che più vi ispira. (Personalmente, mi interessa solo progettare interfacce e applicazioni basate su una data tecnologia, non l’implementazione stessa della tecnologia. Non mi interessa affatto il funzionamento del display LCD dell’iPad, ma sono felicissimo che qualcun altro se ne sia interessato e ci abbia sviluppato sopra).
Che ne pensi della voce come interfaccia?
Certo. Utilizziamo pure la voce per tutte quelle attività per cui si usa di solito la voce: fare domande e impartire comandi. Io però sono interessato a strumenti per creare e per comprendere.
Creare — Mi è proprio difficile immaginare Monet dire alla sua tela, “Voglio delle ninfee. Creale impressionistiche”. O progettare un edificio dicendo ai muri dove devono posizionarsi. La maggioranza dei progetti artistici e ingegneristici (almeno, quelli non basati sul linguaggio) non sono descrivibili. Esistono nello spazio, e noi manipoliamo lo spazio con le nostre mani.
Comprendere — Se si vuole soltanto dell’informazione pura e semplice (“Qual è stato il prezzo delle azioni Apple negli ultimi tre anni?”), allora un ‘oracolo’ come Wolfram Alpha è perfetto. Ma credo che una comprensione approfondita richieda un’esplorazione attiva, e sono molto più interessato agli ambienti esplorabili. Osservate i grafici interattivi nel mio studio Ladder of Abstraction, specialmente gli ultimi. Arriviamo a comprendere il sistema puntando agli oggetti, regolando gli oggetti, spostandoci intorno allo spazio delle possibilità (e quei grafici sono esempi fin troppo semplici). Non so come indicare qualcosa solo con la voce. Non so come passare in rassegna più dimensioni usando solo la mia voce.
(Comunque, se le interfacce vocali vi esaltano, accomodatevi e date il vostro contributo a questo settore di ricerca. È un’ottima cosa! La mia impressione è che l’elaborazione del linguaggio naturale riceva già molta più attenzione rispetto alle interfacce aptiche, ma è un’impressione che potrebbe essere viziata dall’aver convissuto con svariati ricercatori dello Stanford NLP negli ultimi anni).
Che ne pensi riguardo all’Agitare le Mani in Aria?
A mio avviso qui ci troviamo di fronte a tre categorie.
Un grande vocabolario di gesti astratti discreti è essenzialmente un linguaggio dei segni. Quindi ritengo che tutto ciò che vale per la voce valga anche in questo contesto.
Un piccolo insieme di gesti diretti spazialmente a distanza (indicare gli oggetti su uno schermo e spostarli al suo interno, come in Oblong e in Minority Report) costituisce una manipolazione indiretta, non una manipolazione diretta. Si tratta in sostanza di un mouse molto sofisticato. Personalmente penso che questo sia un passo indietro, e la mia (breve) esperienza in merito non è stata positiva.
Con la manipolazione diretta di una rappresentazione virtuale 3D (come in Iron Man, se ricordo bene) si avrebbe il problema di non essere in grado di percepire ciò che si sta manipolando, e immagino che una cosa del genere sarebbe fuorviante per i nostri sensi propriocettivi. Le mie (brevi) esperienze cercando di manipolare oggetti Agitando le Mani in Aria non sono state positive, perché le mie mani raramente si trovavano dove pensavo che fossero. (Ma forse aggiungendo un pizzico di interfaccia aptica, sia attraverso guanti speciali o a distanza, si potrebbe arrivare a qualcosa).
Che ne pensi del controllo della mente?
Sì, forse sarà uno degli sbocchi, insieme ad altre interfacce ‘dirette’ tramite modificazione genetica. Dal mio punto di vista (e questa è solo una mia bizzarra opinione), una volta che iniziamo ad aggirare la naturale connessione mente/corpo, non saremo più esseri umani in quanto tali, saremo passati da homo sapiens a homo qualcos’altro. Quindi quel che ho detto sul fatto che la natura umana è una costante, non sarà più applicabile, e il discorso va ripreso da zero.
Inoltre questo del controllo della mente a me fa venire i brividi, ma dev’essere qualcosa della mia generazione.
Ma gli schermi tattili sono semplici! Mio figlio di due anni può far scorrere il dito su quel vetro senza problemi.
Sapete, quasi quasi mi piacerebbe che Jean Piaget fosse ancora qui, a guardare i ragazzi mentre usano gli schermi tattili per capire cosa sta realmente accadendo.
Il tuo Breve Sfogo non è stato poi così breve.
Magari vi interessa questo studio: Magic Ink: Information Software and the Graphical Interface. È cortissimo!