Interfaccia utente: spinte innovative e forze conservative

Mele e appunti

Steven Frank di Panic ha recentemente pubblicato una riflessione interessante sul suo blog, sull’attuale situazione dell’interfaccia utente in campo informatico. È da molto che siamo fermi alla metafora della ‘scrivania’. Quale può essere una possibile evoluzione o trasformazione di questo concetto ormai ‘datato’?

Steven inizia facendo una panoramica delle interfacce utente finora incontrate:

Nella breve storia dei computer da scrivania, in pratica, sono esistite due metafore predominanti per quanto riguarda l’interfaccia utente:

  • Tastiera + linea di comando
  • Mouse + scrivania

Una terza metafora, la penna, non ha mai preso realmente piede.

Da una parte si è avuto il Tablet PC, che altro non è che la seconda metafora, ma con una penna al posto del mouse. Dall’altra abbiamo avuto il Newton OS e il Palm OS originario, che sono state le due uniche piattaforme che hanno davvero tenuto conto di come gli esseri umani impugnano e utilizzano una penna. Ma i due sistemi affrontarono la questione in modi diversi. 

Secondo Frank, il motivo primario per cui l’utilizzo della penna non ha mai ingranato è dovuto alla scomodità dell’inserimento di testo. Il riconoscimento della scrittura — scrive — anche se è stato rapidamente migliorato nel corso degli anni, è sempre soggetto a errori. E le tastiere software virtuali sono tediose.

Poi arriviamo a una quarta metafora piuttosto recente: l’interazione diretta fra il dito e lo schermo, il multi-touch, introdotta su scala relativamente ampia da iPhone e iPod touch. Frank la descrive come probabilmente la novità più rilevante in materia di interfaccia utente a entrare nel mercato di massa negli ultimi tempi. Su questo metodo di interazione, Frank continua:

Un singolo tocco è sostanzialmente un mouse senza l’astrazione. Invece di impiegare un dispositivo che sposta un dito virtuale su uno schermo (il puntatore a freccia), si utilizza il dito direttamente. Con il mouse, se ne va anche la precisione. Secondo le stime di Apple, un tocco con la punta del dito copre un’area attiva di circa 40x40 pixel sullo schermo di iPhone, contro 1x1 pixel di un puntatore del mouse e (suppongo) circa 8x8 pixel di un tocco impreciso con una penna. Per cui è preferibile realizzare software adatto a questo tipo di input che tenga in conto della differente precisione. 

Dal singolo tocco al multi-tocco il passo è breve — o quasi:

Quando passiamo dal singolo tocco al multi-touch, entriamo nuovamente nel mondo dei gesti. Se nessuno ci insegna determinate gestualità [di un’interfaccia], può essere molto difficile scoprirle; ma una volta apprese la loro esecuzione è estremamente gratificante.

Ci vogliono due secondi per imparare il pinch-to-zoom [ossia il ‘pizzicare’ un testo o immagine per ingrandire/rimpicciolire], ma se prestassimo un iPhone a una persona che non ne ha mai visto uno e le dicessimo “ingrandisci una porzione di questa pagina Web”, non saprebbe assolutamente come fare. Magari nemmeno si sarebbe immaginata che era possibile fare zoom se non glielo avessimo detto.

Però, una volta insegnata la gestualità, le sembrerà naturale, ed è difficile concepire un sistema più efficiente per fare zoom con le mani. […] Viene offerta una funzionalità che non necessita di spazio sullo schermo dedicato ai controlli, e un’esperienza tattile che deve essere piuttosto gratificante a quel che suppongo sia un livello molto basso del sistema nervoso.

Il vantaggio del pinch-to-zoom rispetto a metodi di ingrandimento/riduzione precedenti è così immediatamente ovvio che si giustifica la curva di apprendimento. Che la curva di apprendimento sia ridicola è un altro punto a favore. Trovo affascinante che una parte enorme dell’apprendimento dell’usabilità di iPhone venga svolta dagli annunci pubblicitari ancor prima della vendita. Sono, al tempo stesso, marketing e istruzione. 

E qui arriviamo a un nodo cruciale per quanto riguarda il discorso dell’innovazione nell’ambito dell’interfaccia utente:

Pertanto, se si vuole provare a convincere il pubblico a cambiare il modo in cui svolge un certo compito, è meglio che questo porti con sé un vantaggio immediatamente ovvio e che non serva più di una manciata di secondi per spiegare come funziona. 

Il problema che pone la metafora della scrivania per chi vuole innovare, è duplice: da un lato ci sono i metodi di input, dall’altro l’architettura dei dati.

Problema 1: Ci dovremo portar dietro la tastiera (un retaggio della macchina da scrivere!) per sempre?

Questo si chiede Steven Frank. E io rispondo: per sempre forse no, ma sicuramente ancora per molto. Che piaccia o no, la tastiera è a tutt’oggi il sistema più veloce per inserire testo in una qualsivoglia macchina. Tempo fa, nella lista NewtonTalk vi fu un’interessante discussione fra chi sosteneva che è più veloce e soprattutto naturale scrivere con una penna, e chi affermava invece che, per quanto veloce sia questo tipo di inserimento del testo, la scrittura mediante una tastiera è più rapida e (considerando lo stato attuale del riconoscimento della scrittura) meno soggetta a errori. Tendo a essere d’accordo con questa seconda linea di pensiero.

Il fatto è che le due uniche alternative all’inserimento del testo in un computer sono il riconoscimento della scrittura e il riconoscimento vocale. Non c’è granché bisogno che faccia esempi concreti per sostenere che, purtroppo, la precisione, l’affidabilità e la velocità di queste due alternative sono oggi insufficienti per entrare in competizione con la scrittura mediante tastiera. Il nodo della questione è proprio il riconoscimento: in entrambi i casi entrano in gioco parecchie variabili che interferiscono con la comunicazione uomo-macchina. Nel caso della scrittura abbiamo l’inclinazione, la velocità, il tipo di calligrafia (chi separa le lettere, chi scrive in un corsivo fluido, ecc.), la distinzione di maiuscole e minuscole, i simboli, i glifi, e in generale il grande processo di disambiguazione della grafia di ognuno per fornire una traduzione e visualizzazione precisa del testo scritto a penna (per non parlare dei gesti aggiuntivi per ordinare la formattazione definitiva del testo: come dico al computer che voglio questa frase scritta in corsivo o in grassetto o sottolineata?). Nel caso della voce abbiamo le interferenze audio, il problema di configurare un sistema di input (microfono) particolarmente sensibile e in grado di sintonizzarsi perfettamente sulla ‘voce del padrone’, che può essere riconosciuta a prescindere da altezza, intensità, velocità di scansione; ma è solo l’inizio — pensate solo a uscire di casa e a usare in movimento un computer portatile il cui unico sistema per inserire testo è parlargli. Pensate se tutti avessero computer del genere — sarebbe un caos acustico inimmaginabile.

La tastiera rimane il sistema più pratico, efficiente e preciso per l’inserimento di testo. Il fatto che sia un sistema di ‘vecchia concezione’ e che possa ormai odorare di cantina, per così dire, non lo rende necessariamente il sistema peggiore o un metodo obsoleto. Per alcuni può sembrare vincolante, specie per quanto riguarda la progettazione di un computer, destinato a portarsi appresso questa appendice (nel caso di un desktop), o destinato alla forma ‘a libro’ con uno schermo piatto da una parte e una tastiera dall’altra (nel caso di un portatile). Ma se consideriamo le problematiche di interazione nelle altre due alternative viste sopra, è facile rendersi conto che — a tutt’oggi — sistemi di riconoscimento di scrittura e di voce sono ancor più vincolanti della tastiera.

Problema 2: Le antiche strutture gerarchiche

Parliamo ovviamente di file, riuniti in cataloghi (directory), organizzati gerarchicamente. Ancora Frank:

Tutti i principali sistemi operativi di oggi continuano a impiegare lo stesso sistema gerarchico dei file che stiamo utilizzando praticamente da sempre. È un concetto naturale per la mente umana? Non proprio. Ma è ‘artificialmente naturale’ in virtù del fatto che milioni di persone ne hanno grande familiarità. Se si ha un metodo innaturale per far qualcosa, e tale metodo viene accidentalmente compreso e subito interiorizzato da un’intera generazione, poi qualunque nuovo metodo, innovativo e ‘naturale’, di fare quelle stesse cose potrebbe essere avvertito come innaturale per il solo fatto di essere differente. 

Frank poi fa alcuni esempi di sistemi operativi che hanno cercato di proporre innovazioni strutturali, guarda caso di provenienza Apple. Il Newton OS ha un approccio estremamente oggettuale. I dati vengono inseriti in ‘contenitori’ (soup) accessibili da tutto il sistema. Informazioni quali eventi in calendario, schede dei contatti dell’agenda, cose da fare (to-do tasks), impostazioni e configurazioni aggiunte, ecc., vengono archiviate e rese disponibili a tutte le applicazioni in grado di attingere a esse e manipolarle, senza bisogno che intervenga per forza l’applicazione che le ha generate.

Altro esempio: l’utilizzo, nel vecchio Mac OS, dei resource fork e data fork come componenti essenziali di ogni elemento. Un sistema più intelligente e avanzato della dipendenza dei file dalle loro estensioni. Grazie al resource fork un elemento era immediatamente riconoscibile e apribile da una certa applicazione o da altra compatibile. Non era necessario mettere .doc o .psd per identificare un file di Word o Photoshop. Come non era necessario usare .exe o .app per distinguere fra programmi eseguibili e documenti.

Come giustamente fa notare Steven Frank, però, il tallone di Achille di questi due approcci era la comunicazione con il mondo esterno, necessariamente mediata da componenti atte a ‘tradurre’ e ‘convertire’ per garantire una certa compatibilità bidirezionale, coi risultati alterni che tutti più o meno conosciamo. Alla lunga — nota Frank — l’interoperabilità ha vinto sull’innovazione.

Conservazione e innovazione

Il nodo della questione, qui, è il riuscire a conciliare queste due forze. Da un punto di vista di interfaccia uomo-macchina, se una certa idea vuole innovare e attecchire deve fare i conti con i dati già esistenti che abbiamo accumulato finora. Una nuova metafora che superi l’immagine ormai abusata della ‘scrivania’ su cui disporre ‘cartelle’ di ‘file’ deve da un lato essere semplice, convincente e utilizzabile con una curva d’apprendimento bassa o accettabile (ovvero che valga la pena considerando sacrifici e benefici); dall’altro deve poter gestire senza passaggi, conversioni, traduzioni (senza quindi transizioni traumatiche per l’utente) i dati vecchi mentre continua a produrne e organizzarne di nuovi.

Steven Frank osserva:

Sembra un po’ fatalista, ma non riesco a pensare a un sistema per rinnovare l’intera metafora della scrivania che non comporti un immediato passaggio da parte di tutta l’utenza mondiale (cosa che non accadrà), o che diventi una ‘isola di informazioni’ come lo furono il Newton OS e il Mac OS classico.

Vorrei tanto essere smentito, ma l’unico metodo realistico per andare avanti pare essere quello di costruire sopra l’infrastruttura esistente, con tutta l’immondizia accumulatasi nel tempo, e procedere per astrazioni successive, tenendo le dita incrociate sperando che la Legge di Moore sia sostenibile ancora per qualche decennio. Le astrazioni sono difficili da digerire sotto l’aspetto delle prestazioni, ma attenuano i problemi di migrazione da un sistema all’altro per una specie — gli esseri umani — che in genere rifugge i cambiamenti.

Quest’ottica, se notate, rappresenta l’approccio di Microsoft al proprio sistema operativo Windows, che a ogni nuova iterazione si faceva più colossale ed elefantiaco proprio perché costruito sull’infrastruttura esistente, con tutta l’immondizia accumulata versione dopo versione, allo scopo di mantenere una coerenza di facciata e una retrocompatibilità di sostanza. Apple ha scelto di procedere per transizioni e astrazioni. Vista con tutto il senno di poi, la migrazione fra l’ambiente Mac OS 9 e Mac OS X è stata portata avanti in maniera intelligente ed elegante, fornendo una rete di sicurezza rappresentata dall’Ambiente Classic, che poteva far funzionare vecchie applicazioni dentro il nuovo sistema, in attesa che comparissero sempre più applicazioni Mac OS X native e che venisse oliato e raffinato Mac OS X stesso. Questa migrazione è stata, se vogliamo, strutturalmente più dura e con un minor numero di compromessi rispetto a quella avvenuta in precedenza, con il passaggio dai processori Motorola 680x0 ai PowerPC, in cui la compatibilità con il passato era garantita da una capacità emulativa diretta, che rendeva quindi la transizione totalmente trasparente per l’utente.

Sempre guardando Apple, possiamo notare le prime astrazioni comparire (come già accennato) nell’interfaccia utente di iPhone e (come dice anche Steven Frank) nelle tecnologie Spotlight e QuickLook in Mac OS X. Il percorso sembra essere quello di rendere l’antica struttura gerarchica dei file un qualcosa esistente all’interno della macchina, ma invisibile o quantomeno mascherato nel rapporto con l’utente. Su iPhone lo vediamo in azione di continuo: c’è, se vogliamo, una gerarchia di schermate dentro un’applicazione, ma la struttura generale appare all’utente come un unico piano orizzontale su cui organizzare gli elementi a piacere. Il piano è astratto, non è una scrivania di fogli e cartelle virtuali. Le icone di iPhone fluttuano su un fondo nero, su un non-fondo. In Mac OS X, Spotlight è un tentativo di rivisitare il concetto di ricerca: invece di doversi ricordare la posizione di un file all’interno di uno schema ad albero di cartelle (directory), l’utente esegue la ricerca in un campo di testo, e i risultati appaiono in un elenco che attinge, dietro le quinte, alle reali posizioni dei file, ovunque essi si trovino (sui dischi locali o sui dispositivi esterni collegati alla macchina). Le gerarchie vengono appiattite. Con QuickLook l’astrazione è data dalla possibilità di esaminare i contenuti di un elemento a prescindere dalla natura dell’elemento (file di testo, immagini, file audio, filmati, ecc.) e a prescindere dall’applicazione che lo ha creato. Steven Frank si chiede: Se un giorno verrà realizzata una controparte di QuickLook, un ‘QuickEdit’, avremo così completato il cerchio, ritornando alla premessa originaria di un software basato sui componenti, un software modulare come OpenDoc? E, aggiungo io, torneremo a un sistema operativo incentrato sui documenti invece che sulle applicazioni? Tutto sommato continua a non sembrarmi un’idea malvagia.

Ovviamente la purezza di questo approccio astratto deve tenere in conto le aggiunte che gli sviluppatori di terze parti possono apportare al sistema. È molto bello e rilassante pensare al nuovo ambiente operativo come a un foglio bianco in cui iniziare qualsiasi progetto, ma come passare dall’attuale situazione “Devo realizzare un impaginato: apro Adobe InDesign CS4 e comincio a lavorare” (ovviamente con l’aiuto di altre applicazioni, come Illustrator e Photoshop) al nuovo scenario “Devo realizzare un impaginato: dico al sistema ‘Nuovo progetto di layout’ e si attivano gli strumenti di impaginazione intorno al documento vuoto”? A tutta prima immaginare una situazione capovolta, in cui sono i documenti ad avere un ‘volto’, e non le applicazioni che li creano (vedi una schermata e riconosci l’interfaccia di Illustrator, o di Aperture, o di Lightroom, o di Excel, ecc.) appare difficile e innaturale. È chiaro che in un sistema fondato su questa metafora, le applicazioni di una volta diventano plug-in, componenti che vanno a estendere le funzionalità del sistema ‘sparendovi dentro’, per così dire, in modo che all’esterno, nell’interazione con l’utente, tutto appaia omogeneo. Sotto questo aspetto, due esempi saltano subito all’occhio: Newton e iPhone. Sul Newton ogni software, che sia parte del sistema scritto da Apple o che sia prodotto da altri, va a integrarsi nel sistema operativo, tanto che certe applicazioni sono in realtà ‘servizi’ e ci si accorge della loro attivazione semplicemente perché aggiungono voci ai menu di sistema per la manipolazione dei dati. Su iPhone l’integrazione è più visuale che strutturale, ma l’effetto è analogo — un’idea di coesione con l’ambiente operativo (un esempio su tutti: la ricerca vocale dell’applicazione Google Mobile).

Non dimentichiamo Internet

Un altro aspetto imprescindibile di questo futuro sistema operativo è il nostro attuale stato di ‘online permanente’. Concludo lasciando la porta aperta, e la parola a Steven Frank:

Oppure la nostra traiettoria è fissata verso le applicazioni Web? È impossibile ignorare la grande diffusione delle applicazioni Web, e già mantengono quella promessa di ‘funzionare dappertutto’ che non abbiamo ancora conseguito in maniera elegante con il software desktop. È la conclusione logica immaginare che i sistemi operativi siano destinati a divenire essenzialmente dei super-browser estremamente raffinati? In questo momento storico pare plausibile, in effetti, se non già un risultato inevitabile. Ma l’ultima volta che si è parlato di elaborazione e di informatica di rete abbiamo usato il termine thin client e non è che abbia avuto questo grande successo. Abbiamo esteso lo HTTP in direzioni nuove e ardite, ma anche l’applicazione Web più riccamente Ajax continua a essere priva di una certa reattività e coerenza che si incontrano frequentemente nei software desktop. Il problema sarà forse risolto da una maggiore ampiezza di banda e da un protocollo di trasporto ancor più raffinato?

Riguardo all’ultima domanda che Frank si pone, continuo a nutrire forti dubbi sull’immediato. La fornitura di banda larga è ancora estremamente variegata a livello mondiale, nazionale, locale. E per quanto riguarda un più raffinato protocollo di trasporto occorre superare, fra le altre cose, gli attuali tempi biblici del processo di standardizzazione di, beh, qualsiasi cosa. Insomma, la strada è lunga e questa è solo un’infarinatura generale del panorama delle problematiche. Sia Steven Frank che io abbiamo certamente dimenticato di approfondire molti dettagli. Ma discuterci sopra è sempre stimolante, no?

The Author

Writer. Translator. Mac consultant. Enthusiast photographer. • If you like what I write, please consider supporting my writing by purchasing my short stories, Minigrooves or by making a donation. Thank you!

2 Comments

Comments are closed.