Valutare l'usabilità

Stefano Bussolon

Cos’è l’usabilità

L’usabilità viene definita come "il grado in cui un prodotto può essere usato da particolari utenti per raggiungere certi obiettivi con efficacia, efficienza e soddisfazione in uno specifico contesto d’uso."

Perché l’usabilità è importante?

Investire sull’usabilità garantisce un elevato ritorno degli investimenti, in termini di:

Usabilità ed errori

Uno degli scopi delle valutazioni di usabilità è quella di evitare gli errori di design.
In secondo luogo, di permettere una interazione più proficua.

L’ergonomia cognitiva ha sviluppato delle teorie e delle classificazioni degli errori, al fine di elaborare degli strumenti capaci di prevenirli.

Tre livelli di errore

Una delle più importanti teorie sugli errori è stata elaborata da Rasmussen (1986). L’autore divide gli errori in tre livelli:

  1. skill-based;
  2. rule-based;
  3. knoweledge based.

Skill based level

È il livello più basso, e si basa sull’interazione periferica: percezione ed azione.

Generalmente non implica l’uso dell’attenzione, in quanto vengono applicati, in maniera automatica, degli schemi consolidati.

Rule based level

In questo livello applichiamo delle regole acquisite, che sono corrette per un determinato contesto.

Affinché il comportamento, a questo livello, sia efficace, è necessario che:

  1. venga applicata la regola corretta in base al contesto;
  2. la regola, o procedura, venga applicata correttamente.

Knowledge based level

Il livello knowledge-based entra in gioco quando non è possibile applicare una regola prestabilita.

Generalmente questo avviene quando il contesto è nuovo o fluido.
Se non è possibile applicare le regole è necessario interpretare le informazioni, pianificare la risposta, eseguirla e monitorare passo per passo l’evoluzione.

Livelli di errore e strumenti di prevenzione

Secondo Fu, Salvendy, and Turley (2002) valutazioni non empiriche e valutazioni empiriche affrontano differenti tipologie di errori e possono migliorare la performance degli utenti nei diversi livelli:

Knowledge-based level e modello dell’utente

Secondo Fu, Salvendy, and Turley (2002) la valutazione non empirica è meno adatta a diagnosticare gli errori knowledge-based: è difficile "simulare" la conoscenza degli utenti, che possono essere completamente naive, e dunque non conoscere nulla del dominio, oppure estremamente esperti, e dunque conoscere molto più del valutatore.

Inoltre gli errori knowledge-based sono estremamente legati allo specifico contesto.
Questo rende meno utili le conoscenze dell'esperto di ux, in quanto ciò che è buono in un particolare contesto non lo è in un altro.

Livelli skill e rule-based: aspecificità di dominio

I livelli skill e rule-based, al contrario, sono molto meno specifici: molte azioni o schemi di interazione valgono a prescindere dal dominio specifico.
In questo caso gli esperti possono applicare in maniera appropriata delle conoscenze acquisite in altri dominii.

Quale metodo?

Idealmente, la valutazione dell’usabilità di un artefatto dovrebbe includere sia strumenti non empririci che strumenti empririci (test con utenti).

Esistono molteplici metodologie per la valutazione dell’usabilità, ciascuna caratterizzata da un proprio campo privilegiato di indagine, e dunque più indicata in determinati contesti, in base ai propri vantaggi e svantaggi (Ziggiotto 2000).

Metodi empirici e non empirici

Gli strumenti possono essere divisi in due grandi gruppi: empirici e non empirici, dove per empirico si intende lo strumento di analisi che richieda la partecipazione di soggetti estranei al progetto di valutazione.

I metodi di valutazione più efficaci sono

I metodi più usati per il web

I software automatici

I software automatici costituiscono un prezioso strumento di indagine quando l’analisi richieda essenzialmente velocità e precisione; il loro campo di utilizzo privilegiato riguarda:

L’analisi dei file di log / analytics

Vantaggi

Svantaggi

Euristiche e linee guida

Le euristiche

Le euristiche sono un numero ristretto di regole piuttosto generali di usabilità.
La valutazione euristica consiste nel verificare quanto una interfaccia rispetta i principi generali.

La valutazione euristica valuta l’interfaccia sulla base di liste di euristiche, ovvero principi che hanno un elevato valore predittivo perché rappresentano la sintesi dei problemi di usabilità più frequenti organizzati in categorie.

Le 10 euristiche di Nielsen

  1. Visibilità dello stato attuale del sistema
  2. Corrispondenza tra il sistema e il mondo reale
  3. Libertà e possibilità di controllo del sistema da parte dell’utente
  4. Coerenza interna ed esterna e conformità agli standard comunemente accettati dagli sviluppatori di siti Web
  5. Prevenzione degli errori
  6. Riconoscere piuttosto che ricordare
  7. Promuovere la flessibilità e l’efficienza
  8. Grafica e design minimalisti
  9. Fornire all’utente i mezzi per riconoscere e riparare gli errori
  10. Inserire strumenti di aiuto e istruzioni di utilizzo

Gerhardt-Powals (1996)

  1. Libera le risorse cognitive per compiti di alto livello
  2. Evita ragionamenti non necessari
  3. Visualizza le informazioni in maniera chiara e ovvia
  4. Raggruppa le informazioni in strutture significative
  5. Quando presenti nuove informazioni, offri degli aiuti
  6. Usa modelli e metafore note agli utenti
  7. Usa una terminologia comprensibile agli utenti
  8. Usa termini che abbiano un legame con la funzione
  9. Riconoscere è meglio che ricordare
  10. Usa l’aspetto grafico e visivo al servizio dell’usabilità
  11. Mostra solo le informazioni necessarie in quel momento
  12. Se appropriato, offri possibilità multiple di fruizione dell’informazione
  13. Usa un ragionevole livello di ridondanza.

Riferimenti on line

Su internet esistono numerose euristiche. Ne citiamo alcune:

Valutazioni non empiriche: critiche

Spesso il tono prescrittivo di euristiche e linee guida viene criticato, in quanto non vi è la possibilità di misurare la credibilità e l’efficacia di alcune regole.

Il problema delle evidenze empiriche e sperimentali delle linee guida è stato seriamente preso in considerazione da usability.gov. Nella sezione guidelines ogni linea guida viene presentata con una "strength of evidence scale".

Evidenze empiriche: categorie

usability.gov distingue 3 categorie di evidenza empirica:

  1. categoria A studi sperimentali;
  2. categoria B studi osservazionali, valutazione di performance;
  3. categoria C opinioni di esperti.

Secondo usability.gov la categoria A costituisce la migliore evidenza empirica.

Test con utenti

Tipologie

Secondo Rubin and Chisnell (2008) possiamo distinguere 4 tipi di test:

Test esplorativo

Scopo: valutare l’efficacia del progetto iniziale.
Consente una notevole interazione tra il partecipante e il valutatore.
La metodologia è piuttosto informale: soggetto e valutatore possono anche osservare e utilizzare assieme il prodotto; il valutatore può fare domande ed interagire con il soggetto.

È finalizzato ad ottenere principalmente dei dati qualitativi, e per testare precocemente l'architettura informativa, il workflow, la navigazione, il visual design.
È possibile elicitare anche bisogni, attitudini e preferenze degli utenti, e non è eslusa la possibilità di integrare il test con delle brevi sessioni di design partecipativo.

I test esplorativi possono aiutare il gruppo di lavoro nello scegliere soluzioni di design alternative.
Per questo motivo, dovrebbero essere effettuati precocemente durante le prime fasi di design.

Test di valutazione

Si può condurre a qualsiasi stadio del processo di produzione del sistema.

Ha come obiettivo l’approfondimento degli elementi evidenziati con il test esplorativo.

La metodologia per questo tipo di test è un misto tra l’esplorazione informale e le misurazioni più controllate del test di validazione.

Test di validazione

Finalità: valutare l’effettiva usabilità del prodotto, misurata in termini di accuratezza, velocità, preferenza.

I soggetti partecipanti interagiscono poco o nulla con il valutatore La raccolta di dati quantitativi è centrale.

Sostanzialmente questo test richiede un rigore sperimentale maggiore rispetto ai precedenti.

Test di confronto

Finalità: confronto di due o più progetti alternativi, o di due o più prodotti concorrenti.

Vengono raccolti dati sulla performance e sulla preferenza e si confrontano i risultati.

Può essere condotto informalmente o in modo più controllato; può essere utilizzato in congiunzione con ciascuno dei test precedentemente descritti.

Valutazione di siti concorrenti

La valutazione di siti concorrenti permette di:

Test con utenti: come fare

Pianificare una sessione di test

I requisti per condurre un test di usabilità cambiano a seconda della tipologia di test.

Lista dei compiti

Scelta dei compiti

Va data la precedenza a:

Comportamento del valutatore

Registrazione della performance

Nel condurre un test di usabilità, sarebbe opportuno poter raccogliere differenti tipi di dati:

Fase finale

Questionario di preferenza

Al termine del test può essere utile somministrare ai partecipanti un questionario per raccogliere alcune impressioni sul prodotto e sui compiti valutati.

Restituzione ai soggetti

Nella fase di restituzione si danno ai partecipanti alcune informazioni aggiuntive sul test. Questo momento può essere utile per raccogliere alcune impressioni sulle prove somministrate.

Quick and dirty

Nei paragrafi precedenti abbiamo analizzato la situazione ideale di testing. Spesso però le circostanze (in termini di tempo o di denaro) non ci permettono di procedere in questo modo. Ciononostante è comunque molto meglio fare un test "alla buona" (quick and dirty) che non fare alcun test.

Suggerimenti:

Conclusioni

La scelta del metodo di indagine da adottare per eseguire un test di usabilità dipende dalle circostanze in cui si trova ad operare il valutatore, dalle risorse disponibili e dal genere di risultati attesi.

La nostra opinione è che differenti metodologie andrebbero utilizzate nelle differenti fasi di progettazione, sviluppo e pubblicazione del sito.

Bibliografia

Testi citati

Fu, Limin, Gavriel Salvendy, and Lori Turley. 2002. Effectiveness of user testing and heuristic evaluation as a function of performance classification. Behaviour and Information Technology 21, no. 2: 137–43.

Gerhardt-Powals, Jill. 1996. Cognitive engineering principles for enhancing human-computer performance. International Journal of Human-Computer Interaction 8, no. 2: 189–211.

Rasmussen, Jens. 1986. Information Processing and Human- Machine Interaction: an Approach to Cognitive Engineering. New York: Elsevier.

Rubin, Jeffrey, and Dana Chisnell. 2008. Handbook of usability testing: howto plan, design, and conduct effective tests. John Wiley & Sons.

Ziggiotto, Daniele. 2000. Usabilità del WWW: metodi di valutazione. Tesi di laurea magistrale, www.hyperlabs.net: Università di Padova.