L'API Affdex e il test degli utenti

La Fondazione UX-Lab

Durante la nostra ricerca in una sala prove con la fondazione UX-Lab, mi sono interessato all'API Affdex che consente di misurare le emozioni, le espressioni e l'aspetto di un soggetto da una foto o da un video. Questa tecnologia si basa sul metodo più diffuso per descrivere i “movimenti facciali osservabili”, il FACS (Facial Action Coding System), ideato da Paul Ekman negli anni '70 e da allora regolarmente aggiornato. Questo psicologo ha inizialmente determinato 6 espressioni universali (odio, rabbia, disgusto, paura, gioia, tristezza e sorpresa) e ha studiato in dettaglio le microespressioni.
Risorsa | Sistema di codifica dell'azione facciale di Paul Ekman
le espressioni di tim roth face
Durante i test utente, è comune osservare una differenza tra ciò che dice il tester e l'espressione sul suo viso. Alcuni utenti danno feedback positivi, spiegano di non aver riscontrato particolari difficoltà, mentre il video mostra una sensazione di stress o preoccupazione. Non è sempre facile identificare un'emozione specifica ed è per questo che alcuni strumenti possono essere utili. Le emozioni facciali sono le più studiate delle emozioni. Un modello muscolare specifico corrisponde a un'emozione.

L'API di Afdex

Questo strumento appare molto interessante nel contesto di una user test room, quando emerge la necessità di analisi precise. Potremmo davvero aver bisogno di vedere a che punto del percorso dell'utente, il tester inciampa, si interroga, perde la concentrazione. L'API Affdex ci fornisce queste informazioni allo stato grezzo attraverso indicatori numerici. Abbiamo così analizzato 21 espressioni, ciascuna associata a un particolare movimento di bocca, naso, sopracciglia e viso.
Ecco l'esempio presentato da Affdex con i punti di rilevamento visibili:
riconoscimento volto
Risorsa | Monitoraggio delle emozioni JSFiddle di AFFDEX
Affdex elenca le espressioni facciali che usa
elenco delle espressioni facciali
Risorsa | Espressioni facciali

Il prototipo

I dati grezzi tra 0 e 100 restituiti da Affdex sono difficili da usare così com'è. Quindi ho usato telajs per creare al volo un grafico che trascrive ogni espressione.
gif espressioni dal vivo
Il prototipo realizzato consente quindi sia:
– per registrare feedback video dalla webcam del computer
– archiviare il grafico di espressione corrispondente al video registrato
Il codice è disponibile su github | https://github.com/francasix/user-test

Uso ed estensione

Questa combinazione di strumenti offre un primo assaggio di ciò che si può ottenere in termini di analisi dell'utente, ma l'idea è quella di spingere i dettagli e le possibilità. Non fermarti al semplice obiettivo di un prototipo. Immagina Affdex come un punto di partenza da cui scaturiscono idee ambiziose. Sto già pensando alla possibilità di ordinare automaticamente i grafici di un test utente per trend e quindi confrontarli più facilmente o addirittura creare un algoritmo di analisi che faccia emergere un sentimento o un'espressione in un dato momento grazie allo studio in parallelo dei diversi dati API.
Pauline Gaudet-Chardonnet / UX-Scientist – UX-Lab Foundation @UXRepublic