Aller directement au contenu

Contrôler des interfaces avec des gestes. Fiction ou réalité ?

11/06/2013
2

Comme annoncé sur notre compte Twitter, nous avons conduit au cours des derniers mois une étude d’ergonomie ethnographique sur les interfaces gestuelles.
Le rapport complet est téléchargeable gratuitement sur le site d’UXFellows (en anglais).

Interface gestuelle ?

Un produit muni d’une interface gestuelle demande à l’utilisateur d’effectuer des gestes pour le contrôler. Contrairement aux interfaces tactiles, ces gestes ne sont pas réalisés au contact du produit (en touchant son écran tactile) mais n’importe où, du moment que le produit en contrôlé peut détecter le mouvement.

Ce type d’interface a été popularisé par le film “Minority Report” dans l’année 2002, puis un prototype utilisant ce principe d’interaction à été présenté lors d’une conférence TED de John Underkoffler en 2010. Le public a été séduit par le concept mais rapidement des questions fondamentales ont été levées, jusqu’à remettre en cause le principe même de l’interaction : en effet, qui a envie de rester les bras en l’air pour interagir avec un ordinateur ?

A priori personne…

En fait si, 2 types de personnes :

  • ceux qui souhaitent délibérément faire un effort physique lors de l’interaction
  • et ceux qui n’interagissent que très peu avec le produit et qui n’ont pas envie de s’encombrer avec une télécommande

Pour satisfaire les premiers, des consoles de jeu dite de nouvelle génération ont vu le jour comme la “Wii” de Nintendo ou la “Xbox Kinect” de Microsoft. Ce sont des produits particulièrement adaptés car la composante ludique de l’interface gestuelle s’accorde bien avec le domaine du jeu vidéo.

Pour les seconds, des TV gestuelles commencent à voir le jour. La encore, ces produits présentent a priori une forte plus-value par le simple fait de s’affranchir de la télécommande (finis les moments de panique 2 minutes avant le début du match lorsque la “zapette” se cache au fond du canapé). L’avantage réside aussi dans le fait qu’une interaction gestuelle est plus proche de notre mode de communication quotidien. Cependant, de nombreuses interrogations apparaissent lorsque l’on essaye de concevoir un vocabulaire cohérent de gestes pour contrôler un objet interactif, en particulier si l’on souhaite concevoir un vocabulaire valable à l’international.

Nous avons voulu savoir quelles gestes étaient utilisés “naturellement” par les gens pour contrôler une télévision. Y a-t-il des gestes plus naturels que d’autres ? A quel point les gestes utilisés sont dépendants de la culture ? Quelles sont les différences entre les pays ?

L’étude

L’étude a été réalisée de manière collaborative avec nos partenaires du consortium UX Fellows, ce qui nous a permis de réaliser des interviews avec 360 participants dans 18 pays.

Les utilisateurs étaient mis en situation dans une salle de test configurée en “salon” : installés face à une télévision, ils devaient orienter leurs gestes vers celle-ci.

 

Salle de test en configuration salon. Canapé et table basse
Figure 1. Configuration de la salle
Nous nous sommes focalisés sur les gestes sémantiques utilisés pour contrôler l’interface, c’est à dire les gestes qui ont un sens en soi (contrairement à un geste de pointage dans lequel l’utilisateur ne fait que désigner un bouton sur l’interface). En parallèle nous avons évalué des gestes quotidiens pour les comparer avec les gestes de contrôle des interfaces.

Dessins qu'illustrent les différents types de gestes
Figure 2. Typologie des interactions gestuelles
Pendant les sessions, le modérateur demandait aux participants de réaliser des gestes de façon spontanée pour contrôler la télévision devant eux. Certains étaient simples (augmenter ou diminuer le volume), d’autres plus complexes (réinitialiser les paramètres de la télévision). L’objectif était également d’évaluer la facilité avec laquelle les participants “inventaient” des nouveaux gestes.

Résultats

Nous avons évalué les gestes sur 2 critères

  • La fréquence d’usage, c’est à dire le nombre de personnes (tous pays confondus) qui utilisaient le même geste pour une même tâche.
  • La difficulté de création, c’est à dire l’effort nécessaire de la part de l’utilisateur pour imaginer un geste pour une tâche précise

En ce qui concerne la fréquence d’usage, nous avons classifié les gestes en trois catégories :

  • Les gestes avec une haute fréquence d’usage
  • Les gestes avec une fréquence d’usage moyenne
  • Les gestes avec une faible fréquence d’usage

Dessin qu'illustre les diffénts types de gestes par fréquence d'utilisation
Figure 3. Exemples de gestes par fréquence
En ce qui concerne la difficulté de création, nous avons constaté que les gestes les plus simples à inventer étaient les gestes qui correspondent à des usages récurrents sur d’autres appareils (diminuer le volume, changer de chaîne, mettre en pause…). Les gestes les plus difficiles à inventer étaient les gestes qui correspondent à des tâches plus abstraites (afficher le programme TV, aller à la page d’accueil, partager l’émission en cours…).

Conclusion

Trois grandes lignes ressortent de cette étude :

  • Les tâches les moins fréquentes ne peuvent pas être réalisées facilement par des gestes sémantiques. Il faudrait donc utiliser des gestes de pointage ou des commandes vocales pour réaliser ce type d’action.
  • Les utilisateurs technophiles sont plus disposés à apprendre et utiliser des gestes pour contrôler des appareils électroniques.
  • Les gestes utilisés sont conditionnés par les habitudes des utilisateurs. Les habitudes étant elles-mêmes dépendantes de la culture, il semble difficile de vouloir définir un ensemble commun de gestes à l’international. Un apprentissage semble nécessaire ce qui renforce la nécessité d’afficher des éléments simples et affordants à l’écran.

Si vous souhaitez lancer une étude d’ergonomie sur vos interfaces, notament un test utilisateur, n’hésitez pas à nous contacter.

2 Commentaires

  • Bonjour,
    Merci pour l’article,

    Si ca vous intéresse, j’ai développé un petit framework de reconnaissance vocale, gestuelle, qrcode, etc, … dont l’objectif est de permettre ces expérimentations “simplement” (XML / JS).

    http://encausse.net/s-a-r-a-h

    L’objectif du projet étant de connecter l’interne des objets et d’interagir avec eux naturellement.

    PS: lever la main pour monter le son est “confusant” car il se baisse des qu’on baisse la main (j’avais fait la même chose pour allumer des lampes)

  • anne-sophie dit :

    j’aimerai savoir, si toute fois qui des personnes auraient de la biblio, articles, expériences sur une interface contrôlée par les mouvements de la tête ?

Laisser un commentaire à Jean-Philippe Encausse Annuler la réponse