IHM


Difficile de comparer un iPod Nano et un BlackBerry. Toute comparaison de deux interfaces n’a de sens que rapportée à une tâche particulière. La performance d’une interface sur une tâche donnée est par ailleurs dépendante du contexte de son exécution (contexte physique et contexte cognitif). La performance d’une interface se mesure donc par son adéquation au contexte mais également par sa capacité à améliorer le rapport bénéfices/coûts associé à la tâche. Après quelques éléments relatifs au contexte, ce billet aborde la définition du rapport bénéfice/coût et ses implications.

Bénéfices et coûts d’une tâche

Contexte physique : se définit tant du point de vue de la situation corporelle de l’utilisateur (est-il en mouvement ? est-il sujet à des secousses ou mouvements parasites ? a-t-il les mains libres ?) que du point de vue de son environnement (est-il dans une foule ? y a-t-il de la lumière ?). Voici quelques exemples de critères d’adéquation de l’interface au contexte physique :

  • Les exigences en termes d’encombrement ne sont pas les mêmes suivant que celui-ci se trouve dans un bureau ou dans les transports en commun.

  • La qualité de l’affichage est dégradée par des mouvements parasites et doit donc être adaptée.

  • Le type de commandes (boutons, trackpad, trackball,…), leur nombre et leur positionnement permet ou non une utilisation à une seule main de l’interface, qui peut s’avérer nécessaire en situation de mobilité.

Contexte cognitif : la charge cognitive supportée par un utilisateur dépend des ressources consommées par les tâches qu’il effectue concomitamment. Il y a un accès concurrent à ces ressources que sont l’attention et la capacité de reflexion/concentration. En voici deux exemples :

  • En situation de mobilité le sens de la vue est très sollicité, une tâche faisant appel à une autre modalité de l’attention se trouve plus adaptée (la communication téléphonique par exemple qui fait appel à l’attention auditive).

  • En mobilité la gestion des risques extérieurs, de la trajectoire,… sont des tâches de priorité supérieure, les autres tâches ont donc un accès à des plages courtes et répétées de dédication, une interface adaptée doit permettre des interactions qui puissent tirer parti de cette particularité.

 

Rapport bénéfice/coûts

Une manière générale d’aborder la performance est la comparaison coût/bénéfice : la réalisation d’une tâche présente certains bénéfices (généralement non financiers) pour l’utilisateur, ainsi que des coûts (temps, argent, efforts,…). Les bénéfices attendus sont indépendants de l’interface, alors que les coûts en sont fortement dépendants. Voici quelques éléments impactant ces coûts :

  • L’erreur : elle représente toujours un coût qui correspond au coût du retour à la situation d’origine. Certains coûts sont parfois irréversibles. Par exemple : une connexion internet lente rend coûteuse (en temps) le chargement d’une page. L’erreur de navigation est donc inversement proportionnelle à la vitesse de la connexion…

  • La charge cognitive : lorsqu’une tâche requière plus de ressources que disponibles, une des conséquences est l’augementation du taux d’erreur.

  • La capacité d’auto-révélation : lorsque l’utilisateur comprend quelles sont les actions disponibles et quelles en sont les conséquences le taux d’erreur diminue ainsi que l’hésitation (qui a aussi un coût, ne serait-ce qu’en temps)

  • Répartition modale de l’attention : en déchargeant une modalité saturée sur une autre disponible, on contribue à la diminution de la charge cognitive. Par exemple un signal tactile peut remplacer un message visuel.

  • Le feedback : plus il est rapide meilleur il est. De plus la modalité selon lequel il s’effectue influe sur son efficacité, en voici un exemple trivial : imaginez-vous devoir écrire les yeux bandés écoutant une synthèse vocale de ce que vous écrivez. Ce feedback/affichage sonore de vos écrits ne semble pas très approprié… un affichage visuel est plus intuitif.

 

Remarques autour du rapport bénéfices/coûts

  • Il s’agit plutôt de bénéfices perçus et coûts perçus : au-delà de l’identification de critères impactants, l’évaluation des coûts et bénéfices reste subjective. Ainsi l’aversion au risque, qui diffère selon l’individu, entraine un coût perçu souvent disproportionné relativement à son coût réel, notamment du fait de la généralisation de bonnes pratiques telles que l’implémentation systématique de la réversibilité des actions.

  • Inhibition de l’action : lorsque les coûts perçus sont supérieurs aux bénéfices perçus aucune action n’est entreprise.

  • Cette évaluation de rapport bénéfice/coût s’inscrit dans le cadre plus général du design d’experience : il ne sert à rien de réduire le coût d’une action si le coût perçu de l’interaction dans son ensemble n’en dépend pas. De même si le bénéfice perçu est faible, c’est-à-dire si l’utilité n’est pas perçue, il peut être plus efficace d’avoir une démarche pédagogique…

Publicité

L’auto-révélation est la capacité d’une interface à signifier à l’utilisateur les interactions dans lesquelles il lui est possible de s’engager, ce qui couvre les actions à réaliser et les résultats qui peuvent être attendus de telles interactions. Le contre-exemple parfait d’une interface auto-révélatrice est l’utilisation de lignes de commandes.

Dans ce billet sur la gestion de l’ambiguïté, il a été argumenté que face à une multitude de fonctionnalités différentes options se présentent :

  • Associer une action à chaque fonction.
  • Associer un ensemble d’actions à réaliser de manière concomitante à chaque fonction
  • Associer un ensemble d’actions à réaliser de manière successive à chaque fonction

La contrainte première est l’encombrement : qu’il soit physique ou visuel limitant dans les deux cas le nombre de boutons et leur taille. La première option présente la meilleure auto-révélation mais est très encombrante. La seconde est au contraire très économe de ce point de vue comme l’illustrent les claviers à accords, mais a une capacité d’auto-révélation limitée : chaque bouton sert pour la réalisation de plusieurs accords, il est donc difficile de le libeller.

La troisième option, illustrée par l’utilisation de menus, permet autant l’auto-révélation qu’un faible encombrement. Le contrepoint en sont des séries d’actions qui peuvent être longues surtout si le nombre de clés disponibles (boutons, nombre d’item à chaque niveau de menu,…) est limité. Imaginons ainsi une interface possédant 6 clés, il est possible de choisir entre 6 menus différents, puis au second niveau il possible de choisir entre 6 options du menus et ainsi de suite. Avec un menu à 3 niveaux il possible de synthétiser jusqu’à 6x6x6=216 fonctions. Avec 3 clés il faut un menu de 5 niveaux pour offrir le même nombre de fonctions.

Il existe donc un compromis à réaliser entre auto-révélation, compacité et longueur des séquences d’actions. Sur la figure suivante apparaissent trois options envisagées :

Compromis

Ce compromis est structurant pour une interface et est d’une importance particulière dans le cas des interfaces mobiles. Le seul moyen de s’en échapper est de faire appel au contexte pour limiter les interactions possibles à celles qui sont pertinentes dans un état particulier du système.

WiredDans ce billet, l’everyware (ou intégration des fonctions d’affichage et de commande dans l’environnement) était pointé comme l’étape suivant la mobilité dans l’évolution des IHM. Une autre piste est cependant étudiée qui consisterait à améliorer les interfaces portables offrant, de la même manière que les interfaces pervasives, une surface de contact avec le monde numérique plus étendue.

Cette option consisterait à utiliser un affichage tête haute (soit des lunettes soit des dispositifs de projection rétinienne). Cette forme d’affichage ne permet pas une interaction directe comme sur un écran tactile. La fonction de commande passerait alors par de nouvelles formes d’entrée de données : EMG, gants de données,…

Chacune des deux alternatives présente au-delà des défis technologiques des contraintes fortes :

  • Les interfaces mobiles alourdissent l’utilisateur : il doit porter des dispositifs d’affichages, des capteurs, et par conséquent des ressources énergétiques. Le coté intrusif de cet équipement présenter un obstacle conséquent à l’adoption. Par ailleurs les dispositifs de commandes ne permettant pas des manipulations directes des données impliqueront l’utilisation d’un « langage corporel » (à la même manière de la langue des signes). Et comme tout langage celui-ci nécessitera un apprentissage, ce qui complique encore la diffusion de tels dispositifs.

  • Les interfaces pervasives alourdissent l’environnement : tous les objets de la vie quotidienne doivent incorporer des fonctions de commande et d’affichage. En découlent trois problèmes. Le premier est économique : lorsqu’on considère le coût d’équipement en fibre optique du territoire, qu’en serait-il de l’équipement de toutes les surfaces urbaines d’équipements everyware ? Le second est temporel : l’équipement de l’environnement ne peut se faire que progressivement, les services offerts seraient donc pendant limités à des ilots interactifs. Le troisième est celui de l’acceptation par les utilisateurs : si je préfère acheter une table en bois plutôt qu’un Microsoft Surface ?

L’avenir de l’IHM se situe probablement quelque part entre ces deux options.

Localisation des fonctions d’affichage et de commande

Une IHM se présente sous forme d’un terminal. Elle permet d’agréger à des services qui peuvent être intégrés dans le terminal. L’interface se compose de deux fonctions permettant à l’utilisateur de communiquer avec les services : la fonction de commande qui permet de réaliser les entrées de données (data input), et la fonction d’affichage qui assure les sorties de données (data output). Pour une question de simplicité le feedback est laissé de côté.

IHM intégrée

Les services et les fonctions d’affichage et de commande peuvent être soit « embarqués » soit « stationnaires ». Ils sont embarqués lorsque l’utilisateur les porte avec lui, comme un lecteur MP3 portable. Dans le cas contraire ils sont stationnaires, comme dans le cas d’une station de travail. Le tableau suivant représente certaines interfaces existantes en fonction de la localisation de leurs fonctions.

Localisation des fonctions

A considérer les interfaces qui nous entourent il est remarquable que les fonctions d’affichage et de commande sont généralement soit conjointement embarquées soit conjointement stationnaires. Regardons maintenant comment la localisation de ces fonctions a évolué.

 

Oscillations entre embarquement et stationnarité

La représentation sur la figure suivante de l’évolution des fonctions d’affichage et de commande fait apparaitre une oscillation entre embarquement et stationnarité.

Surface de contact

Après l’étape de numérisation, les étapes successives permettent d’augmenter la surface de contact entre les systèmes mis en relation par l’interface. Ainsi le passage à la mobilité permet à l’utilisateur d’accéder en tout lieu au monde numérique. Les interfaces pervasives décloisonnent cet accès et le rendent intuitif en intégrant l’affichage dans l’environnement et en faisant des objets du quotidien les poignées (« handles ») de commande. La surface de contact est étendue de quelques terminaux mobiles à l’ensemble des objets du quotidien. L’interfaçage neural pousse le mouvement encore plus loin en mettant sur le même plan monde physique et monde numérique.

Best Buddies« On se comprend tellement bien ! », « Inutile de se parler », « Un regard suffit ». Ces paroles pourraient peut-être convenir à la relation que vous entretenez avec un(e) ami(e), un conjoint, un parent. Cette personne comprend et anticipe vos désirs, attentes sans que vous ayez à les exprimer, et sait être présente à vous sans obstruer votre perspective. Des qualités que l’on aimerait retrouver dans une interface.

L’interface doit permettre la mise en oeuvre des intentions tout en ne faisant qu’un minimum appel à l’attention. On retrouve ici le rendement informationnel défini dans ce billet pour des activités « physiques ». Dans le cadre des activités « intellectuelles » l’attention est limitée, et le design d’interaction a pour objet de maximiser le « volume intentionnel réalisé » en rapport du « volume attentionnel mobilisé ».

Dans les jours à venir plusieurs billets s’intéresserons aux facteurs impactant les relations entre les interfaces et les utilisateurs. Une ressource de premier ordre sur ces sujets est fournie par Bill Buxton et librement accessible sous forme d’un document en ligne.

CerveauDans la continuité de post précédent s’interrogeant sur les relations entre notions d’interface et de transduction, il est notable que le corps humain comprend une multitude de transducteurs : la peau, le nez, les yeux et les oreilles transforment des signaux mécaniques, chimiques, visuels et sonores en signaux nerveux. A l’inverse les muscles et les cordes vocales traduisent des signaux nerveux en signaux inertiels (mouvements) et signaux sonores. Le corps serait-il une interface entre le corps et le monde réel ?

Sans rentrer dans le débat entre partisans et opposant au dualisme corps/esprit cartésien, il est possible de souligner le nombre croissant de projets visant à « câbler » directement le système nerveux sur des applications sans passer par la médiation du corps. Certains y verront des recherches à visée transhumaniste, d’autres les justifieront par l’amélioration des conditions de vie offerte aux personnes ayant perdu l’usage de certaines fonctions corporelles, et particulièrement celles des tétraplégiques.

Voici quelques technologies qui peuvent donner une idée des possibilités qui pourraient bientôt nous être offertes :

  • EMG (électromyographie) : il s’agit de capter des signaux électriques transmis aux muscles. Cette techno est utilisée pour la réalisation de prothèses (voir Chabloz Orthopédie, Otto Bock, ou Tech Innovation). Il existe aussi des recherches sur des applications pour personnes valides telle que celle-ci réalisée à la NASA où le sujet de l’expérience peut se passer de clavier : la spécificité des muscles contractés lors du mouvement des doigts permet d’inférer la touche tapée. Un modèle papier du clavier suffit donc pour réaliser les entrées de données.
  • EEG (électroencéphalographie) : les signaux électrique sont captés dans le cerveau, soit au moyen d’électrodes, soit à distance en utilisant un casque. Je vous renvoie à l’article de Cyril Fievet sur InternetActu qui reste d’actualité.
  • Subvocalisation : les signaux envoyés aux muscles du larynx sont captés sans qu’il soit besoin de vocaliser. Je vous renvoie cette fois à l’article de Rémi Sussan sur InternetActu.

Remarquons qu’il ne s’agit là que de technologies de « data input », d’entrée de donnée (du point de vue du système commandé). Une interface doit cependant permettre une transduction des signaux de manière bidirectionnelle. On peut parier sur l’émergence de technologies permettant de brancher les sorties de données directement sur le cerveau. On trouve là encore des applications pour palier des handicaps avec la substitution sensorielle. A plus long terme, on peut imaginer tirer parti de la plasticité du cerveau pour greffer à l’homme de nouvelles capacités sensorielles.

La définition de l’interface retenue dans ce billet pose problème : « Une interface permet la transmission d’information entre deux systèmes par la transduction des signaux énergétiques qui en sont porteurs ». Elle fournit une condition nécessaire pour identifier une interface mais aucune condition suffisante.

Tout transducteur est ainsi candidat au statut d’interface. Le fait qu’elle doive permettre « la transmission d’information » est une formulation inappropriée puisqu’une information est une donnée interprétée. Il ne peut donc y avoir de transmission que de données, charge aux systèmes communicants d’être capables de les interpréter.

Alors y a-t-il égalité Interface = Transducteur ?

Selon la définition retenue dans ce billet une interface réalise une transduction de signaux. Cette transduction offre différentes possibilités :

  • steeringwheelLa transduction permet un recours étendu à des sources d’énergie externes à l’homme, participant ainsi à l’amélioration de son rendement informationnel (pour une définition voir ici). La direction assistée hydraulique n’est pas une interface puisqu’elle ne constitue qu’un démultiplicateur de la force fournie par le conducteur. Cependant son encombrement l’interdisait sur les petites voitures. La direction assistée électrique, qui est une interface entre le conducteur et le système de direction, est beaucoup plus légère et a permis une extension de cette expérience à l’ensemble des véhicules.

  • La transduction permet la manipulation des signaux. La direction assistée électrique fait appel à un calculateur qui adapte la compensation appliquée en fonction de différents paramètres, évitant ainsi le phénomène d’oscillation autour de la trajectoire à haute vitesse remarqué sur les systèmes hydrauliques.

Voyez-vous d’autres usages ?

IHM : interface hommes-machine. S’agit-il là seulement d’un acronyme barbare dont se gargarise une communauté d’initiés pour désigner ordinateurs, téléphones portables et autres gadgets informatiques ?

Interrogeons-nous d’abord sur ce qu’est une interface. Le Trésor donne la définition suivante : “Surface de contact entre deux milieux”. Il s’agit là d’une définition “chimique” qu’il nous faut adapter au contexte qui nous occupe. Prenons quelques exemples de ce que nous appellerions des interfaces : une télécommande de télévision, une souris d’ordinateur, un interrupteur électrique, un capteur de mouvement… A première vue elles permettent donc d’actionner des objets tels qu’une ampoule, une porte, un lecteur de musique.

axeman Considérons un outil tel que la hache. Peut-on dire qu’il existe une interface entre moi et la hache lorsque j’en fais usage ? Non. Maintenant si je tente une expérience de télé-bûcheronnage : la hache est actionnée par un bras mécanique alors que je suis chez moi à diriger la manoeuvre sur ma Wii. Dans ces conditions je suis interfacé avec la hache. L’interfaçage a permis l’introduction d’une source d’énergie externe (celle qui actionne le bras), mais une tronçonneuse permet d’en faire autant. Pour reprendre les termes utilisés dans ce billet, l’augmentation du rendement informationnel ou l’origine de l’énergie employée ne sont donc pas caractéristiques de l’utilisation d’une interface. L’introduction d’une interface intervient en fait au niveau de la transmission à l’outil de l’information structurant la tâche réalisée (dans le cas de la hache il s’agit de la trajectoire).

La transmission d’information nécessite un support énergétique. Sans interface, la transmission est directe : dans le cas de la hache, le signal transmis, de type inertiel, passe des muscles à l’outils. L’interfaçage au contraire introduit une transduction : la nature du signal porteur de l’information est changée. Le signal inertiel est capturé par la Wii et transformé en signal électrique qui transmis au bras mécanique permet de contrôler la trajectoire de la hache. Ce contrôle s’effectue au travers d’une nouvelle transduction du signal électrique en signal inertiel (contrôle de vérins, ou autres dispositifs). Les signaux entrant et sortant sont ici de même type mais ils sont séparés par deux transductions.

Tentons finalement une définition de l’interface : “Une interface permet la transmission d’information entre deux systèmes par la transduction des signaux énergétiques qui en sont porteurs”. Qu’en pensez-vous ?

Une des caractéristique de l’évolution humaine est le recours toujours plus important à des outils qui lui permettent des dépasser ses limites corporelles. Leur nombre et leur complexité sont révélateurs du degré d’avancement technique d’une population. Une étape importante du développement des capacités des outils fut l’introduction de sources d’énergie externes à l’homme, d’abord animales, puis fossiles.

Pour comprendre l’apport de ces sources externes, il faut préalablement souligner que la réalisation d’une tâche particulière réclame une libération d’énergie non pas désordonnée mais au contraire structurée : par exemple, abattre un arbre à la hache nécessite l’application de coups répétés autour d’un même point. L’énergie est dirigée par un apport concomitant d’information. Pour un même résultat, i.e. pour un même apport d’information, le recours à des sources externes permet de réduire l’énergie humaine nécessaire, et donc d’augmenter le rendement informationnel de l’énergie humaine développée.

Ainsi, labourer un champ à l’aide d’une bête de trait limite l’apport énergétique humain à la direction de la charrue. Pour une même surface labourée, l’information est équivalente (tracé des sillons, profondeur, …) et le rapport de cette information à l’énergie humaine par conséquent plus élevé. La hausse du rendement informationnel se traduit par un surplus dénergie humaine.

« Page précédente