Un schéma tout bête pour faire apparaitre l’orthogonalité des notions de CRM et de VRM :

Les fournisseurs de services sont compris au sens large : fournisseurs d’un service de commerce (électronique ou pas), fournisseurs d’informations,… de telles sortes que les données transactionnelles sont seulement en partie des données relatives à des transactions commerciales : la consultation du prix d’un produit est une transaction, la discussion avec un commercial est une transaction, la lecture du journal est une transaction…

VRMvsCRM

L’approche CRM est donc pour les fournisseurs d’identifier les transactions qui leur permettent de retenir leur clientèle. L’approche VRM est pour les consommateurs de gérer leurs transactions de manière centralisée. Le VRM n’a de sens que si le marché considéré dispose d’une forte fluidité : lorsqu’il existe des barrières fortes au changement de fournisseurs, il est toujours possible de réaliser des comparaisons avec les concurrents mais sans disposer pour autant de leviers d’actions. Deux bons exemples de VRM sont pour moi :

  1. La société Mint qui permet de comparer et de changer de fournisseur de crédit rapidement et facilement.
  2. L’Open Access Model de Labs2 qui offre de la FTTH en Suède. Il est possible de changer d’ISP en quelques clics, de prendre et de résilier ses options avec prise en compte immédiate,… La vidéo de présentation de Jean-Michel Billaut
    vaut vraiment le détour.

On peut noter par ailleurs que ce sont ces données transactionnelles qu’on appelle données de l’attention, et qui font l’objet d’une description par le langage APML, dont il est tant question dernièrement et qui sont l’objet du post suivant.

Publicité
  1. Je vais m’atteler à décrire de manière assez grossière ce que représente le web semantique et autre web structuré (structured web). Je tiens cependant à souligner que la conception du web et de son futur, qui doit beaucoup à Tim Berners-Lee, n’est pas la seule et unique. L’opposition frontale des croyants et sceptiques nous est résumé de manière romancée par Duncan Hull dans Burn, Semantic Web, Burn! Je partage personnellement en grande partie les vues des sceptiques, et j’essaierai de donner une lecture critique de l’article The Semantic Web, Syllogism, and Worldview de Clay Shirky, que je vous conseille très vivement (il est accessible, il ne fait pas usage de vocable technique).

  2. Small Surfaces rapporte la sortie du Motorola Rokr équipé d’un écran tactile à retour haptique (grâce à de multiples vibreurs placé sous l’écran). Un post consacré aux modalités d’interaction avait souligné l’importance du feedback. L’absence de feedback tactile sur les écrans tactile présente un coût important en terme d’utilisation. L’introduction du feedback haptique est donc une avancée importante pour l’adoption large des écrans tactiles mais j’ai deux réserves à émettre:

    • J’ai un Razr depuis 7 moi, l’écran est entrain de rendre l’âme. L’augmentation de la complexité des écrans risque de réduire encore la durée de vie. Les constructeurs ont-ils intégré le principe de graceful degradation : comment un utilisateur va-t-il réagir si le feeback du Rokr est inconsistent (si par exemple certains vibreurs sont morts mais pas tous) ? Ne faudrait-il pas avoir la possibilité de couper le feedback tactile ?
    • Feedback n’est pas affichage : le Rokr implémente un feedback (on sait quand une action a été performée) mais pas un affichage tactile. La surface de l’écran est lisse lorsque je passe mon doigt dessus. L’affichage tactile permet de distinguer les bords des éléments d’interaction. Dans les téléphones à clavier cet affichage est passif, ce sont les reliefs des boutons qui permettent de déterminer les limites entre les boutons. Cet affichage tactile est indispensable à un usage aveugle ou semi-aveugle. Il est important dans la diminution de la charge cognitive.

  3. Textually présente une carte de visite qui compose automatiquement le numéro de téléphone de la personne qui l’a émise. C’est un exemple intéressant de réduction du coût d’initiation d’une communication.

Le monde des données regroupe les données dispersées au sein du réseau internet. La méthode première d’accès à ces données est la navigation. A l’origine il s’agissait d’une navigation au sein du réseau physique que constituent les ordinateurs interconnectés. Par abstractions successives on est ensuite passé à un réseau de documents interconnectés (ce qui inclue les pages internet) et l’on s’oriente vers un réseau de données interconnectées. Au sujet de ces abstractions successives il est possible de se référer aux propos de Tim Berners Lee. Le propos de cet article n’est pas la navigation mais les services d’accès aux données qui se sont mis et se mettent en place.

MondeDesDonnées

Le principe des services d’accès aux données est de présenter à l’utilisateur des données auxquelles il pourra attribuer un sens, c’est-à-dire d’aider l’utilisateur à transformer des données en informations. Je distingue trois types de services :

  • Les services de filtrage : le monde des données peut être sommairement comparé à une gigantesque bibliothèque très mal rangée. De cette immensité l’utilisateur ne peut pas tirer grand chose en l’absence de moyens lui permettant d’accéder aux données qui l’intéressent. Parmi les services de filtrage on pourra citer dans le désordre les services de recherche (Google et consorts), les services de recommandation, ou les réseaux sociaux (forums, abonnement à des flux rss, partages de signets et autres listes,…)

  • Les services de combinaison : la consultation d’une donnée particulière s’inscrit dans un contexte particulier (environnement, contexte cognitif, usage envisagé,…). En liaison avec ce contexte d’autres données peuvent être d’intérêt pour l’utilisateur. La combinaison consiste donc en la mise en valeur des données les unes par les autres de manière répondre aux attentes de l’utilisateur. Le service de base de la combinaison est l’agrégation. La verticalisation des services, c’est-à-dire l’adressage d’une pratique bien particulière, permet de sélectionner de manière plus pertinente les données utiles aux décisions sous-tendues par la pratique adressée. Les services d’auto-discovery permettent aussi d’établir des liens avec des données extérieures.

  • Les services de représentation : l’ordre spatial et temporel dans lequel les données sont présentées à l’utilisateur influe sur la compréhension que l’utilisateur en fait. Ensuite il est possible de les représenter sous différentes formes : texte, images, cartographies… On approche ici de problématique d’architecture de l’information et de design d’interaction. Des données pertinentes et pertinemment reliées n’ont aucune valeur si leur présentation à l’utilisateur ne permet de valoriser cette pertinence. Il s’en désintéressera, et la donnée ne devient pas information…

Prenons l’exemple simple d’un service comme Immoplaza : en fonction des critères de recherche il va filtrer les annonces immobilières susceptibles de vous intéresser. Il va ensuite les combiner à des données relatives au voisinage pour vous permettre de situer le contexte. Il va ensuite représenter ces données sur une carte, avec la possibilité de filtrer ce qui apparait, avec toujours pour but d’améliorer la compréhension.

J’ai plus à dire sur les trois types de services présenter ci-dessus, mais il va me falloir faire un détour par le web sémantique pour pouvoir poursuivre…

  1. J’ai découvert le service Mint. Il a un sérieux air de VRM. Dans le principe il présente des similitudes avec le projet Hestia, sauf que Mint fournit des services basés non sur l’historique détaillé des achats mais sur l’historique bancaire. Du côté du business model, la fourniture de ces services gratuits génère un trafic qui est monétisé par du marketing ciblé de produits financiers. J’ai découvert ce service dans un article de Wired traitant du data scraping. Mint fait en effet appel à des bots pour récupérer l’information bancaire sur les comptes des utilisateurs. Cette pratique est risquée puisqu’elle dépend de l’accord tacite des sites sur lesquels sont récupérées les données. Il suffit que ceux-ci change d’opinion et, l’article en donne des exemples, l’accès aux données si précieuses se trouve fermé. Nous n’en sommes pas encore à l’aire de l’Open Data, et l’exemple de la mésaventure récente de Robert Scobble avec Facebook (qui l’a banni prétextant un enfreint aux Terms of Use pour l’utilisation d’un script).

  2. J’envisage une série de billets autour de Monde des données et du web sémantique, il faut maintenant que je me décide à attaquer ce gros morceau…

  3. J’ai en préparation une série sur les espaces contigus/continus, sur la navigation, et sur les spécificités des univers 3D. Je manque cependant de recul, j’utiliserai donc un style plus décousu. Plutôt que d’attendre que les idées s’articulent bien les unes aux autres il me parait intéressant de les partager dès que possible même si l’intelligibilité s’en trouve affectée.

  4. Je pourrais définir cette dernière manière de publier comme la transcription de ce que les anglophones appellent des train of thoughts. Ces ToTs pourraient se définir comme une succession d’idées loosely joint. Il ne me semble pas qu’en français nous ayons de termes équivalents. De même que dans les domaines techniques les anglophones en général à l’origine des innovations disposent d’une antériorité dans le choix des termes que nous reprenons ensuite tels quels. Sans me faire un croisé de la langue française, il me semble qu’introduire tôt un terme français pourrait permettre son adoption. Je ne suis pas opposé à l’utilisation de termes provenant de l’anglais mais la diversité, la richesse du vocabulaire n’a jamais nui à l’expression. Et la dérive lexicale aidant, une traduction française pourrait se retrouver après quelque temps à désigner tout autre chose que le terme anglais d’origine. Voire permettre la formation de nouveaux concepts inexistants en anglais…

  5. Je commencerai donc moi-même ici en proposant deux traductions : pour Train of thoughts, pourquoi ne pas utiliser une chadie (contraction de « chaîne d’idée »). Il est ensuite possible de dériver un verbe chadier. Dans un article précédent je proposais urbadination pour urban computing. Un autre terme peut-être moins laid m’est venu : urbatique. Qu’en pensez-vous ?

Un billet précédent a permis d’introduire la notion d’attention périphérique : il s’agit de la perception non consciente de signaux sensoriels. Des exemples ont permis de montrer comment elle pouvait être utilisée dans le cadre du management des tâches. Les IHM elles-mêmes sont censées permettre, au moins pour certaines, ce task management et améliorer le workflow.

La réalisation d’une tâche est le résultat d’une intention (« je veux réaliser telle tâche maintenant »). Il arrive de réaliser une tâche en première intention mais c’est loin d’être toujours le cas. On distingue alors 3 modes d’initiation de la tâche en « seconde intention ».

  1. Initiation procédurale : lorsque la tâche n’est pas réalisée en première intention, il en est pris note : en mémoire, dans un calepin, ou sur tout autre support, y compris IHM. La réalisation de la tâche nécessite alors une nouvelle intention qui est une intention de consultation du support où a été portée la note. La consultation du support, et de la note, permet de replacer la tâche dans le champ de l’attention. Et cela se concrétise par l’intention de réaliser la tâche, si le moment est approprié.
    L’intention de consultation de ses supports de mémorisation est généralement une habitude, voire une routine. Cette routine de consultation est initiée elle-même soit par une autre routine (« à la fin de chaque tâche je consulte ma liste ») soit par un évènement particulier (« je pars pour un mois » entraine la consultation d’une check list mentale  » fermer l’eau, le gaz, l’électricité, les volets,… »).
  2. Initiation automatique : l’aspect procédural est alors délégué. Il peut s’agir de votre secrétaire, d’une alarme pré-réglée, d’un mail automatiquement envoyé qui porte à votre attention la tâche à réaliser.
  3. Initiation indiciée : c’est un indice que vous avez perçu de manière involontaire (une croix au stylo sur le dos de la main, la photo de votre mari/femme sur le bureau,…) qui soit vous remet en mémoire la tâche elle-même soit déclenche l’intention d’interroger vos supports de mémorisation.

AttentionPériphérique

L’initiation indiciée a pour avantage un overhead limité et présente donc une plus grande flexibilité. L’initiation procédurale nécessite par exemple la mémorisation d’une note. La mémoire humaine étant ce qu’elle est, on s’oriente plutôt vers des supports physiques ou digitaux. L’overhead est alors constitué du coût de manipulation du support, du temps de rédaction de la note, etc… L’overhead comprend aussi le coût cognitif d’avoir à se souvenir de consulter ses notes. Ce coût est éliminé dans le cas d’une initiation automatique mais au prix d’un accroissement de la complexité de la note : il faut préciser quand l’alarme doit être donné, par quel moye, avec quelle fréquence elle doit être répétée, etc…

L’initiation indiciée permet de réduire cet overhead en se basant sur des indices qui sont des structures légères : une image, un son, etc… Un bon exemple d’initiation indiciée est le post-it. Souvent même il n’est pas nécessaire de le lire : on sait ce qui y figure.

Je vois dans cette initiation indiciée l’explication à la fameuse question : pourquoi certains préfèrent-ils avoir un bureau en désordre ? En effet lorsque tous les éléments et documents sont bien rangés ils ne fournissent aucun indice de leur utilité/fonction. Un bureau mal rangé optimise la surface du bureau pour afficher un maximum d’indices. Par extension une interface d’ordinateur classique avec une architecture d’information sous forme d’arbre hiérarchique est un très mauvais pourvoyeur d’indices. L’interface Bumptop, dont il fut question dans un billet recensant des interfaces innovantes, permet de retrouver la métaphore du bureau mal rangé avec des documents que l’on peut éparpiller, superposer de manière irrégulière, afficher au mur, dont on peut réduire ou augmenter la taille.

De mon point de vue l’indiciation est une des voies que doivent explorer les mondes virtuels. J’aurai l’occasion d’y revenir mais je pense que leurs spécificités les rendent particulièrement indiqués pour l’initiation indiciée des tâches.

Tout d’abord le premier opus des Situated Technologies Pamphlet Series intitulé Urban computing and its discontents qui est un dialogue entre Adam Greenfield et Mark Shepard sur les liens entre architecture urbaine, urbadination (tentative de francisation de urban computing) ou comment les technologies de l’information influent sur les représentations individuelles de la ville, sur les comportements en milieux urbains. Une description plus longue des sujets abordés est donnée par Nicolas Nova.

Ensuite le Virtual Worlds Management Industry Forecast, qui regroupe les prévisions/attentes de nombreux acteurs du domaine des mondes virtuels. Ci-dessous j’ai regroupé autour de 4 thèmes quelques phrases qui m’ont semblé pertinentes :

Spécificité des mondes virtuels : les mondes virtuels présentent des caractéristiques qui les rendent différents de l’internet actuel. J’ai déjà écrit sur le sujet (sur le web3D) et serai amené à en reparler rapidement

Third challenge will be to really understand what makes vitual worlds different from other forms of media. (Matt Bostwick, MTV Music Group)

The new year will see a shift to designs that better leverage what one can do uniquely in a virtual world. (Jim Bower, Whyville.net)

Pratiques et usages : la compréhension des spécificités des mondes virtuels doit permettre l’émergence de véritables pratiques.

consummers have had enough of empty virtual hotels and paper-thin gameplay. (Corey Bridges, The Multiverse Network)

The use of virtual worlds will transition from promotional to transactions and execution. (Greg Nuyens, Qwaq)

Mesure : sans connaitre les spécificités d’un nouveau média ni les manières dont il peut être utilisé, on en est réduit à plaquer des modèles de mesure hérités des autres médias qui ont déjà fait leurs preuves.

an inability for businesses to get reliable data on how worlds can be and are used. (Robert Bloomfield, Cornell)

Principle challenge to the industry is to « get real » with its numbers, and start using the right numbers. (Matt Bostwick, MTV Music Group)

Offre de valeur : l’offre de valeur faite à l’utilisateur doit être améliorée pour le retenir. Pour cela les entreprises doivent dépasser le stade de la transposition des formes issues des autres médias plus anciens aux mondes virtuels.

Current user interfaces are overly complex and a significant contributor to the current high attrition rate (in the order of 10 to 1) of new users to virtual worlds. (Steve Prentice, Gartner Research)

Finally, non-gaming virtual worlds will need to continue to enhance the value proposition they offer to potential users. (Dan Miller, Joint Economic Committee, US Congress)

They also need to find something newbies can easily engage in. Provide them with some purpose, objectives and activities. (Yanzhe Cai, Parks Associates)

As an industry we’re still in an enablement phase which probably will last all through 2008. (Bruce Joy, VastPark)

Principle challenge to the industry is to « get real » with its numbers, and start using the right numbers. (Matt Bostwick, MTV Music Group)

The biggest challenge will be to get our media partners to understand that broadcast-based approaches won’t work in virtual worlds – but interactivity produces much more profound returns on marketing investment. (Matt Bostwick, MTV Music Group)

L’acte conditionné

L’associationnisme est une théorie qui postule qu’à tout moment notre état mental est déterminé par nos états mentaux précédents et nos sensations. Ce système philosophique implique une forme de déterminisme : nos actions et nos décisions sont rendues nécessaires par nos états mentaux qui eux-mêmes sont la conséquence déterminée des états précédents.

Bergson réfute que cette théorie puisse s’appliquer à toutes les décisions. Il reconnait cependant que nombre de nos actes sont conditionnés (Essai sur les données immédiates de la conscience) :

[L]es actes libres sont rares […] je suis ici un automate conscient, et je le suis parce que j’ai tout avantage à l’être. On verrait que la plupart de nos actions journalières s’accomplissent ainsi […] les impressions du dehors provoquent de notre part des mouvements qui, conscients et même intelligents, ressemblent par bien des côtés à des actes réflexes. C’est à ces actions très nombreuse, mais insignifiantes pour la plupart que la théorie associationniste s’applique.

Sans rentrer dans un débat sur les ressorts de l’intelligence humaine, il existe des preuves empiriques de mécanismes qui, parce qu’ils sont inconscients, remettent en cause au moins en partie le libre arbitre.

 

Biais de résonnement

Je donne ci-après deux exemples de processus inconscients qui produisent des biais dans nos résonnements sans que nous puissions nous en apercevoir. Par certains aspects nous sommes déterminés. Le premier exemple est tiré de Le nouvel inconscient de Lionel Naccache :

[N]ous serions en possessions de deux systèmes visuels complémentaires. Le premier système est associé à la voie du colliculus supérieur, il est rapide, il peut procéder inconsciemment, il est centré sur la détection des objets en mouvement et élabore des représentations visuelles grossières de l’ensemble de la scène visuelle. Le second système est bien plus lent, il sous-tend une analyse visuelle très fine, riche de mille nuances perceptives et de subtils contrastes.

Cette construction du mécanisme visuel permet d’expliquer des phénomènes tels que le blindsight (vision inconsciente lorsque le cortex visuel est détruit) ou les messages subliminaux (image exposée de manière trop courte pour être vue consciemment).

L’exemple de la vision prouve que seulement une partie de nos sensations sont objectivées, les autres étant assimilées de manière subjective. Ces sensations sont ensuite traitées par le cerveau, et là, de nouveaux déterminismes se font jour : il existe des filtres culturels qui font qu’une même scène est mémorisée différemment par des personnes de cultures. Umberto Eco souligne en particulier l’importance de la langue parlée (Le Signe) :

La célèbre hypothèse Sapir-Whorf […] soutenait que la façon de concevoir les rapports d’espace, de temps, de cause et d’effet changeait d’ethnie à ethnie, selon les structures syntaxiques de la langue utilisée. Notre façon de voir, de diviser en unités, de percevoir la réalité physique comme un système de relations, est déterminée par les lois (évidemment dépourvues de caractère universel !) de la langue avec laquelle nous avons appris à penser. Dès lors, la langue n’est plus ce à travers quoi l’on pense, mais ce à l’aide de quoi l’on pense, voire ce qui nous pense, ou ce par quoi nous sommes pensés.

Et Eco de prendre l’exemple de la neige pour laquelle le français ne possède qu’un mot quand les Esquimaux en ont seize. Ainsi là où nous rappellerions une étendue blanche, d’autres se souviendraient de bien plus. Parce que leur langage le leur permet.

 

Rapport avec les IHM

Les IHM font appel aujourd’hui de manière intensive à l’attention et à l’intention conscientes, alors qu’une part importante de notre activité intellectuelle est inconsciente et que nous fonctionnons largement sur un modèle stimulus-réponse. C’est à mon avis un des enjeux des futures IHM et du design d’interaction que de s’adresser à l’attention périphérique (que j’ai à d’autres occasions appelée attention latérale) afin de déclencher nos actions sur un mode stimulus-réponse qui soit beaucoup moins consommateur de ressources cognitives.

Sans envisager de programmer l’inconscient de l’individu, le recours à l’attention périphériques consiste en la possibilité de disséminer des indices qui, sans s’adresser directement à nous, nous fournissent certaines informations. Ces indices sont moins volumineux que les informations elles-mêmes, mais parce qu’ils leurs sont associés sont de même valeur. La limite à cette indiciation (néologisme, équivalent de cue-ing) est constituée par les différences entre cultures et entre personnes qui font que les réponses à un même indice peuvent différer. Il faudra alors soit personnaliser soit trouver des valeurs communes…

Quelques exemples d’utilisation de l’attention périphérique :

  • La mise en tâche de fond illustrée par Stefana Broadbent : certains indices tels qu’un mot, un son, une couleur, conduisent l’utilisateur à ramener une tâche au premier plan, mais ils peuvent aussi être ignorés.
  • Certaines personnes se font une croix au stylo sur le dos de la main pour se rappeler qu’elles ont une tâche particulière à effectuer. La vision de cette croix déclenche l’intention de faire et non l’inverse comme dans le cas d’un agenda où l’intention (de me rappeler) précède l’attention.
  • Lorsque je prépare mon petit-déjeuner je sors le jus d’orange ou les biscuits en premier suivant que mon regard s’est porté en premier sur le frigo ou sur le placard…

A plusieurs reprises j’ai vu dans des blogs les qualités de Philips en termes de prospective, de design centré sur l’utilisateur, de design d’interaction,… A l’occasion des fêtes je me suis demandé si leurs chercheurs/designers sortaient parfois des labos pour donner un coup de main à leurs collègues ingénieurs.

Tout d’abord la Wake-Up Light (réveil avec un effet d’aube) présente un look’n feel désastreux : plastique cheap, molettes et boutons grossiers,… La télécommande de Living Colors présente le même problème, mais la lampe en elle-même a visiblement reçu plus d’attention.

Continuons sur la Wake-Up Light. Elle présente des fonctionnalités intéressantes (réglage de la luminosité, du volume de l’alarme, possibilité d’éteindre son et lumière indépendamment), mais est desservie par leur mise en oeuvre. La lampe présente 4 boutons sur sa partie supérieure qui correspondent au moment du réveil aux fonctions 1-Snooze 2-Eteindre la lumière 3-Eteindre le son 4-Eteindre son et lumière. C’est probablement un bouton de trop et surtout ces boutons sont tactilement mal séparés (cad on les distingue mal au toucher seulement). Il vous donc d’une part disposer de vos facultés mentales pour vous rappeler sur quel bouton appuyer et ouvrir les yeux et vous placer au dessus de votre lampe pour trouver le bouton idoine. 2 choses que je ne suis pas très susceptible de faire au réveil…

Je pourrais continuer (la notice, le remplacement de l’ampoule,…). Le produit reste bon cependant (s’il y avait des concurrents je dirais peut-être autre chose). Mais pour le prix payé (>100 Euros) on a un peu l’impression qu’on se paye notre tête, ce n’est pas comme si on achetait une pâle copie Made in China d’un produit de grande marque…

Je vous livre ci-dessous un commentaire que j’ai laissé sur InternetActu. J’espère qu’il vous donnera envie d’aller consulter l’article original de Hubert Guillaud qui traité de l’acceptabilité de la vidéo, de ses usages, de son futur… Des sujets que j’ai abordés récemment et qui trouvent là un exemple pour les illustrer.

Comme le note Annie Gentès le rapport de la webcam à l’identité se situe sur un continuum dont les extrémités sont d’une part le marqueur pur et simple qu’est l’image (comme le nom, la voix,…) et d’autre part le vecteur de meta-données (expression faciale, indications sur l’environnement,…) qui enrichissent le message transmis. L’utilisation de webcam de ville filmant le lieu de vie d’un correspondant correspond exactement à une opération d’enrichissement de la communication avec des données contextuelles. Les projets Open Display et Instant Video Messenger relèvent de la même logique.

La vidéo nous font remarquer les auteurs est un usage qui n’a pas encore trouvé ses pratiques. Le plus compliqué me semble-t-il avec la vidéo est de faire émerger des expériences partagées : une communication implique la réciprocité, il faut donc que l’utilisation de la vidéo résulte d’une volonté commune a priori et implicite. Comme il est noté dans l’article, le refus explicite d’utilisation de la vidéo par l’un des interlocuteurs envoie un signal.

Cette difficulté à s’accorder sur l’utilisation de la vidéo est lié à l’importante quantité de meta-données que celle-ci convoie. Une communication « riche » crée, comme je le fais remarquer dans un billet « Choix social d’un mode de communication », des obligations sociales (du fait de convention de politesse qui s’appliquent là où elles n’ont pas lieu d’être dans une communication plus « pauvre »). Il peut en résulter un sentiment d’intrusivité ou d’obstructivité.

La vidéo est donc une modalité possèdant une expressivité très forte, elle est donc difficile à utiliser dans une stratégie sociale de communication. On peut cependant s’attendre à ce que de nouvelles conventions se créent autour de son usage, à ce qu’elle trouve sa place au milieu des autres modes de communication pour servir des pratiques/expériences particulières.

Mardi dernier se tenait un atelier du programme d’action Identités Actives de la FING. Avant de livrer mes impressions personnelles, quelques points qui m’ont interpelé, et sur lesquels j’essaierai de revenir plus tard :

  • L’un des premiers rôles de l’identification est de permettre l’autorisation : l’autorisation consiste à établir qu’un individu est en droit de réaliser une action particulière. Votre permis B permet d’établir que vous êtes en droit de conduire une voiture, mais l’autorisation est soumise à votre authentification, c’est-à-dire à la vérification que vous êtes bien celui que votre permis dit que vous êtes. Cette authentification se fait par comparaison des informations personnelles portées sur votre permis avec celles enregistrées à la préfecture. Votre identité n’a pas ici de valeur en elle-même mais par les droits qu’elle vous permet de prouver. Inversement il existe des systèmes d’autorisation qui ne sont pas basés sur une identification : le ticket de métro par exemple.

  • On utilise beaucoup le terme de privacy pour définir tout ce qui est de nature privée, c’es-à-dire ce qui n’a pas vocation à être librement accessible. On devrait pouvoir trouver une traduction honnête. J’avais pensé à privauté jusqu’à ce que je me renseigne sur son sens premier. Ce mot n’étant plus d’usage courant il pourrait être envisagé de le recycler. Après tout le vocabulaire est fait pour vivre… Faudra que je me renseigne auprès des quebecquois, ils sont toujours très prompts à trouver des francisations.

  • A propos de privacy, prenons l’exemple du dossier médical. Votre identité est publique (accessible dans l’annuaire et sur votre sonnette de palier, et en bien d’autres lieux…). Et si on vous demandait de rendre accessible votre dossier médical de manière anonyme à une université pour des recherches, la majorité d’entre vous accepterait. Ce ne sont donc ni votre identité ni votre dossier médical que vous souhaiter protéger mais le lien entre les deux.

  • Il existe différentes démarches visant à la protection de l’identité. 3 reçoivent particulièrement plus d’attention : Cardspace de Microsoft, LibertyAlliance et OpenID. Et bien que je ne puisse/veuille m’attarder sur le pourquoi maintenant, on peut dire qu’elles représentent trois conceptions parfois très différentes des mécanismes à mettre en place pour permettre à l’individu de maitriser son identité.

  • La fédération d’identité ne se limite pas au SSO (Single Sign On) qui permet de stocker en un lieu unique l’ensemble des sites auxquels on est inscrit. La fédération d’identité s’intéresse aussi à la gestion des attributs de l’identité et comment ils sont communiqués d’un service à un autre de manière à ce que l’utilisateur puisse obtenir une expérience personnalisée et intégrée tout en restant en contrôle de quel service accède à quelle information.

En ce qui concerne mes impressions : j’étais probablement un peu en décalage par rapport à une partie de l’assistance dont le quotidien est fait de ces questions d’identité. Mais je pense ne pas avoir été le seul à « regretter » les débats très techniques autour des protocoles utilisés et de ce type de problématiques très « bas niveau ».

On a aussi assisté à une bataille de clochers qui a permis de bien comprendre que les trois approches (Liberty, OpenID, Cardspace) étaient différentes sans pour autant réussir à prendre de la hauteur pour mieux définir les enjeux de ces différences.

La conclusion à l’atelier, qui me parait pétrie de bon sens, est qu’il existe différents usages de l’identité. Il faut les lister et les catégoriser en fonction de différents critères à définir tels que la criticité (s’identifier pour accéder à un blog ou à son dossier médical n’ont pas les mêmes implications), fréquence (pour un héritage il faut établir son identité mais cela se produit rarement contrairement à l’accès à son lieu de travail), parties intéressées (banques, entreprises, collectivité territoriales, état,…), les bénéfices attendus pour chacune d’elles…

Au final une séance très instructive pour moi mais certainement un peu frustrante pour les personnes plus averties…