Par l’intermédiaire du flux del.icio.us d’InternetActu alimenté en grande partie par Hubert Guillaud, j’ai pris connaissance du projet Seadragon de Microsoft qui est une interface 2D basée sur le zooming ou, pour employer la terminologie introduite dans un billet précédent (« Spécificité des mondes contigus et continus : adresse et navigation« ), une interface qui fait usage d’une navigation météorique. J’aurais souhaité inclure la vidéo de présentation au TED mais leur lecteur ne semble pas bien s’importer, je vous donne donc le lien, n’hésitez pas à la consulter, la partie sur Seadragon est très courte : 2 minutes au début de la vidéo :
Des oiseaux de mauvaise augure ne manquent pas de poser les questions du type : et comment je fais pour retrouver une photo en particulier ? etc… J’ai confiance dans le développement de ce type de navigation car, je le disais dans un article sur différentes interfaces innovantes à propos je crois l’humain plus à même de lire une carte qu’un arbre (hiérarchique), et je crois dans le fonctionnement stygmergique (qui se concrétise dans ce cas par un déplacement naturel et continu par association d’idée, d’une idée générale à une idée particulière) qu’une telle interface rend plus accessible.
Après cette forme de navigation et d’organisation de l’information n’est pas amenée à remplacer toutes les autres. Elles sauront trouver une complémentarité. Encore une fois ce seront les pratiques qui en émergent qui seront les juges de paix.
J’ai repris une activité professionnelle et j’ai des projets en cours, et l’alimentation du blog s’en ressent déjà. J’avais prévu un post sur le web sémantique, il est repoussé à une date indéterminée. En attendant je poste une très bonne vidéo pointée par le blog Nodalities (qui offre pas mal de ressources sur le sujet) :
J’étais hier à la réunion des Entreprenautes Associés. Beaucoup de rencontres. De la matière pour la reflexion dans les jours à venir.
Et pour finir, un exemple de détournement, ou comment l’appareil photo d’un téléphone portable peut procurer l’internet mobile. J’ai un ami qui prend des photos des pages internet qu’il veut pouvoir consulter hors de chez lui (plans, itinéraires, ou autres…) J’ai essayé mais la résolution de mes photos semble trop faible pour l’autoriser. Il n’est probablement pas le seul à avoir recours à ce type de ruse, mais je la trouve amusante à l’heure où l’on nous parle tant d’internet mobile mais dont les performances restent si médiocres…
Un espace contigu est un espace discret, et se représente par graphe/réseau.
Un espace contigu est discret, un espace continu dispose d’une étendue. L’humain évolue dans un espace continu. Tout ce qui est réel et physiquement (par opposition à conceptuellement) accessible à l’humain dispose d’une étendue.
Les mondes digitaux continus recréent un sentiment d’étendue en utilisant des briques (pixels) de taille suffisamment réduite pour dissimuler la nature discrète des espaces numériques.
Définition de l’adresse
La notion d’adresse est aisée à définir dans le cas d’un espace contigu de par son caractère discret : il suffit de numéroter (même arbitrairement) les noeuds du réseau.
Bien qu’on puisse penser que l’adresse postale est une adresse définie dans un espace continu, elle est en fait une adresse dans un espace contigu superposé à un espace continu (nesté aurai-je dit dans un post précédent).
Il est cependant prématuré de réduire une adresse « continue » à une adresse « contiguë » suite à une discrétisation d’un espace continu. La définition d’adresse donnée antérieurement est à revoir…
Différents types de navigation
La navigation est différente entre un espace contigu et un espace continu. La navigation dans un espace continu est une navigation différentielle (« Qui procède par différences infiniment petites », Trésor). La navigation dans un espace contigu peut elle être qualifiée de navigation proximale (de proche en proche) : on s’y déplace d’un noeud à l’un des noeuds voisins.
La superposition d’un espace contigu à un espace continu tend à déformer ce dernier : deux points éloignés peuvent se trouver être deux noeuds voisins de l’espace contigu. La possibilité de se déplacer le long de ce lien correspond à ce qu’on appelle la télétransportation. S’il s’agit seulement d’information, on retrouve la métaphore du « village-monde » popularisée avec l’émergence des réseaux de télécommunication.
Cette superposition replie le monde continu sur lui-même.
Les espaces continus admettent une autre forme de navigation que j’appelle navigation météorique (du grec « s’élever »). Elle consiste premièrement à s’écarter de l’objet de la navigation puis à s’en rapprocher après avoir choisi le point de destination. Un exemple en serait d’effectuer un zoom arrière sur une carte Mappy puis un recentrage et enfin un zoom avant.
Les contraintes physiques limitent l’utilisation d’une telle navigation dans le monde réel, mais les espaces digitaux s’y prêtent particulièrement bien. La lévitation dans les mondes 3D ou le zoom dans les interfaces 2D l’autorisent. Un billet sur quelques interfaces innovantes donnait l’exemple de l’interface Zumobi qui en fait usage. Je pense que le concept pourrait être poussé plus loin…
La navigation météorique peut être vue comme un intermédiaire entre navigation différentielle et navigation proximale : elle est essentiellement une navigation différentielle mais permet de se déplacer d’un point à un autre sans franchir l’espace qui les sépare.
Le type de navigation employée influe nécessairement sur la représentation que l’utilisateur se fait de l’espace dans lequel il évolue. Dans la lignée de l’analyse des représentations subjectives des notions d’espace et de site (traduction de place) que fait Paul Dourish, il serait intéressant d’analyser le rôle de la navigation dans ces représentations , ainsi que de celle du chemin.
Dans le billet précédent il fut question de modélisation des préférences. Il s’agit, à partir de manifestations, d’induire une construction (le modèle) à partir de laquelle il soit possible de procéder à des déductions. Ce modèle doit permettre d’expliquer les manifestations à partir desquelles il a été construit, mais aussi d’élaborer des conclusions supplémentaires. Un modèle de mes goûts musicaux doit par exemple permettre de déterminer les morceaux qui me plairaient. Parmi ceux-ci on trouverait ceux qui ont servi à construire le modèle et pleins d’autres que je ne connais pas, mais que le modèle aurait analysés comme concordant avec mes goûts.
Un autre exemple de modèle auquel je vais être amené à m’intéresser sous peu est celui du web sémantique : le web sémantique est fondé sur la modélisation des relations entre des objets/concepts. La construction d’un modèle ne va pas sans certaines assomptions contestables. Dans ce post je questionne le bien-fondé de la première des hypothèses faite avant de procéder à une telle construction : l’existence du système sous-jacent qu’il s’agit de modéliser. Le système que l’on modélise existe-t-il ?
Que modélise-t-on ?
Prenons tout d’abord le cas des préférences. Les traditions économiques de l’utilitarisme et de l’homo oeconomicus s’appuient sur la rationalité de l’agent et sa capacité à exprimer ses préférences pour motiver son choix. Au simplisme de ces hypothèses certains ont opposé des principes de modélisation plus réalistes : rationalité limitée, critère de satisfaction, systèmes multi-critères… L’introduction de complexités supplémentaires ne remet cependant pas en cause l’idée qu’une modélisation est possible. Cependant des expériences de psychologie cognitive et de neurosciences permettent de douter de l’existence d’un corpus de préférences bien formées et stables en chacun de nous.
Un exemple classique en est l’influence de la couleur d’un liquide sur le goût perçu. Un second en est l’amorçage, qui consiste à activer un état mental particulier à l’aide d’un stimulus : si lors d’un diner l’un de vos amis vous affirme que le plat qui vous est servi est affreusement mauvais vous êtes moins susceptible de l’apprécier que si votre ami vous avait dit le contraire. Enfin, nous ne disposons pas de préférences a priori : c’est la formulation d’une préférence qui la fait exister.
Intéressons nous maintenant au web sémantique. L’existence d’une structure sous-jacente qu’il s’agit de modéliser suppose que le langage est un, c’est-à-dire qu’il existe des relations précises, solides, non ambiguës entre les termes qui le constituent. Proust associait le goût de la madeleine à certaines idées/mémoires/images. Ces associations ne sont pas celles que moi je fais. Le langage fait l’objet d’une appropriation personnelle et lorsqu’on cherche à faire en émerger une structure unique et commune à tous, il s’agit avant tout de réaliser une intersection/une moyenne des compréhensions de chacun. Une moyenne de subjectivité n’aboutit cependant pas à une objectivité.
Risques des modélisations
On modélise des systèmes qui n’ont pas d’existence véritable… Et alors ? Demanderont certains. Tant que cela a des applications. Certaines simplifications sont nécessaires et l’erreur commise peut être profitable. Certes. Je ne suis pas un anti-modélisation. Il me semble cependant important de remarquer deux dangers insinueux liés aux modélisations :
Les modélisations sont normatives : elles nous permettent d’accéder à « la » réalité. Un dictionnaire est déjà une modélisation, mais il conserve la souplesse du langage, de sa polysémie, de ses contradictions. Les modélisations compréhensibles par les machines n’accordent pas ce luxe. Et dès lors qu’elles sont le support de services avec lesquels nous interagissons, elles deviennent en quelque sorte auto-réalisatrices. De la même manière qu’une autoroute est structurante pour un territoire : qu’on en construise une au milieu de nulle part et son existence justifiera à rebours sa construction par le pouvoir d’attraction qu’elle peut exercer sur les activités humaines.
Ce qui n’est pas modélisé n’existe pas : l’inversion logique entre réalité et modélisation fait que ce qui n’est pas modélisé n’existe pas. Ce problème a déjà été pointé dans le domaine de l’économétrie : la pollution n’était, récemment encore, pas une priorité et n’entrait dans aucun indicateur. Statistiquement elle n’était pas représentée, donc politiquement elle n’était pas argumentable.
Dans la même logique, Hubert Guillaud rapportait récemment l’activité scientifique atour du décryptage de l’influence culturel du code (qu’il soit génétique, algorithmique,…)
Il me parait intéressant de revenir un peu plus en détail sur la mécanique de la caractérisation par composante dont il a été question dans un post précédent. Il existe de nombreuses méthodes d’expression des préférences mais je n’en présente ici qu’une, la plus simple me semble-t-il.
Cette caractérisation des préférence par décomposition part du principe que tous les objets pouvant faire l’objet d’une appréciation peuvent se voir attribuer une « valeur ». Tous les objets sont donc comparables entre eux et la préférence de l’un sur l’autre dépend de la comparaison de leurs valeurs respectives. La caractérisation par composante comporte 3 étapes : l’identification des composantes pertinentes, la construction de la fonction d’évaluation, et l’application de cette fonction aux objets à évaluer.
Identification des composantes pertinentes
En anglais feature extraction. Il s’agit d’établir la liste des critères sur lesquels se fondent la préférence. Pour une voiture ce sera par exemple la couleur, la cylindrée, le nombre de places assises,… Il est important que ces critères soient indépendant : si je compare des sphères (pourquoi pas ?) et que je retiens le rayon, le diamètre, la surface et le volume de la sphère comme critères, je n’aurai qu’exprimé 4 fois un seul et même critère (les trois derniers sont fonction du rayon). Au moment de la construction de la fonction d’évaluation cela peut avoir son importance : certains critères peuvent alors être surreprésentés… Inversement il est nécessaire de prendre en compte un maximum de critères significatifs. Imaginons que j’oublie de prendre la couleur d’une voiture comme critère, j’aurais du mal à expliquer les préférences d’un homme qui préfère systématiquement les voitures rouges aux autres quels que soient les modèles comparés… Ces composantes sur lesquelles sont décomposés les objets de préférences doivent donc être judicieusement choisies, ce qui peut être foncièrement délicat pour certains objets tels que les morceaux de musique.
Construction d’une fonction d’évaluation
Une fois les composantes identifiées, il faut procéder à l’apprentissage des goûts de l’utilisateur, ce qui se concrétise sous la forme d’une fonction d’évaluation qui associe à chaque objet une valeur. Il s’agit de reconstruire une fonction à partir d’échantillons. Les ingénieurs en télécom retrouvent là une problématique de traitement du signal et les chercheurs en Intelligence Artificielle un problème d’apprentissage.
Imaginons qu’une voiture s’évalue selon trois critères (x,y,z), il s’agit de construire la fonction f(x,y,z) telle que, si un modèle A (xa, ya, za) est préféré à un modèle B (xb, yb, zb), alors f(xa, ya, za) > f(xb, yb, zb). La construction de cette fonction est d’autant plus difficile qu’elle est complexe.
Dans la foulée des économistes utilitaristes on aurait tendance à souhaiter que cette fonction soit additivement séparable c’est à dire qu’elle puisse s’exprimer sous la forme f(x, y, z) = u(x) + v(y) + w(z). Cette séparabilité se heurte cependant à la possibilité de préférences conjointes : dans le choix d’un salon, la couleur du canapé et la couleur des murs de la pièce sont certainement deux critères de choix, mais je ne peux pas attribuer une valeur à chacun de ces deux critères indépendamment l’un de l’autre. L’évaluation du salon disposera plutôt d’une partie « harmonie des couleurs » dont la valeur dépendra des couleurs des différents éléments du salon. Il existe bien d’autres problèmes à la construction d’une fonction arithmétique modélisant, mon but n’est cependant pas d’en faire une critique exhaustive mais simplement d’en montrer les limites… Les lecteurs intéressés se référeront à la théorie de la modélisation des préférences.
Application de la fonction d’évaluation
Admettant qu’une telle fonction a pu être construite, il est possible de l’appliquer à des objets qui n’ont pas été déjà évalués par l’utilisateur. L’application de cette fonction à un grand nombre d’objets permet de définir ceux qui sont les plus susceptibles de correspondre à ses goûts, et par la suite de les lui suggérer.
J’ai découvert par Read Write Web le service Brighter Planet qui propose à chacun de mesurer son empreinte écologique et de la diminuer. Ce souci environnemental est de plus en plus présent, et le poids de ce critère dans les choix de consommation appelle au développement de ce service. La proposition de valeur de Hestia prenait en compte cet aspect. A ce sujet j’ai aussi découvert la plateforme de pré-commande du groupe Franprix, qui s’appelle Coursengo. Je pense que le design d’interaction pourrait être mieux pensé mais les possibilités offertes sont intéressantes.
Mashable rapporte l’introduction sur AIM d’une fonctionnalité destinée selon moi à connaitre un échec dans la pratique actuelle de l’IM : la possibilité pour votre correspondant de voir le texte que vous écrivez au fur et à mesure que vous l’écrivez. Cette option change tout simplement la nature du service proposé, de la même manière que communiquer par répondeur interposé est différent de parler en direct. Cette modification du synchronisme de la communication (dont il avait été question dans un article précédent) doit s’accompagner de pratiques nouvelles. Comme le remarquait ce billet, les différents modes de communication sont amenés à être employé au sin d’une stratégie de communication, où chaque personne choisit quelle quantité de meta-données il souhaite fournir à son interlocuteur.
A la suite des articles précédents sur l’utilisation des données transactionnelles il est frappant de constater les nombreux mouvements autour de la collecte de ces données de l’attention, alors que les modes de monétisation ne sont pas encore clairement définis. Dernièrement NewsGator a rendu ses lecteurs RSS gratuit en espérant qu’un maximum d’utilisateurs les adopterait, et ceci afin de récupérer leur données attentionnelles. Comment vont-ils ensuite récupérer leur investissement ? Des services offre déjà l’export des données APML mais à titre gratuit…
Le poste précédent introduit la relation entre données transactionnelles et données de l’attention. Ces données sont utilisées pour fournir des recommandations/suggestions aux utilisateurs.
Ces suggestions sont formulées sur la base d’une caractérisation des goûts/préférences de l’utilisateur. Cette caractérisation peut se faire de deux manières :
Caractérisation communautaire : cette caractérisation consiste à comparer les données transactionnelles entre utilisateurs d’un service. La suggestion peut alors prendre plusieurs formes : indiquer à l’utilisateur après une transaction particulière quelles sont les transactions réalisées par les autres utilisateurs (« Les utilisateurs ayant consulté la page de ce produit ont aussi consulté… »). Il est aussi possible d’établir une mesure d’affinité entre utilisateurs (par exemple en calculant le nombre de transaction en commun qu’ont deux utilisateurs) puis de leur proposer des transactions que les utilisateurs qui leur sont proches ont réalisées. Ce type de caractérisation ne se soucie pas des véritables goûts de l’utilisateur, et ne cherche pas à les reconstruire.
Caractérisation par composante : ce type de caractérisation est beaucoup plus ambitieuse. Elle cherche à modéliser les goûts de chaque utilisateur. Cette modélisation se fait en identifiant des composantes selon lesquelles les transactions sont décomposables. Par exemple le service Pandora caractérise chaque titre musical selon des composantes telles que « electro acoustic sonority », « rythmic intro »,… L’analyse des transactions passées permet la construction d’une fonction d’évaluation, qui, appliquée à des transactions potentielles, permet de déterminer celles qui devraient convenir aux goûts de l’utilisateur. Pour les familiers d’intelligence artificielle, il s’agit d’une problématique d’apprentissage… La caractérisation par composante ne s’intéresse donc qu’aux données relatives à un utilisateur particulier et ne compare pas les utilisateurs entre eux.
Un schéma tout bête pour faire apparaitre l’orthogonalité des notions de CRM et de VRM :
Les fournisseurs de services sont compris au sens large : fournisseurs d’un service de commerce (électronique ou pas), fournisseurs d’informations,… de telles sortes que les données transactionnelles sont seulement en partie des données relatives à des transactions commerciales : la consultation du prix d’un produit est une transaction, la discussion avec un commercial est une transaction, la lecture du journal est une transaction…
L’approche CRM est donc pour les fournisseurs d’identifier les transactions qui leur permettent de retenir leur clientèle. L’approche VRM est pour les consommateurs de gérer leurs transactions de manière centralisée. Le VRM n’a de sens que si le marché considéré dispose d’une forte fluidité : lorsqu’il existe des barrières fortes au changement de fournisseurs, il est toujours possible de réaliser des comparaisons avec les concurrents mais sans disposer pour autant de leviers d’actions. Deux bons exemples de VRM sont pour moi :
La société Mint qui permet de comparer et de changer de fournisseur de crédit rapidement et facilement.
L’Open Access Model de Labs2 qui offre de la FTTH en Suède. Il est possible de changer d’ISP en quelques clics, de prendre et de résilier ses options avec prise en compte immédiate,… La vidéo de présentation de Jean-Michel Billaut
vaut vraiment le détour.
On peut noter par ailleurs que ce sont ces données transactionnelles qu’on appelle données de l’attention, et qui font l’objet d’une description par le langage APML, dont il est tant question dernièrement et qui sont l’objet du post suivant.
Je vais m’atteler à décrire de manière assez grossière ce que représente le web semantique et autre web structuré (structured web). Je tiens cependant à souligner que la conception du web et de son futur, qui doit beaucoup à Tim Berners-Lee, n’est pas la seule et unique. L’opposition frontale des croyants et sceptiques nous est résumé de manière romancée par Duncan Hull dans Burn, Semantic Web, Burn! Je partage personnellement en grande partie les vues des sceptiques, et j’essaierai de donner une lecture critique de l’article The Semantic Web, Syllogism, and Worldview de Clay Shirky, que je vous conseille très vivement (il est accessible, il ne fait pas usage de vocable technique).
Small Surfaces rapporte la sortie du Motorola Rokr équipé d’un écran tactile à retour haptique (grâce à de multiples vibreurs placé sous l’écran). Un post consacré aux modalités d’interaction avait souligné l’importance du feedback. L’absence de feedback tactile sur les écrans tactile présente un coût important en terme d’utilisation. L’introduction du feedback haptique est donc une avancée importante pour l’adoption large des écrans tactiles mais j’ai deux réserves à émettre:
J’ai un Razr depuis 7 moi, l’écran est entrain de rendre l’âme. L’augmentation de la complexité des écrans risque de réduire encore la durée de vie. Les constructeurs ont-ils intégré le principe de graceful degradation : comment un utilisateur va-t-il réagir si le feeback du Rokr est inconsistent (si par exemple certains vibreurs sont morts mais pas tous) ? Ne faudrait-il pas avoir la possibilité de couper le feedback tactile ?
Feedback n’est pas affichage : le Rokr implémente un feedback (on sait quand une action a été performée) mais pas un affichage tactile. La surface de l’écran est lisse lorsque je passe mon doigt dessus. L’affichage tactile permet de distinguer les bords des éléments d’interaction. Dans les téléphones à clavier cet affichage est passif, ce sont les reliefs des boutons qui permettent de déterminer les limites entre les boutons. Cet affichage tactile est indispensable à un usage aveugle ou semi-aveugle. Il est important dans la diminution de la charge cognitive.
Le monde des données regroupe les données dispersées au sein du réseau internet. La méthode première d’accès à ces données est la navigation. A l’origine il s’agissait d’une navigation au sein du réseau physique que constituent les ordinateurs interconnectés. Par abstractions successives on est ensuite passé à un réseau de documents interconnectés (ce qui inclue les pages internet) et l’on s’oriente vers un réseau de données interconnectées. Au sujet de ces abstractions successives il est possible de se référer aux propos de Tim Berners Lee. Le propos de cet article n’est pas la navigation mais les services d’accès aux données qui se sont mis et se mettent en place.
Le principe des services d’accès aux données est de présenter à l’utilisateur des données auxquelles il pourra attribuer un sens, c’est-à-dire d’aider l’utilisateur à transformer des données en informations. Je distingue trois types de services :
Les services de filtrage : le monde des données peut être sommairement comparé à une gigantesque bibliothèque très mal rangée. De cette immensité l’utilisateur ne peut pas tirer grand chose en l’absence de moyens lui permettant d’accéder aux données qui l’intéressent. Parmi les services de filtrage on pourra citer dans le désordre les services de recherche (Google et consorts), les services de recommandation, ou les réseaux sociaux (forums, abonnement à des flux rss, partages de signets et autres listes,…)
Les services de combinaison : la consultation d’une donnée particulière s’inscrit dans un contexte particulier (environnement, contexte cognitif, usage envisagé,…). En liaison avec ce contexte d’autres données peuvent être d’intérêt pour l’utilisateur. La combinaison consiste donc en la mise en valeur des données les unes par les autres de manière répondre aux attentes de l’utilisateur. Le service de base de la combinaison est l’agrégation. La verticalisation des services, c’est-à-dire l’adressage d’une pratique bien particulière, permet de sélectionner de manière plus pertinente les données utiles aux décisions sous-tendues par la pratique adressée. Les services d’auto-discovery permettent aussi d’établir des liens avec des données extérieures.
Les services de représentation : l’ordre spatial et temporel dans lequel les données sont présentées à l’utilisateur influe sur la compréhension que l’utilisateur en fait. Ensuite il est possible de les représenter sous différentes formes : texte, images, cartographies… On approche ici de problématique d’architecture de l’information et de design d’interaction. Des données pertinentes et pertinemment reliées n’ont aucune valeur si leur présentation à l’utilisateur ne permet de valoriser cette pertinence. Il s’en désintéressera, et la donnée ne devient pas information…
Prenons l’exemple simple d’un service comme Immoplaza : en fonction des critères de recherche il va filtrer les annonces immobilières susceptibles de vous intéresser. Il va ensuite les combiner à des données relatives au voisinage pour vous permettre de situer le contexte. Il va ensuite représenter ces données sur une carte, avec la possibilité de filtrer ce qui apparait, avec toujours pour but d’améliorer la compréhension.
J’ai plus à dire sur les trois types de services présenter ci-dessus, mais il va me falloir faire un détour par le web sémantique pour pouvoir poursuivre…