janvier 2008


Par l’intermédiaire du flux del.icio.us d’InternetActu alimenté en grande partie par Hubert Guillaud, j’ai pris connaissance du projet Seadragon de Microsoft qui est une interface 2D basée sur le zooming ou, pour employer la terminologie introduite dans un billet précédent (« Spécificité des mondes contigus et continus : adresse et navigation« ), une interface qui fait usage d’une navigation météorique. J’aurais souhaité inclure la vidéo de présentation au TED mais leur lecteur ne semble pas bien s’importer, je vous donne donc le lien, n’hésitez pas à la consulter, la partie sur Seadragon est très courte : 2 minutes au début de la vidéo :

Vidéo de présentation de Seadragon

Des oiseaux de mauvaise augure ne manquent pas de poser les questions du type : et comment je fais pour retrouver une photo en particulier ? etc… J’ai confiance dans le développement de ce type de navigation car, je le disais dans un article sur différentes interfaces innovantes à propos je crois l’humain plus à même de lire une carte qu’un arbre (hiérarchique), et je crois dans le fonctionnement stygmergique (qui se concrétise dans ce cas par un déplacement naturel et continu par association d’idée, d’une idée générale à une idée particulière) qu’une telle interface rend plus accessible.

Après cette forme de navigation et d’organisation de l’information n’est pas amenée à remplacer toutes les autres. Elles sauront trouver une complémentarité. Encore une fois ce seront les pratiques qui en émergent qui seront les juges de paix.

Publicités
  • J’ai repris une activité professionnelle et j’ai des projets en cours, et l’alimentation du blog s’en ressent déjà. J’avais prévu un post sur le web sémantique, il est repoussé à une date indéterminée. En attendant je poste une très bonne vidéo pointée par le blog Nodalities (qui offre pas mal de ressources sur le sujet) :

  • J’étais hier à la réunion des Entreprenautes Associés. Beaucoup de rencontres. De la matière pour la reflexion dans les jours à venir.

  • Et pour finir, un exemple de détournement, ou comment l’appareil photo d’un téléphone portable peut procurer l’internet mobile. J’ai un ami qui prend des photos des pages internet qu’il veut pouvoir consulter hors de chez lui (plans, itinéraires, ou autres…) J’ai essayé mais la résolution de mes photos semble trop faible pour l’autoriser. Il n’est probablement pas le seul à avoir recours à ce type de ruse, mais je la trouve amusante à l’heure où l’on nous parle tant d’internet mobile mais dont les performances restent si médiocres…

Espaces contigus et espace continus

Un espace contigu est un espace discret, et se représente par graphe/réseau.

Un espace contigu est discret, un espace continu dispose d’une étendue. L’humain évolue dans un espace continu. Tout ce qui est réel et physiquement (par opposition à conceptuellement) accessible à l’humain dispose d’une étendue.

Les mondes digitaux continus recréent un sentiment d’étendue en utilisant des briques (pixels) de taille suffisamment réduite pour dissimuler la nature discrète des espaces numériques.

Définition de l’adresse

La notion d’adresse est aisée à définir dans le cas d’un espace contigu de par son caractère discret : il suffit de numéroter (même arbitrairement) les noeuds du réseau.

Bien qu’on puisse penser que l’adresse postale est une adresse définie dans un espace continu, elle est en fait une adresse dans un espace contigu superposé à un espace continu (nesté aurai-je dit dans un post précédent).

Il est cependant prématuré de réduire une adresse « continue » à une adresse « contiguë » suite à une discrétisation d’un espace continu. La définition d’adresse donnée antérieurement est à revoir…

Différents types de navigation

La navigation est différente entre un espace contigu et un espace continu. La navigation dans un espace continu est une navigation différentielle (« Qui procède par différences infiniment petites », Trésor). La navigation dans un espace contigu peut elle être qualifiée de navigation proximale (de proche en proche) : on s’y déplace d’un noeud à l’un des noeuds voisins.

La superposition d’un espace contigu à un espace continu tend à déformer ce dernier : deux points éloignés peuvent se trouver être deux noeuds voisins de l’espace contigu. La possibilité de se déplacer le long de ce lien correspond à ce qu’on appelle la télétransportation. S’il s’agit seulement d’information, on retrouve la métaphore du « village-monde » popularisée avec l’émergence des réseaux de télécommunication.

Cette superposition replie le monde continu sur lui-même.

Les espaces continus admettent une autre forme de navigation que j’appelle navigation météorique (du grec « s’élever »). Elle consiste premièrement à s’écarter de l’objet de la navigation puis à s’en rapprocher après avoir choisi le point de destination. Un exemple en serait d’effectuer un zoom arrière sur une carte Mappy puis un recentrage et enfin un zoom avant.

Les contraintes physiques limitent l’utilisation d’une telle navigation dans le monde réel, mais les espaces digitaux s’y prêtent particulièrement bien. La lévitation dans les mondes 3D ou le zoom dans les interfaces 2D l’autorisent. Un billet sur quelques interfaces innovantes donnait l’exemple de l’interface Zumobi qui en fait usage. Je pense que le concept pourrait être poussé plus loin…

La navigation météorique peut être vue comme un intermédiaire entre navigation différentielle et navigation proximale : elle est essentiellement une navigation différentielle mais permet de se déplacer d’un point à un autre sans franchir l’espace qui les sépare.

Le type de navigation employée influe nécessairement sur la représentation que l’utilisateur se fait de l’espace dans lequel il évolue. Dans la lignée de l’analyse des représentations subjectives des notions d’espace et de site (traduction de place) que fait Paul Dourish, il serait intéressant d’analyser le rôle de la navigation dans ces représentations , ainsi que de celle du chemin.

Dans le billet précédent il fut question de modélisation des préférences. Il s’agit, à partir de manifestations, d’induire une construction (le modèle) à partir de laquelle il soit possible de procéder à des déductions. Ce modèle doit permettre d’expliquer les manifestations à partir desquelles il a été construit, mais aussi d’élaborer des conclusions supplémentaires. Un modèle de mes goûts musicaux doit par exemple permettre de déterminer les morceaux qui me plairaient. Parmi ceux-ci on trouverait ceux qui ont servi à construire le modèle et pleins d’autres que je ne connais pas, mais que le modèle aurait analysés comme concordant avec mes goûts.

Un autre exemple de modèle auquel je vais être amené à m’intéresser sous peu est celui du web sémantique : le web sémantique est fondé sur la modélisation des relations entre des objets/concepts. La construction d’un modèle ne va pas sans certaines assomptions contestables. Dans ce post je questionne le bien-fondé de la première des hypothèses faite avant de procéder à une telle construction : l’existence du système sous-jacent qu’il s’agit de modéliser. Le système que l’on modélise existe-t-il ?

Que modélise-t-on ?

Prenons tout d’abord le cas des préférences. Les traditions économiques de l’utilitarisme et de l’homo oeconomicus s’appuient sur la rationalité de l’agent et sa capacité à exprimer ses préférences pour motiver son choix. Au simplisme de ces hypothèses certains ont opposé des principes de modélisation plus réalistes : rationalité limitée, critère de satisfaction, systèmes multi-critères… L’introduction de complexités supplémentaires ne remet cependant pas en cause l’idée qu’une modélisation est possible. Cependant des expériences de psychologie cognitive et de neurosciences permettent de douter de l’existence d’un corpus de préférences bien formées et stables en chacun de nous.

Un exemple classique en est l’influence de la couleur d’un liquide sur le goût perçu. Un second en est l’amorçage, qui consiste à activer un état mental particulier à l’aide d’un stimulus : si lors d’un diner l’un de vos amis vous affirme que le plat qui vous est servi est affreusement mauvais vous êtes moins susceptible de l’apprécier que si votre ami vous avait dit le contraire. Enfin, nous ne disposons pas de préférences a priori : c’est la formulation d’une préférence qui la fait exister.

Intéressons nous maintenant au web sémantique. L’existence d’une structure sous-jacente qu’il s’agit de modéliser suppose que le langage est un, c’est-à-dire qu’il existe des relations précises, solides, non ambiguës entre les termes qui le constituent. Proust associait le goût de la madeleine à certaines idées/mémoires/images. Ces associations ne sont pas celles que moi je fais. Le langage fait l’objet d’une appropriation personnelle et lorsqu’on cherche à faire en émerger une structure unique et commune à tous, il s’agit avant tout de réaliser une intersection/une moyenne des compréhensions de chacun. Une moyenne de subjectivité n’aboutit cependant pas à une objectivité.

Risques des modélisations

On modélise des systèmes qui n’ont pas d’existence véritable… Et alors ? Demanderont certains. Tant que cela a des applications. Certaines simplifications sont nécessaires et l’erreur commise peut être profitable. Certes. Je ne suis pas un anti-modélisation. Il me semble cependant important de remarquer deux dangers insinueux liés aux modélisations :

  • Les modélisations sont normatives : elles nous permettent d’accéder à « la » réalité. Un dictionnaire est déjà une modélisation, mais il conserve la souplesse du langage, de sa polysémie, de ses contradictions. Les modélisations compréhensibles par les machines n’accordent pas ce luxe. Et dès lors qu’elles sont le support de services avec lesquels nous interagissons, elles deviennent en quelque sorte auto-réalisatrices. De la même manière qu’une autoroute est structurante pour un territoire : qu’on en construise une au milieu de nulle part et son existence justifiera à rebours sa construction par le pouvoir d’attraction qu’elle peut exercer sur les activités humaines.

  • Ce qui n’est pas modélisé n’existe pas : l’inversion logique entre réalité et modélisation fait que ce qui n’est pas modélisé n’existe pas. Ce problème a déjà été pointé dans le domaine de l’économétrie : la pollution n’était, récemment encore, pas une priorité et n’entrait dans aucun indicateur. Statistiquement elle n’était pas représentée, donc politiquement elle n’était pas argumentable.

Dans la même logique, Hubert Guillaud rapportait récemment l’activité scientifique atour du décryptage de l’influence culturel du code (qu’il soit génétique, algorithmique,…)

Il me parait intéressant de revenir un peu plus en détail sur la mécanique de la caractérisation par composante dont il a été question dans un post précédent. Il existe de nombreuses méthodes d’expression des préférences mais je n’en présente ici qu’une, la plus simple me semble-t-il.

Cette caractérisation des préférence par décomposition part du principe que tous les objets pouvant faire l’objet d’une appréciation peuvent se voir attribuer une « valeur ». Tous les objets sont donc comparables entre eux et la préférence de l’un sur l’autre dépend de la comparaison de leurs valeurs respectives. La caractérisation par composante comporte 3 étapes : l’identification des composantes pertinentes, la construction de la fonction d’évaluation, et l’application de cette fonction aux objets à évaluer.

Identification des composantes pertinentes

En anglais feature extraction. Il s’agit d’établir la liste des critères sur lesquels se fondent la préférence. Pour une voiture ce sera par exemple la couleur, la cylindrée, le nombre de places assises,… Il est important que ces critères soient indépendant : si je compare des sphères (pourquoi pas ?) et que je retiens le rayon, le diamètre, la surface et le volume de la sphère comme critères, je n’aurai qu’exprimé 4 fois un seul et même critère (les trois derniers sont fonction du rayon). Au moment de la construction de la fonction d’évaluation cela peut avoir son importance : certains critères peuvent alors être surreprésentés… Inversement il est nécessaire de prendre en compte un maximum de critères significatifs. Imaginons que j’oublie de prendre la couleur d’une voiture comme critère, j’aurais du mal à expliquer les préférences d’un homme qui préfère systématiquement les voitures rouges aux autres quels que soient les modèles comparés… Ces composantes sur lesquelles sont décomposés les objets de préférences doivent donc être judicieusement choisies, ce qui peut être foncièrement délicat pour certains objets tels que les morceaux de musique.

Construction d’une fonction d’évaluation

Une fois les composantes identifiées, il faut procéder à l’apprentissage des goûts de l’utilisateur, ce qui se concrétise sous la forme d’une fonction d’évaluation qui associe à chaque objet une valeur. Il s’agit de reconstruire une fonction à partir d’échantillons. Les ingénieurs en télécom retrouvent là une problématique de traitement du signal et les chercheurs en Intelligence Artificielle un problème d’apprentissage.

Imaginons qu’une voiture s’évalue selon trois critères (x,y,z), il s’agit de construire la fonction f(x,y,z) telle que, si un modèle A (xa, ya, za) est préféré à un modèle B (xb, yb, zb), alors f(xa, ya, za) > f(xb, yb, zb). La construction de cette fonction est d’autant plus difficile qu’elle est complexe.

Dans la foulée des économistes utilitaristes on aurait tendance à souhaiter que cette fonction soit additivement séparable c’est à dire qu’elle puisse s’exprimer sous la forme f(x, y, z) = u(x) + v(y) + w(z). Cette séparabilité se heurte cependant à la possibilité de préférences conjointes : dans le choix d’un salon, la couleur du canapé et la couleur des murs de la pièce sont certainement deux critères de choix, mais je ne peux pas attribuer une valeur à chacun de ces deux critères indépendamment l’un de l’autre. L’évaluation du salon disposera plutôt d’une partie « harmonie des couleurs » dont la valeur dépendra des couleurs des différents éléments du salon. Il existe bien d’autres problèmes à la construction d’une fonction arithmétique modélisant, mon but n’est cependant pas d’en faire une critique exhaustive mais simplement d’en montrer les limites… Les lecteurs intéressés se référeront à la théorie de la modélisation des préférences.

Application de la fonction d’évaluation

Admettant qu’une telle fonction a pu être construite, il est possible de l’appliquer à des objets qui n’ont pas été déjà évalués par l’utilisateur. L’application de cette fonction à un grand nombre d’objets permet de définir ceux qui sont les plus susceptibles de correspondre à ses goûts, et par la suite de les lui suggérer.

    1. J’ai découvert par Read Write Web le service Brighter Planet qui propose à chacun de mesurer son empreinte écologique et de la diminuer. Ce souci environnemental est de plus en plus présent, et le poids de ce critère dans les choix de consommation appelle au développement de ce service. La proposition de valeur de Hestia prenait en compte cet aspect. A ce sujet j’ai aussi découvert la plateforme de pré-commande du groupe Franprix, qui s’appelle Coursengo. Je pense que le design d’interaction pourrait être mieux pensé mais les possibilités offertes sont intéressantes.

    2. Mashable rapporte l’introduction sur AIM d’une fonctionnalité destinée selon moi à connaitre un échec dans la pratique actuelle de l’IM : la possibilité pour votre correspondant de voir le texte que vous écrivez au fur et à mesure que vous l’écrivez. Cette option change tout simplement la nature du service proposé, de la même manière que communiquer par répondeur interposé est différent de parler en direct. Cette modification du synchronisme de la communication (dont il avait été question dans un article précédent) doit s’accompagner de pratiques nouvelles. Comme le remarquait ce billet, les différents modes de communication sont amenés à être employé au sin d’une stratégie de communication, où chaque personne choisit quelle quantité de meta-données il souhaite fournir à son interlocuteur.

    3. A la suite des articles précédents sur l’utilisation des données transactionnelles il est frappant de constater les nombreux mouvements autour de la collecte de ces données de l’attention, alors que les modes de monétisation ne sont pas encore clairement définis. Dernièrement NewsGator a rendu ses lecteurs RSS gratuit en espérant qu’un maximum d’utilisateurs les adopterait, et ceci afin de récupérer leur données attentionnelles. Comment vont-ils ensuite récupérer leur investissement ? Des services offre déjà l’export des données APML mais à titre gratuit…

    Le poste précédent introduit la relation entre données transactionnelles et données de l’attention. Ces données sont utilisées pour fournir des recommandations/suggestions aux utilisateurs.

    Recommandation

    Ces suggestions sont formulées sur la base d’une caractérisation des goûts/préférences de l’utilisateur. Cette caractérisation peut se faire de deux manières :

    Caractérisation communautaire : cette caractérisation consiste à comparer les données transactionnelles entre utilisateurs d’un service. La suggestion peut alors prendre plusieurs formes : indiquer à l’utilisateur après une transaction particulière quelles sont les transactions réalisées par les autres utilisateurs (« Les utilisateurs ayant consulté la page de ce produit ont aussi consulté… »). Il est aussi possible d’établir une mesure d’affinité entre utilisateurs (par exemple en calculant le nombre de transaction en commun qu’ont deux utilisateurs) puis de leur proposer des transactions que les utilisateurs qui leur sont proches ont réalisées. Ce type de caractérisation ne se soucie pas des véritables goûts de l’utilisateur, et ne cherche pas à les reconstruire.

    Caractérisation par composante : ce type de caractérisation est beaucoup plus ambitieuse. Elle cherche à modéliser les goûts de chaque utilisateur. Cette modélisation se fait en identifiant des composantes selon lesquelles les transactions sont décomposables. Par exemple le service Pandora caractérise chaque titre musical selon des composantes telles que « electro acoustic sonority », « rythmic intro »,… L’analyse des transactions passées permet la construction d’une fonction d’évaluation, qui, appliquée à des transactions potentielles, permet de déterminer celles qui devraient convenir aux goûts de l’utilisateur. Pour les familiers d’intelligence artificielle, il s’agit d’une problématique d’apprentissage… La caractérisation par composante ne s’intéresse donc qu’aux données relatives à un utilisateur particulier et ne compare pas les utilisateurs entre eux.

    Page suivante »