Monde des données


Dernier billet sur les relations entre la philosophie de Berkeley et l’actualité digitale. Berkeley fait la distinction entre « concept général » et « terme général ». Dans sa sémiotique, le signe « arbre » peut être compris comme un concept, par la relation qu’il entretient avec d’autres concepts. Il soutient cependant qu’il n’est pas nécessaire d’être capable de concevoir ce qu’est un arbre (si tant est que cela soit possible) pour pouvoir en utiliser le signe. C’est-à-dire qu’il est possible sans disposer du concept d’arbre d’en reconnaitre un ou d’en parler. L’arbre est alors un terme général : il regroupe un ensemble de perceptions décrites par ce signe, c’est-à-dire les images mentales associées à ce signe. Il est alors possible par analogie de reconnaitre d’autres arbres. Ces « mémoires » réunies sous le même terme d’arbre seront différentes d’un individu à un autre mais cela ne les empêchera pas de communiquer autour de ce terme. En l’absence d’un concept partagé ils risquent cependant de ne pas pouvoir s’accorder sur ce qu’ils placent exactement derrière.

L’entreprise du web sémantique se place clairement du point de vue du « concept général ». Il s’agit (comme pour la science en général) de construire des modèles permettant de « décrire la réalité ». Il ne s’agit pas de remettre en cause l’utilité d’une telle approche mais il faut en garder les dangers à l’esprit. Un modèle distille une version de la réalité. L’histoire des sciences montre que des modèles ont pu entrer en conflit, certains en supplanter d’autres, etc…

Cependant un phénomène qui peut exister dans le domaine des sciences mais à une magnitude bien moindre que dans le monde des affaires est « l’effet de réseau » d’un modèle. L’effet de réseau dans ce cas peut s’énoncer de la façon suivante : si mon voisin se met à utiliser le même modèle que moi alors la valeur que je tire de ce modèle augmente.

Cet effet de réseau a de fortes chances d’être important à l’heure de la conception des outils du web sémantique : les développeurs iront vers les vocabulaires les plus répandus, ceux qui leur permettront de maximiser le territoire sur lequel seront utilisables leurs outils. Alors, bien sûr, rien n’empêchera qui que ce soit de créer son propre modèle, mais dans les faits on risque d’assister à une convergence sur un petit nombre qui assureront une interopérabilité maximum.

Alors quel rapport avec Berkeley ? Il est dans le rapport entre concept et terme général. L’usage d’un langage se fait par aller-retour entre concepts et termes généraux. Que se passe-t-il alors lorsqu’il y a inconsistance entre un terme général et le concept associé ?

En effet, on peut raisonnablement imaginer que parmi les modèles sémantiques dominants à terme, bon nombre seront d’origine anglo-saxonne (et/ou peut-être chinoise). L’utilisation de ces schémas pourra-t-elle préfigurer d’un alignement des schémas conceptuels et par suite des usages linguistiques dans leur ensemble sur la langue anglaise ? Ou saurons-nous les faire coexister avec nos propres modèles conceptuels et termes généraux ?

Publicité

Second post de la série consacrée aux liens entre la philosophie de Berkeley et les mondes digitaux. Le point de départ en est la seconde partie du principe de Berkeley :

Exister c’est percevoir.

Peut-on alors dire que Percevoir plus, c’est exister plus ? La réalité augmentée permet d’établir des ponts entre l’univers réel et un/des univers digitaux, mais pour répondre à cette question il faut se demander :

  • La réalité augmentée permet-elle de percevoir plus ou seulement de percevoir différemment ? Peut-elle devenir une sorte de 6e sens qui nous donne accès à l’information ambiante ?
  • Peut établir une telle relation ? Berkeley ne pose pas de rapport d’intensité entre percevoir et exister. Une autre manière d’aborder la question est de se demander si Percevoir moins c’est exister moins

Qu’en pensez-vous ?

Un post de Josh Catone, sur le blog Read Write Web, me ramène à une idée que j’ai exposée voici quelques mois sur l’exploitation des données d’achat nous concernant que possèdent les chaines de grandes distribution et qui pourraient être le support de nouveaux services. Dans ce post Josh Catone demande : A quand la portabilité de nos données « physiques » à la manière de ce qui se passe pour les données digitales (mini-feed d’activité et autres…) ? Cette réflexion que j’avais menée s’était conclue sur le constat qu’il n’y aura pas d’exploitation possible des données de l’attention physiques tant qu’elles ne seront pas mises à disposition des utilisateurs des services qui en sont à l’origine.

Cela me ramène aussi à ce post sur l’identité comme une combinaison de marqueurs et de traces (pas nécessairement digitales). Ce qu’illustre le propos de Josh Catone est la demande d’une digitalisation toujours plus grande de nos traces. J’y avais par ailleurs exprimé la crainte d’un Wikipedia des personnes renseigné par des « collaborateurs » zélés. Ce type de site existe maintenant dans une perspective professionnelle : il s’agit de Jigsaw. On imagine bien qu’il est plus facile de construire un Business Plan sur la divulgation de données professionnelles que de données personnelles, mais la tendance est bien là…

  • J’ai repris une activité professionnelle et j’ai des projets en cours, et l’alimentation du blog s’en ressent déjà. J’avais prévu un post sur le web sémantique, il est repoussé à une date indéterminée. En attendant je poste une très bonne vidéo pointée par le blog Nodalities (qui offre pas mal de ressources sur le sujet) :

  • J’étais hier à la réunion des Entreprenautes Associés. Beaucoup de rencontres. De la matière pour la reflexion dans les jours à venir.

  • Et pour finir, un exemple de détournement, ou comment l’appareil photo d’un téléphone portable peut procurer l’internet mobile. J’ai un ami qui prend des photos des pages internet qu’il veut pouvoir consulter hors de chez lui (plans, itinéraires, ou autres…) J’ai essayé mais la résolution de mes photos semble trop faible pour l’autoriser. Il n’est probablement pas le seul à avoir recours à ce type de ruse, mais je la trouve amusante à l’heure où l’on nous parle tant d’internet mobile mais dont les performances restent si médiocres…

Dans le billet précédent il fut question de modélisation des préférences. Il s’agit, à partir de manifestations, d’induire une construction (le modèle) à partir de laquelle il soit possible de procéder à des déductions. Ce modèle doit permettre d’expliquer les manifestations à partir desquelles il a été construit, mais aussi d’élaborer des conclusions supplémentaires. Un modèle de mes goûts musicaux doit par exemple permettre de déterminer les morceaux qui me plairaient. Parmi ceux-ci on trouverait ceux qui ont servi à construire le modèle et pleins d’autres que je ne connais pas, mais que le modèle aurait analysés comme concordant avec mes goûts.

Un autre exemple de modèle auquel je vais être amené à m’intéresser sous peu est celui du web sémantique : le web sémantique est fondé sur la modélisation des relations entre des objets/concepts. La construction d’un modèle ne va pas sans certaines assomptions contestables. Dans ce post je questionne le bien-fondé de la première des hypothèses faite avant de procéder à une telle construction : l’existence du système sous-jacent qu’il s’agit de modéliser. Le système que l’on modélise existe-t-il ?

Que modélise-t-on ?

Prenons tout d’abord le cas des préférences. Les traditions économiques de l’utilitarisme et de l’homo oeconomicus s’appuient sur la rationalité de l’agent et sa capacité à exprimer ses préférences pour motiver son choix. Au simplisme de ces hypothèses certains ont opposé des principes de modélisation plus réalistes : rationalité limitée, critère de satisfaction, systèmes multi-critères… L’introduction de complexités supplémentaires ne remet cependant pas en cause l’idée qu’une modélisation est possible. Cependant des expériences de psychologie cognitive et de neurosciences permettent de douter de l’existence d’un corpus de préférences bien formées et stables en chacun de nous.

Un exemple classique en est l’influence de la couleur d’un liquide sur le goût perçu. Un second en est l’amorçage, qui consiste à activer un état mental particulier à l’aide d’un stimulus : si lors d’un diner l’un de vos amis vous affirme que le plat qui vous est servi est affreusement mauvais vous êtes moins susceptible de l’apprécier que si votre ami vous avait dit le contraire. Enfin, nous ne disposons pas de préférences a priori : c’est la formulation d’une préférence qui la fait exister.

Intéressons nous maintenant au web sémantique. L’existence d’une structure sous-jacente qu’il s’agit de modéliser suppose que le langage est un, c’est-à-dire qu’il existe des relations précises, solides, non ambiguës entre les termes qui le constituent. Proust associait le goût de la madeleine à certaines idées/mémoires/images. Ces associations ne sont pas celles que moi je fais. Le langage fait l’objet d’une appropriation personnelle et lorsqu’on cherche à faire en émerger une structure unique et commune à tous, il s’agit avant tout de réaliser une intersection/une moyenne des compréhensions de chacun. Une moyenne de subjectivité n’aboutit cependant pas à une objectivité.

Risques des modélisations

On modélise des systèmes qui n’ont pas d’existence véritable… Et alors ? Demanderont certains. Tant que cela a des applications. Certaines simplifications sont nécessaires et l’erreur commise peut être profitable. Certes. Je ne suis pas un anti-modélisation. Il me semble cependant important de remarquer deux dangers insinueux liés aux modélisations :

  • Les modélisations sont normatives : elles nous permettent d’accéder à « la » réalité. Un dictionnaire est déjà une modélisation, mais il conserve la souplesse du langage, de sa polysémie, de ses contradictions. Les modélisations compréhensibles par les machines n’accordent pas ce luxe. Et dès lors qu’elles sont le support de services avec lesquels nous interagissons, elles deviennent en quelque sorte auto-réalisatrices. De la même manière qu’une autoroute est structurante pour un territoire : qu’on en construise une au milieu de nulle part et son existence justifiera à rebours sa construction par le pouvoir d’attraction qu’elle peut exercer sur les activités humaines.

  • Ce qui n’est pas modélisé n’existe pas : l’inversion logique entre réalité et modélisation fait que ce qui n’est pas modélisé n’existe pas. Ce problème a déjà été pointé dans le domaine de l’économétrie : la pollution n’était, récemment encore, pas une priorité et n’entrait dans aucun indicateur. Statistiquement elle n’était pas représentée, donc politiquement elle n’était pas argumentable.

Dans la même logique, Hubert Guillaud rapportait récemment l’activité scientifique atour du décryptage de l’influence culturel du code (qu’il soit génétique, algorithmique,…)

Il me parait intéressant de revenir un peu plus en détail sur la mécanique de la caractérisation par composante dont il a été question dans un post précédent. Il existe de nombreuses méthodes d’expression des préférences mais je n’en présente ici qu’une, la plus simple me semble-t-il.

Cette caractérisation des préférence par décomposition part du principe que tous les objets pouvant faire l’objet d’une appréciation peuvent se voir attribuer une « valeur ». Tous les objets sont donc comparables entre eux et la préférence de l’un sur l’autre dépend de la comparaison de leurs valeurs respectives. La caractérisation par composante comporte 3 étapes : l’identification des composantes pertinentes, la construction de la fonction d’évaluation, et l’application de cette fonction aux objets à évaluer.

Identification des composantes pertinentes

En anglais feature extraction. Il s’agit d’établir la liste des critères sur lesquels se fondent la préférence. Pour une voiture ce sera par exemple la couleur, la cylindrée, le nombre de places assises,… Il est important que ces critères soient indépendant : si je compare des sphères (pourquoi pas ?) et que je retiens le rayon, le diamètre, la surface et le volume de la sphère comme critères, je n’aurai qu’exprimé 4 fois un seul et même critère (les trois derniers sont fonction du rayon). Au moment de la construction de la fonction d’évaluation cela peut avoir son importance : certains critères peuvent alors être surreprésentés… Inversement il est nécessaire de prendre en compte un maximum de critères significatifs. Imaginons que j’oublie de prendre la couleur d’une voiture comme critère, j’aurais du mal à expliquer les préférences d’un homme qui préfère systématiquement les voitures rouges aux autres quels que soient les modèles comparés… Ces composantes sur lesquelles sont décomposés les objets de préférences doivent donc être judicieusement choisies, ce qui peut être foncièrement délicat pour certains objets tels que les morceaux de musique.

Construction d’une fonction d’évaluation

Une fois les composantes identifiées, il faut procéder à l’apprentissage des goûts de l’utilisateur, ce qui se concrétise sous la forme d’une fonction d’évaluation qui associe à chaque objet une valeur. Il s’agit de reconstruire une fonction à partir d’échantillons. Les ingénieurs en télécom retrouvent là une problématique de traitement du signal et les chercheurs en Intelligence Artificielle un problème d’apprentissage.

Imaginons qu’une voiture s’évalue selon trois critères (x,y,z), il s’agit de construire la fonction f(x,y,z) telle que, si un modèle A (xa, ya, za) est préféré à un modèle B (xb, yb, zb), alors f(xa, ya, za) > f(xb, yb, zb). La construction de cette fonction est d’autant plus difficile qu’elle est complexe.

Dans la foulée des économistes utilitaristes on aurait tendance à souhaiter que cette fonction soit additivement séparable c’est à dire qu’elle puisse s’exprimer sous la forme f(x, y, z) = u(x) + v(y) + w(z). Cette séparabilité se heurte cependant à la possibilité de préférences conjointes : dans le choix d’un salon, la couleur du canapé et la couleur des murs de la pièce sont certainement deux critères de choix, mais je ne peux pas attribuer une valeur à chacun de ces deux critères indépendamment l’un de l’autre. L’évaluation du salon disposera plutôt d’une partie « harmonie des couleurs » dont la valeur dépendra des couleurs des différents éléments du salon. Il existe bien d’autres problèmes à la construction d’une fonction arithmétique modélisant, mon but n’est cependant pas d’en faire une critique exhaustive mais simplement d’en montrer les limites… Les lecteurs intéressés se référeront à la théorie de la modélisation des préférences.

Application de la fonction d’évaluation

Admettant qu’une telle fonction a pu être construite, il est possible de l’appliquer à des objets qui n’ont pas été déjà évalués par l’utilisateur. L’application de cette fonction à un grand nombre d’objets permet de définir ceux qui sont les plus susceptibles de correspondre à ses goûts, et par la suite de les lui suggérer.

    1. J’ai découvert par Read Write Web le service Brighter Planet qui propose à chacun de mesurer son empreinte écologique et de la diminuer. Ce souci environnemental est de plus en plus présent, et le poids de ce critère dans les choix de consommation appelle au développement de ce service. La proposition de valeur de Hestia prenait en compte cet aspect. A ce sujet j’ai aussi découvert la plateforme de pré-commande du groupe Franprix, qui s’appelle Coursengo. Je pense que le design d’interaction pourrait être mieux pensé mais les possibilités offertes sont intéressantes.

    2. Mashable rapporte l’introduction sur AIM d’une fonctionnalité destinée selon moi à connaitre un échec dans la pratique actuelle de l’IM : la possibilité pour votre correspondant de voir le texte que vous écrivez au fur et à mesure que vous l’écrivez. Cette option change tout simplement la nature du service proposé, de la même manière que communiquer par répondeur interposé est différent de parler en direct. Cette modification du synchronisme de la communication (dont il avait été question dans un article précédent) doit s’accompagner de pratiques nouvelles. Comme le remarquait ce billet, les différents modes de communication sont amenés à être employé au sin d’une stratégie de communication, où chaque personne choisit quelle quantité de meta-données il souhaite fournir à son interlocuteur.

    3. A la suite des articles précédents sur l’utilisation des données transactionnelles il est frappant de constater les nombreux mouvements autour de la collecte de ces données de l’attention, alors que les modes de monétisation ne sont pas encore clairement définis. Dernièrement NewsGator a rendu ses lecteurs RSS gratuit en espérant qu’un maximum d’utilisateurs les adopterait, et ceci afin de récupérer leur données attentionnelles. Comment vont-ils ensuite récupérer leur investissement ? Des services offre déjà l’export des données APML mais à titre gratuit…

    Le poste précédent introduit la relation entre données transactionnelles et données de l’attention. Ces données sont utilisées pour fournir des recommandations/suggestions aux utilisateurs.

    Recommandation

    Ces suggestions sont formulées sur la base d’une caractérisation des goûts/préférences de l’utilisateur. Cette caractérisation peut se faire de deux manières :

    Caractérisation communautaire : cette caractérisation consiste à comparer les données transactionnelles entre utilisateurs d’un service. La suggestion peut alors prendre plusieurs formes : indiquer à l’utilisateur après une transaction particulière quelles sont les transactions réalisées par les autres utilisateurs (« Les utilisateurs ayant consulté la page de ce produit ont aussi consulté… »). Il est aussi possible d’établir une mesure d’affinité entre utilisateurs (par exemple en calculant le nombre de transaction en commun qu’ont deux utilisateurs) puis de leur proposer des transactions que les utilisateurs qui leur sont proches ont réalisées. Ce type de caractérisation ne se soucie pas des véritables goûts de l’utilisateur, et ne cherche pas à les reconstruire.

    Caractérisation par composante : ce type de caractérisation est beaucoup plus ambitieuse. Elle cherche à modéliser les goûts de chaque utilisateur. Cette modélisation se fait en identifiant des composantes selon lesquelles les transactions sont décomposables. Par exemple le service Pandora caractérise chaque titre musical selon des composantes telles que « electro acoustic sonority », « rythmic intro »,… L’analyse des transactions passées permet la construction d’une fonction d’évaluation, qui, appliquée à des transactions potentielles, permet de déterminer celles qui devraient convenir aux goûts de l’utilisateur. Pour les familiers d’intelligence artificielle, il s’agit d’une problématique d’apprentissage… La caractérisation par composante ne s’intéresse donc qu’aux données relatives à un utilisateur particulier et ne compare pas les utilisateurs entre eux.

    Un schéma tout bête pour faire apparaitre l’orthogonalité des notions de CRM et de VRM :

    Les fournisseurs de services sont compris au sens large : fournisseurs d’un service de commerce (électronique ou pas), fournisseurs d’informations,… de telles sortes que les données transactionnelles sont seulement en partie des données relatives à des transactions commerciales : la consultation du prix d’un produit est une transaction, la discussion avec un commercial est une transaction, la lecture du journal est une transaction…

    VRMvsCRM

    L’approche CRM est donc pour les fournisseurs d’identifier les transactions qui leur permettent de retenir leur clientèle. L’approche VRM est pour les consommateurs de gérer leurs transactions de manière centralisée. Le VRM n’a de sens que si le marché considéré dispose d’une forte fluidité : lorsqu’il existe des barrières fortes au changement de fournisseurs, il est toujours possible de réaliser des comparaisons avec les concurrents mais sans disposer pour autant de leviers d’actions. Deux bons exemples de VRM sont pour moi :

    1. La société Mint qui permet de comparer et de changer de fournisseur de crédit rapidement et facilement.
    2. L’Open Access Model de Labs2 qui offre de la FTTH en Suède. Il est possible de changer d’ISP en quelques clics, de prendre et de résilier ses options avec prise en compte immédiate,… La vidéo de présentation de Jean-Michel Billaut
      vaut vraiment le détour.

    On peut noter par ailleurs que ce sont ces données transactionnelles qu’on appelle données de l’attention, et qui font l’objet d’une description par le langage APML, dont il est tant question dernièrement et qui sont l’objet du post suivant.

    1. Je vais m’atteler à décrire de manière assez grossière ce que représente le web semantique et autre web structuré (structured web). Je tiens cependant à souligner que la conception du web et de son futur, qui doit beaucoup à Tim Berners-Lee, n’est pas la seule et unique. L’opposition frontale des croyants et sceptiques nous est résumé de manière romancée par Duncan Hull dans Burn, Semantic Web, Burn! Je partage personnellement en grande partie les vues des sceptiques, et j’essaierai de donner une lecture critique de l’article The Semantic Web, Syllogism, and Worldview de Clay Shirky, que je vous conseille très vivement (il est accessible, il ne fait pas usage de vocable technique).

    2. Small Surfaces rapporte la sortie du Motorola Rokr équipé d’un écran tactile à retour haptique (grâce à de multiples vibreurs placé sous l’écran). Un post consacré aux modalités d’interaction avait souligné l’importance du feedback. L’absence de feedback tactile sur les écrans tactile présente un coût important en terme d’utilisation. L’introduction du feedback haptique est donc une avancée importante pour l’adoption large des écrans tactiles mais j’ai deux réserves à émettre:

      • J’ai un Razr depuis 7 moi, l’écran est entrain de rendre l’âme. L’augmentation de la complexité des écrans risque de réduire encore la durée de vie. Les constructeurs ont-ils intégré le principe de graceful degradation : comment un utilisateur va-t-il réagir si le feeback du Rokr est inconsistent (si par exemple certains vibreurs sont morts mais pas tous) ? Ne faudrait-il pas avoir la possibilité de couper le feedback tactile ?
      • Feedback n’est pas affichage : le Rokr implémente un feedback (on sait quand une action a été performée) mais pas un affichage tactile. La surface de l’écran est lisse lorsque je passe mon doigt dessus. L’affichage tactile permet de distinguer les bords des éléments d’interaction. Dans les téléphones à clavier cet affichage est passif, ce sont les reliefs des boutons qui permettent de déterminer les limites entre les boutons. Cet affichage tactile est indispensable à un usage aveugle ou semi-aveugle. Il est important dans la diminution de la charge cognitive.

    3. Textually présente une carte de visite qui compose automatiquement le numéro de téléphone de la personne qui l’a émise. C’est un exemple intéressant de réduction du coût d’initiation d’une communication.