Un post de Josh Catone, sur le blog Read Write Web, me ramène à une idée que j’ai exposée voici quelques mois sur l’exploitation des données d’achat nous concernant que possèdent les chaines de grandes distribution et qui pourraient être le support de nouveaux services. Dans ce post Josh Catone demande : A quand la portabilité de nos données « physiques » à la manière de ce qui se passe pour les données digitales (mini-feed d’activité et autres…) ? Cette réflexion que j’avais menée s’était conclue sur le constat qu’il n’y aura pas d’exploitation possible des données de l’attention physiques tant qu’elles ne seront pas mises à disposition des utilisateurs des services qui en sont à l’origine.

Cela me ramène aussi à ce post sur l’identité comme une combinaison de marqueurs et de traces (pas nécessairement digitales). Ce qu’illustre le propos de Josh Catone est la demande d’une digitalisation toujours plus grande de nos traces. J’y avais par ailleurs exprimé la crainte d’un Wikipedia des personnes renseigné par des « collaborateurs » zélés. Ce type de site existe maintenant dans une perspective professionnelle : il s’agit de Jigsaw. On imagine bien qu’il est plus facile de construire un Business Plan sur la divulgation de données professionnelles que de données personnelles, mais la tendance est bien là…

Je continue dans la chaine d’idée pas très structurée (ToT en anglais, et chadie pour un néologisme francophone de mon cru).

Dans un précédent billet j’ai introduit une définition de l’identité autour de deux concepts de marqueur et de trace. Pour comparer l’identité à une chaussure, on pourrait dire que les marqueurs sont l’équivalent du dessin de la semelle et les traces l’ensemble des empreintes laissées par cette semelle. Des exemples de marqueurs sont : le nom, l’adresse, les pseudos, l’image physique, l’ADN,… Les traces sont les instances des marqueurs, disséminées dans notre environnement : mon nom sur ma boite aux lettres, mon numéro de téléphone dans l’annuaire, des photos de moi dans un album papier ou sur Facebook,… La numérisation des traces et leur cherchabilité croissante permet de connecter les marqueurs entre eux : une photo de moi permet de connaitre mon nom, adresse, etc… Un premier exemple en est le Grand Prix Spock, et un second l’API Google Social Graph (voir vidéo ci-dessous) : il est possible de localiser un contact dans l’espace Twitter grâce aux traces digitales.

Ce billet posait ainsi la question de l’impact de cette tendance sur la protection des données personnelles. L’objet de ce nouveau post est de définir l’identité non par ce qu’elle est, mais par ce à quoi elle sert.

Quels usages pour l’identité ?

L’identité a une utilité pour moi et une pour les autres. Elle me permet d’une part de dire qui je suis, et elle permet d’autre part aux autres de savoir qui je suis.

Nous disposons d’un côté de marqueurs, a priori non liés entre eux, et d’un autre de traces. Pour moi, dire qui je suis consiste à prouver que je suis l’auteur des traces qui sont les miennes. Pour les autres, savoir qui je suis consiste à découvrir quelles sont les traces qui sont les miennes. On rejoint ici les « laws of identity » exposée sur le blog de Kim Cameron qui définissent l’identité digitale de la manière suivante :

set of claims made by one digital subject about itself or another digital subject

Si nous traduisons claims par affirmations, on peut dire qu’il est aisé de formuler des affirmations comme « Je suis… » ou « Il est … » Ces affirmations peuvent avoir un but uniquement incantatoire, mais en général elles fondent les systèmes d’authentification : il faut persuader un « gardien du temple » de son identité pour accéder à des droits, privilèges,… Il y a authentification dès lors que le gardien a confiance dans les affirmations formulées. Cette confiance peut nécessiter l’apport de preuves, ou pas : lorsque je vais en boîte de nuit je n’ai pas besoin de montrer ma carte d’identité, ce qui n’était pas le cas lorsque j’avais 18 ans.

Qu’est-ce qu’une preuve ?

Nous réclamons une trace comme étant notre en nous basant sur le fait que cette trace est l’instanciation d’un de nos marqueurs. La force de persuasion de cette association entre un marqueur ou sa trace et un persona dépend de l’idiosyncrasie de cette association. Ainsi l’empreinte digitale ou l’empreinte génétique sont des marqueurs dont l’association avec leur propriétaire ne souffre pas l’ambiguïté (je devrais dire presqu’aucune ambiguïté). Au contraire le prénom est faiblement idiosyncrasique : nous avons tous de nombreux homonymes.

Des marqueurs faiblement idiosyncrasique ne permettent pas une authentification forte. Ils peuvent cependant être appuyés par ce moyen dont il a été question plus haut : l’interconnexion des marqueurs. Si un agent de police me demande mon identité je vais lui donner mon nom et mon prénom, voire mon adresse. S’il est soupçonneux (à tort ou à raison) il me demandera ma carte d’identité. Sur cette carte figurent bien ces deux marqueurs (nom et adresse), auxquelles est associé un troisième : mon visage, qui permet à l’agent d’établir en vérifiant que je ressemble à la photo que le nom et le prénom inscrits sont bien les miens.

Le rattachement de marqueurs faiblement idiosyncrasiques à des marqueurs qui le sont plus fortement permet d’attacher les premiers au persona dont les seconds sont caractéristiques. On instaure ainsi une forme de transitivité : ma carte d’identité me permet de prouver que je suis bien le titulaire de la facture de téléphone qui me permet de prouver ma domiciliation et par suite de m’ouvrir les droits associés à cette domiciliation.

La connexion entre deux marqueurs peut être établie de deux manières. La première est de faire appel à tierce partie de confiance. C’est ce dont il s’agit dans le cas de la carte d’identité. On en vient au passage à conclure que la qualité d’une preuve tient avant tout à la confiance qu’on lui accorde, confiance qui est tout à fait subjective. Probablement que j’accorderais une confiance plus faible à un passeport ukrainien qu’à un passeport suédois parce que, à tort ou à raison, j’aurais tendance à penser qu’il est plus facile d’acheter, du fait de la corruption, un vrai-faux passeport en Ukraine qu’en Suède.

La seconde manière d’associer deux marqueurs est d’établir une connexion entre leurs traces : si j’ai ma photo dans un journal avec une légende où figure mon nom, on peut légitimement associer ces deux traces de mon identité civile et de mon identité visuelle. En fait cette seconde forme de connexion est équivalente à ma première : fabriquer une carte d’identité ce n’est rien d’autre que l’association certifiée de traces des deux marqueurs que sont mon nom et mon image.

Cette question de la confiance aboutit aux réflexions actuelles sur la gestion de l’identité numérique d’une part et de lifestreaming d’autre part. Sans être antinomiques ces deux tendances entrent en conflit : la première consiste à poser des barrières autour du territoire numérique intime, alors que la seconde tend à gonfler et à rendre poreuse cette même sphère. C’est un des enjeux actuels auxquels s’attaquent des services/techno émergents que de concilier une surface de contact mieux protégées et un nombre multiplié de points d’échanges. Il s’agit en quelque sorte de construire des firewall de l’intimité numérique.

J’ai participé à un atelier de la FING il y a quelques semaines, et j’avais mentionné dans mon compte-rendu trois systèmes de gestion de l’identité : Cardspace, LibertyAlliance et OpenID. Un article de ZDNet remonté par Hubert Guillaud donne quelques éléments de compréhension supplémentaire sur ces trois systèmes.

Toujours dans le domaine des identités actives un très bonne article de Daniel Kaplan sur la mésinformation personnelle, ou comment lorsqu’on ne peut contrôler la diffusion et la visibilité de certaines données, il existe encore la possibilité de noyer la donnée « vraie » dans un flot de données « fausses ». Lorsqu’on ne peut contrôler la force du signal, il reste la possibilité de le noyer dans un bruit plus fort encore…

Par l’intermédiaire du flux del.icio.us d’InternetActu alimenté en grande partie par Hubert Guillaud, j’ai pris connaissance du projet Seadragon de Microsoft qui est une interface 2D basée sur le zooming ou, pour employer la terminologie introduite dans un billet précédent (« Spécificité des mondes contigus et continus : adresse et navigation« ), une interface qui fait usage d’une navigation météorique. J’aurais souhaité inclure la vidéo de présentation au TED mais leur lecteur ne semble pas bien s’importer, je vous donne donc le lien, n’hésitez pas à la consulter, la partie sur Seadragon est très courte : 2 minutes au début de la vidéo :

Vidéo de présentation de Seadragon

Des oiseaux de mauvaise augure ne manquent pas de poser les questions du type : et comment je fais pour retrouver une photo en particulier ? etc… J’ai confiance dans le développement de ce type de navigation car, je le disais dans un article sur différentes interfaces innovantes à propos je crois l’humain plus à même de lire une carte qu’un arbre (hiérarchique), et je crois dans le fonctionnement stygmergique (qui se concrétise dans ce cas par un déplacement naturel et continu par association d’idée, d’une idée générale à une idée particulière) qu’une telle interface rend plus accessible.

Après cette forme de navigation et d’organisation de l’information n’est pas amenée à remplacer toutes les autres. Elles sauront trouver une complémentarité. Encore une fois ce seront les pratiques qui en émergent qui seront les juges de paix.

  • J’ai repris une activité professionnelle et j’ai des projets en cours, et l’alimentation du blog s’en ressent déjà. J’avais prévu un post sur le web sémantique, il est repoussé à une date indéterminée. En attendant je poste une très bonne vidéo pointée par le blog Nodalities (qui offre pas mal de ressources sur le sujet) :

  • J’étais hier à la réunion des Entreprenautes Associés. Beaucoup de rencontres. De la matière pour la reflexion dans les jours à venir.

  • Et pour finir, un exemple de détournement, ou comment l’appareil photo d’un téléphone portable peut procurer l’internet mobile. J’ai un ami qui prend des photos des pages internet qu’il veut pouvoir consulter hors de chez lui (plans, itinéraires, ou autres…) J’ai essayé mais la résolution de mes photos semble trop faible pour l’autoriser. Il n’est probablement pas le seul à avoir recours à ce type de ruse, mais je la trouve amusante à l’heure où l’on nous parle tant d’internet mobile mais dont les performances restent si médiocres…

Espaces contigus et espace continus

Un espace contigu est un espace discret, et se représente par graphe/réseau.

Un espace contigu est discret, un espace continu dispose d’une étendue. L’humain évolue dans un espace continu. Tout ce qui est réel et physiquement (par opposition à conceptuellement) accessible à l’humain dispose d’une étendue.

Les mondes digitaux continus recréent un sentiment d’étendue en utilisant des briques (pixels) de taille suffisamment réduite pour dissimuler la nature discrète des espaces numériques.

Définition de l’adresse

La notion d’adresse est aisée à définir dans le cas d’un espace contigu de par son caractère discret : il suffit de numéroter (même arbitrairement) les noeuds du réseau.

Bien qu’on puisse penser que l’adresse postale est une adresse définie dans un espace continu, elle est en fait une adresse dans un espace contigu superposé à un espace continu (nesté aurai-je dit dans un post précédent).

Il est cependant prématuré de réduire une adresse « continue » à une adresse « contiguë » suite à une discrétisation d’un espace continu. La définition d’adresse donnée antérieurement est à revoir…

Différents types de navigation

La navigation est différente entre un espace contigu et un espace continu. La navigation dans un espace continu est une navigation différentielle (« Qui procède par différences infiniment petites », Trésor). La navigation dans un espace contigu peut elle être qualifiée de navigation proximale (de proche en proche) : on s’y déplace d’un noeud à l’un des noeuds voisins.

La superposition d’un espace contigu à un espace continu tend à déformer ce dernier : deux points éloignés peuvent se trouver être deux noeuds voisins de l’espace contigu. La possibilité de se déplacer le long de ce lien correspond à ce qu’on appelle la télétransportation. S’il s’agit seulement d’information, on retrouve la métaphore du « village-monde » popularisée avec l’émergence des réseaux de télécommunication.

Cette superposition replie le monde continu sur lui-même.

Les espaces continus admettent une autre forme de navigation que j’appelle navigation météorique (du grec « s’élever »). Elle consiste premièrement à s’écarter de l’objet de la navigation puis à s’en rapprocher après avoir choisi le point de destination. Un exemple en serait d’effectuer un zoom arrière sur une carte Mappy puis un recentrage et enfin un zoom avant.

Les contraintes physiques limitent l’utilisation d’une telle navigation dans le monde réel, mais les espaces digitaux s’y prêtent particulièrement bien. La lévitation dans les mondes 3D ou le zoom dans les interfaces 2D l’autorisent. Un billet sur quelques interfaces innovantes donnait l’exemple de l’interface Zumobi qui en fait usage. Je pense que le concept pourrait être poussé plus loin…

La navigation météorique peut être vue comme un intermédiaire entre navigation différentielle et navigation proximale : elle est essentiellement une navigation différentielle mais permet de se déplacer d’un point à un autre sans franchir l’espace qui les sépare.

Le type de navigation employée influe nécessairement sur la représentation que l’utilisateur se fait de l’espace dans lequel il évolue. Dans la lignée de l’analyse des représentations subjectives des notions d’espace et de site (traduction de place) que fait Paul Dourish, il serait intéressant d’analyser le rôle de la navigation dans ces représentations , ainsi que de celle du chemin.

Dans le billet précédent il fut question de modélisation des préférences. Il s’agit, à partir de manifestations, d’induire une construction (le modèle) à partir de laquelle il soit possible de procéder à des déductions. Ce modèle doit permettre d’expliquer les manifestations à partir desquelles il a été construit, mais aussi d’élaborer des conclusions supplémentaires. Un modèle de mes goûts musicaux doit par exemple permettre de déterminer les morceaux qui me plairaient. Parmi ceux-ci on trouverait ceux qui ont servi à construire le modèle et pleins d’autres que je ne connais pas, mais que le modèle aurait analysés comme concordant avec mes goûts.

Un autre exemple de modèle auquel je vais être amené à m’intéresser sous peu est celui du web sémantique : le web sémantique est fondé sur la modélisation des relations entre des objets/concepts. La construction d’un modèle ne va pas sans certaines assomptions contestables. Dans ce post je questionne le bien-fondé de la première des hypothèses faite avant de procéder à une telle construction : l’existence du système sous-jacent qu’il s’agit de modéliser. Le système que l’on modélise existe-t-il ?

Que modélise-t-on ?

Prenons tout d’abord le cas des préférences. Les traditions économiques de l’utilitarisme et de l’homo oeconomicus s’appuient sur la rationalité de l’agent et sa capacité à exprimer ses préférences pour motiver son choix. Au simplisme de ces hypothèses certains ont opposé des principes de modélisation plus réalistes : rationalité limitée, critère de satisfaction, systèmes multi-critères… L’introduction de complexités supplémentaires ne remet cependant pas en cause l’idée qu’une modélisation est possible. Cependant des expériences de psychologie cognitive et de neurosciences permettent de douter de l’existence d’un corpus de préférences bien formées et stables en chacun de nous.

Un exemple classique en est l’influence de la couleur d’un liquide sur le goût perçu. Un second en est l’amorçage, qui consiste à activer un état mental particulier à l’aide d’un stimulus : si lors d’un diner l’un de vos amis vous affirme que le plat qui vous est servi est affreusement mauvais vous êtes moins susceptible de l’apprécier que si votre ami vous avait dit le contraire. Enfin, nous ne disposons pas de préférences a priori : c’est la formulation d’une préférence qui la fait exister.

Intéressons nous maintenant au web sémantique. L’existence d’une structure sous-jacente qu’il s’agit de modéliser suppose que le langage est un, c’est-à-dire qu’il existe des relations précises, solides, non ambiguës entre les termes qui le constituent. Proust associait le goût de la madeleine à certaines idées/mémoires/images. Ces associations ne sont pas celles que moi je fais. Le langage fait l’objet d’une appropriation personnelle et lorsqu’on cherche à faire en émerger une structure unique et commune à tous, il s’agit avant tout de réaliser une intersection/une moyenne des compréhensions de chacun. Une moyenne de subjectivité n’aboutit cependant pas à une objectivité.

Risques des modélisations

On modélise des systèmes qui n’ont pas d’existence véritable… Et alors ? Demanderont certains. Tant que cela a des applications. Certaines simplifications sont nécessaires et l’erreur commise peut être profitable. Certes. Je ne suis pas un anti-modélisation. Il me semble cependant important de remarquer deux dangers insinueux liés aux modélisations :

  • Les modélisations sont normatives : elles nous permettent d’accéder à « la » réalité. Un dictionnaire est déjà une modélisation, mais il conserve la souplesse du langage, de sa polysémie, de ses contradictions. Les modélisations compréhensibles par les machines n’accordent pas ce luxe. Et dès lors qu’elles sont le support de services avec lesquels nous interagissons, elles deviennent en quelque sorte auto-réalisatrices. De la même manière qu’une autoroute est structurante pour un territoire : qu’on en construise une au milieu de nulle part et son existence justifiera à rebours sa construction par le pouvoir d’attraction qu’elle peut exercer sur les activités humaines.

  • Ce qui n’est pas modélisé n’existe pas : l’inversion logique entre réalité et modélisation fait que ce qui n’est pas modélisé n’existe pas. Ce problème a déjà été pointé dans le domaine de l’économétrie : la pollution n’était, récemment encore, pas une priorité et n’entrait dans aucun indicateur. Statistiquement elle n’était pas représentée, donc politiquement elle n’était pas argumentable.

Dans la même logique, Hubert Guillaud rapportait récemment l’activité scientifique atour du décryptage de l’influence culturel du code (qu’il soit génétique, algorithmique,…)

Il me parait intéressant de revenir un peu plus en détail sur la mécanique de la caractérisation par composante dont il a été question dans un post précédent. Il existe de nombreuses méthodes d’expression des préférences mais je n’en présente ici qu’une, la plus simple me semble-t-il.

Cette caractérisation des préférence par décomposition part du principe que tous les objets pouvant faire l’objet d’une appréciation peuvent se voir attribuer une « valeur ». Tous les objets sont donc comparables entre eux et la préférence de l’un sur l’autre dépend de la comparaison de leurs valeurs respectives. La caractérisation par composante comporte 3 étapes : l’identification des composantes pertinentes, la construction de la fonction d’évaluation, et l’application de cette fonction aux objets à évaluer.

Identification des composantes pertinentes

En anglais feature extraction. Il s’agit d’établir la liste des critères sur lesquels se fondent la préférence. Pour une voiture ce sera par exemple la couleur, la cylindrée, le nombre de places assises,… Il est important que ces critères soient indépendant : si je compare des sphères (pourquoi pas ?) et que je retiens le rayon, le diamètre, la surface et le volume de la sphère comme critères, je n’aurai qu’exprimé 4 fois un seul et même critère (les trois derniers sont fonction du rayon). Au moment de la construction de la fonction d’évaluation cela peut avoir son importance : certains critères peuvent alors être surreprésentés… Inversement il est nécessaire de prendre en compte un maximum de critères significatifs. Imaginons que j’oublie de prendre la couleur d’une voiture comme critère, j’aurais du mal à expliquer les préférences d’un homme qui préfère systématiquement les voitures rouges aux autres quels que soient les modèles comparés… Ces composantes sur lesquelles sont décomposés les objets de préférences doivent donc être judicieusement choisies, ce qui peut être foncièrement délicat pour certains objets tels que les morceaux de musique.

Construction d’une fonction d’évaluation

Une fois les composantes identifiées, il faut procéder à l’apprentissage des goûts de l’utilisateur, ce qui se concrétise sous la forme d’une fonction d’évaluation qui associe à chaque objet une valeur. Il s’agit de reconstruire une fonction à partir d’échantillons. Les ingénieurs en télécom retrouvent là une problématique de traitement du signal et les chercheurs en Intelligence Artificielle un problème d’apprentissage.

Imaginons qu’une voiture s’évalue selon trois critères (x,y,z), il s’agit de construire la fonction f(x,y,z) telle que, si un modèle A (xa, ya, za) est préféré à un modèle B (xb, yb, zb), alors f(xa, ya, za) > f(xb, yb, zb). La construction de cette fonction est d’autant plus difficile qu’elle est complexe.

Dans la foulée des économistes utilitaristes on aurait tendance à souhaiter que cette fonction soit additivement séparable c’est à dire qu’elle puisse s’exprimer sous la forme f(x, y, z) = u(x) + v(y) + w(z). Cette séparabilité se heurte cependant à la possibilité de préférences conjointes : dans le choix d’un salon, la couleur du canapé et la couleur des murs de la pièce sont certainement deux critères de choix, mais je ne peux pas attribuer une valeur à chacun de ces deux critères indépendamment l’un de l’autre. L’évaluation du salon disposera plutôt d’une partie « harmonie des couleurs » dont la valeur dépendra des couleurs des différents éléments du salon. Il existe bien d’autres problèmes à la construction d’une fonction arithmétique modélisant, mon but n’est cependant pas d’en faire une critique exhaustive mais simplement d’en montrer les limites… Les lecteurs intéressés se référeront à la théorie de la modélisation des préférences.

Application de la fonction d’évaluation

Admettant qu’une telle fonction a pu être construite, il est possible de l’appliquer à des objets qui n’ont pas été déjà évalués par l’utilisateur. L’application de cette fonction à un grand nombre d’objets permet de définir ceux qui sont les plus susceptibles de correspondre à ses goûts, et par la suite de les lui suggérer.

    1. J’ai découvert par Read Write Web le service Brighter Planet qui propose à chacun de mesurer son empreinte écologique et de la diminuer. Ce souci environnemental est de plus en plus présent, et le poids de ce critère dans les choix de consommation appelle au développement de ce service. La proposition de valeur de Hestia prenait en compte cet aspect. A ce sujet j’ai aussi découvert la plateforme de pré-commande du groupe Franprix, qui s’appelle Coursengo. Je pense que le design d’interaction pourrait être mieux pensé mais les possibilités offertes sont intéressantes.

    2. Mashable rapporte l’introduction sur AIM d’une fonctionnalité destinée selon moi à connaitre un échec dans la pratique actuelle de l’IM : la possibilité pour votre correspondant de voir le texte que vous écrivez au fur et à mesure que vous l’écrivez. Cette option change tout simplement la nature du service proposé, de la même manière que communiquer par répondeur interposé est différent de parler en direct. Cette modification du synchronisme de la communication (dont il avait été question dans un article précédent) doit s’accompagner de pratiques nouvelles. Comme le remarquait ce billet, les différents modes de communication sont amenés à être employé au sin d’une stratégie de communication, où chaque personne choisit quelle quantité de meta-données il souhaite fournir à son interlocuteur.

    3. A la suite des articles précédents sur l’utilisation des données transactionnelles il est frappant de constater les nombreux mouvements autour de la collecte de ces données de l’attention, alors que les modes de monétisation ne sont pas encore clairement définis. Dernièrement NewsGator a rendu ses lecteurs RSS gratuit en espérant qu’un maximum d’utilisateurs les adopterait, et ceci afin de récupérer leur données attentionnelles. Comment vont-ils ensuite récupérer leur investissement ? Des services offre déjà l’export des données APML mais à titre gratuit…

    Le poste précédent introduit la relation entre données transactionnelles et données de l’attention. Ces données sont utilisées pour fournir des recommandations/suggestions aux utilisateurs.

    Recommandation

    Ces suggestions sont formulées sur la base d’une caractérisation des goûts/préférences de l’utilisateur. Cette caractérisation peut se faire de deux manières :

    Caractérisation communautaire : cette caractérisation consiste à comparer les données transactionnelles entre utilisateurs d’un service. La suggestion peut alors prendre plusieurs formes : indiquer à l’utilisateur après une transaction particulière quelles sont les transactions réalisées par les autres utilisateurs (« Les utilisateurs ayant consulté la page de ce produit ont aussi consulté… »). Il est aussi possible d’établir une mesure d’affinité entre utilisateurs (par exemple en calculant le nombre de transaction en commun qu’ont deux utilisateurs) puis de leur proposer des transactions que les utilisateurs qui leur sont proches ont réalisées. Ce type de caractérisation ne se soucie pas des véritables goûts de l’utilisateur, et ne cherche pas à les reconstruire.

    Caractérisation par composante : ce type de caractérisation est beaucoup plus ambitieuse. Elle cherche à modéliser les goûts de chaque utilisateur. Cette modélisation se fait en identifiant des composantes selon lesquelles les transactions sont décomposables. Par exemple le service Pandora caractérise chaque titre musical selon des composantes telles que « electro acoustic sonority », « rythmic intro »,… L’analyse des transactions passées permet la construction d’une fonction d’évaluation, qui, appliquée à des transactions potentielles, permet de déterminer celles qui devraient convenir aux goûts de l’utilisateur. Pour les familiers d’intelligence artificielle, il s’agit d’une problématique d’apprentissage… La caractérisation par composante ne s’intéresse donc qu’aux données relatives à un utilisateur particulier et ne compare pas les utilisateurs entre eux.