La vision transhumaniste prévoit la possibilité dans un futur proche de télécharger son cerveau sur le réseau. Vision à la fois séduisante et effrayante mais qui n’est pas sans implications quant à la nature de l’intelligence ainsi transférée.

Commençons par voir le cerveau comme une boite noire qui prend des intrants et produits des extrants. Numériser le cerveau de manière fidèle consiste alors à pouvoir produire pour tout intrant le même extrant qui serait produit par le cerveau « réel ». Passons sur le fait qu’une telle preuve est impossible à établir, et intéressons nous à la manière de produire une version digitale du cerveau. Pour produire les mêmes extrants à partir d’intrants donnés il faut être capable de reproduire les règles du fonctionnement du cerveau. Les transhumanistes envisagent qu’avec les progrès de la science/médecine il soit possible d’extraire ces règles (qui seraient spécifiques à chaque individu) et de se libérer ainsi de la matérialité du cerveau.

Malgré les difficultés que cela représente, admettons. On réussirait donc à créer un modèle numérique du cerveau dont les réactions seraient strictement équivalentes à celui sur lequel il a été copié. Cela suffit-il à conclure à la réussite de l’entreprise ? Heureusement/Malheureusement loin de là !

En mathématique irait-on conclure que deux courbes ayant un point commun sont identique ? Non elles ont seulement un point commun. En génétique, deux phénotypes exactement identiques peuvent disposer de génotypes différents, du fait de ce qu’on appelle la neutralité. Par exemple certaines mutations génétiques sont dites neutres parce que plusieurs codons peuvent coder le même acide aminé. Seulement l’étude de la neutralité montre que deux génotypes ayant la même expression phénotypique à un temps T n’ont plus nécessairement la même expression à un temps T+n.

Dans notre cas notre disposons de deux représentations, l’une analogique l’autre digitale, s’exprimant de la même manière à un temps T. Expression que j’appellerai « intelligence ». Toute la question est de savoir si intelligence analogique et intelligence digitale disposent de la même dynamique. Et c’est bien là que la théorie transhumaniste risque le plus de se trouver prise en défaut. En effet les chercheurs en intelligence artificielle (particulièrement les chercheurs en programmation génétique) ont depuis plusieurs années compris qu’à une représentation particulière d’un problème correspond ce qu’ils appellent un landscape qui influence très fortement les probabilités d’évolution de leurs algorithmes dans une direction plutôt que dans une autre. Un changement de représentation modifie donc le landscape et les probabilités associées. Il en va de même pour le cerveau : un changement de représentation modifie les probabilités d’évolution de l’intelligence résultante dans un sens plutôt que dans un autre. C’est cette divergence liée à la représentation qui fait dire à Rucker et Wolfram que l’univers n’est pas simulable par autre chose que lui-même (voir à ce sujet l’article de Rémi Sussan).

Mais alors quel serait l’évolution d’une représentation digitale de notre cerveau ? Dans le meilleur (et probablement dans la plupart) des cas elle se dégraderait. La capacité de l’intelligence humaine à réaliser le lien entre le passé et le futur, à avoir conscience du corps qui l’abrite, en un mot sa capacité réflexive, est une chose. Maintenir cette capacité, la faire persister dans le temps, en est une tout autre. Nombreuses sont les maladies psychiatriques qui prouvent que l’équilibre sur lequel se tient l’intelligence est fragile.

La dégradation de l’intelligence digitale est donc très probable mais on peut tout aussi bien imaginer une évolution pathologique ou une évolution « méchante », i.e. nuisible à elle-même ou aux autres. La probabilité de cette dernière possibilité est probablement faible, mais en même temps si vous réunissez suffisamment de singes et leur faites assembler des lettres de scrabble pendant suffisamment longtemps, la possibilité de voir apparaitre une séquence de lettre correspondant au texte de la bible est égale à 1…

Dernier billet sur les relations entre la philosophie de Berkeley et l’actualité digitale. Berkeley fait la distinction entre « concept général » et « terme général ». Dans sa sémiotique, le signe « arbre » peut être compris comme un concept, par la relation qu’il entretient avec d’autres concepts. Il soutient cependant qu’il n’est pas nécessaire d’être capable de concevoir ce qu’est un arbre (si tant est que cela soit possible) pour pouvoir en utiliser le signe. C’est-à-dire qu’il est possible sans disposer du concept d’arbre d’en reconnaitre un ou d’en parler. L’arbre est alors un terme général : il regroupe un ensemble de perceptions décrites par ce signe, c’est-à-dire les images mentales associées à ce signe. Il est alors possible par analogie de reconnaitre d’autres arbres. Ces « mémoires » réunies sous le même terme d’arbre seront différentes d’un individu à un autre mais cela ne les empêchera pas de communiquer autour de ce terme. En l’absence d’un concept partagé ils risquent cependant de ne pas pouvoir s’accorder sur ce qu’ils placent exactement derrière.

L’entreprise du web sémantique se place clairement du point de vue du « concept général ». Il s’agit (comme pour la science en général) de construire des modèles permettant de « décrire la réalité ». Il ne s’agit pas de remettre en cause l’utilité d’une telle approche mais il faut en garder les dangers à l’esprit. Un modèle distille une version de la réalité. L’histoire des sciences montre que des modèles ont pu entrer en conflit, certains en supplanter d’autres, etc…

Cependant un phénomène qui peut exister dans le domaine des sciences mais à une magnitude bien moindre que dans le monde des affaires est « l’effet de réseau » d’un modèle. L’effet de réseau dans ce cas peut s’énoncer de la façon suivante : si mon voisin se met à utiliser le même modèle que moi alors la valeur que je tire de ce modèle augmente.

Cet effet de réseau a de fortes chances d’être important à l’heure de la conception des outils du web sémantique : les développeurs iront vers les vocabulaires les plus répandus, ceux qui leur permettront de maximiser le territoire sur lequel seront utilisables leurs outils. Alors, bien sûr, rien n’empêchera qui que ce soit de créer son propre modèle, mais dans les faits on risque d’assister à une convergence sur un petit nombre qui assureront une interopérabilité maximum.

Alors quel rapport avec Berkeley ? Il est dans le rapport entre concept et terme général. L’usage d’un langage se fait par aller-retour entre concepts et termes généraux. Que se passe-t-il alors lorsqu’il y a inconsistance entre un terme général et le concept associé ?

En effet, on peut raisonnablement imaginer que parmi les modèles sémantiques dominants à terme, bon nombre seront d’origine anglo-saxonne (et/ou peut-être chinoise). L’utilisation de ces schémas pourra-t-elle préfigurer d’un alignement des schémas conceptuels et par suite des usages linguistiques dans leur ensemble sur la langue anglaise ? Ou saurons-nous les faire coexister avec nos propres modèles conceptuels et termes généraux ?

Second post de la série consacrée aux liens entre la philosophie de Berkeley et les mondes digitaux. Le point de départ en est la seconde partie du principe de Berkeley :

Exister c’est percevoir.

Peut-on alors dire que Percevoir plus, c’est exister plus ? La réalité augmentée permet d’établir des ponts entre l’univers réel et un/des univers digitaux, mais pour répondre à cette question il faut se demander :

  • La réalité augmentée permet-elle de percevoir plus ou seulement de percevoir différemment ? Peut-elle devenir une sorte de 6e sens qui nous donne accès à l’information ambiante ?
  • Peut établir une telle relation ? Berkeley ne pose pas de rapport d’intensité entre percevoir et exister. Une autre manière d’aborder la question est de se demander si Percevoir moins c’est exister moins

Qu’en pensez-vous ?

L’idée de ce post m’est venue de la lecture de l’ouvrage d’André Scala sur Berkeley, qui m’avait par ailleurs inspiré une réponse à un twit d’Hubert Guillaud. Je trouve des parallèles intéressants entre la pensée de Berkeley et le fonctionnements des univers digitaux. Je vais essayer au cours de deux billets de les restituer, tout en priant les lecteurs avertis d’excuser les imprécisions qui pourraient résulter de ma faible culture philosophique.

Berkeley fonde sa philosophie sur un principe qui se décompose en deux parties. La première est la suivante :

Esse est percipi

Ce qui peut se traduire par Etre (au sens d’exister), c’est être perçu. La négation de cette équivalence revient à dire que ce qui n’est pas perçu n’existe pas. Ce qui a valu à Berkeley de nombreuses critiques ou sarcasmes de nombre de ses contemporains qui prirent des exemples du type : si je vois un arbre devant moi alors il existe, mais dès que je tourne la tête, il cesserait donc d’exister… L’absurdité apparente d’une telle assertion tient à la croyance d’un monde existant dans l’absolu, d’une essence des choses qui se manifeste au travers de leur apparence. Berkeley, lui, s’en tient au fait que seules existent les perceptions.

L’objet de ce post n’est pas de prendre parti dans cette opposition de conceptions mais d’illustrer comment le postulat de Berkeley est pertinent dans le cadre des mondes virtuels. Soit donc un univers virtuel du type Second Life. Cet univers est vaste, et comprend par exemple de nombreux arbres. Imaginons que dans cet univers il existe du vent (ou un phénomène s’y apparentant), qui fait donc bouger les feuilles des arbres. Si mon avatar se trouve devant un tel arbre, il est donc normal que je voie ses feuilles bouger. Si maintenant je m’en vais, les feuilles de cet arbre vont-elles continuer de s’agiter ?

Un recyclage d’une conception largement partagée sur le fonctionnement du monde réel nous conduirait à dire que oui (bien que dans aucun des cas nous ne puissions en être témoins puisque nous ne sommes pas là…). Cependant continuer de calculer les mouvements des feuilles de cet arbre est extrêmement couteux en ressources de calcul quand personne n’est là pour en profiter. Surtout lorsqu’on multiplie cet arbre en des milliers d’exemplaires…

Une solution pour diminuer ce coût est le recours à une « représentation générative ». Le terme est repris d’un échange dans les commentaires suite à un article de Rémi Sussan sur la création d’objets dans les univers virtuels. Les représentations génératives consistent en l’utilisation d’une « graine » à laquelle on applique une suite de règles pour reconstruire un objet à la demande. Par exemple le nombre 33 232 930 569 601 est égal à l’application à quatre reprise de la règle « monter au carré » à la graine « 7 ». Ainsi le stockage d’une graine et d’un ensemble simple de règles peut se révéler beaucoup plus économique en permettant de reconstruire les objets à la demande que le maintient d’une simulation complexe en permanence.

Dans ce type de mondes générés selon les besoins, ce qui existe est bien ce qui est perçu. Et la frontière entre monde virtuel et monde réel est plus fine qu’on ne s’empresse de s’en convaincre. Il suffira de regarder Matrix ou de songer à ces rêves plus vrais que nature qui nous troublent tant…

Le prochain post sera consacré à la seconde partie du principe de Berkeley qui permettra de faire le lien avec la réalité augementée, et le suivant à la relation entre la doctrine des signes de Berkeley et le web sémantique.

Question quelque peu provocatrice face à l’idée généralement admise que les liens sont le sang et la chair de l’internet. Elle m’est venue suite à mon dernier article que j’ai publié sans un seul lien. Cette absence  était volontaire mais sans raison bien identifiée. Ci-dessous différentes possibilités :

  1. Je suis paresseux. C’est possible, mais si c’était une raison suffisante je ne bloggerais probablement pas du tout…
  2. Je suis orgueilleux: j’estime que la valeur ajoutée des liens est marginale comparée à la valeur de mon article. L’analyse que j’y propose se suffit à elle-même. Il y a probablement de cela…
  3. Je suis à la fois paresseux et orgueilleux, certes, mais la valeur d’un lien n’est pas nécessairement positive.

Considérons cette dernière possibilité. Nous avons tous fait l’expérience d’un lien que nous nous félicitons d’avoir suivi et que nous remercions l’auteur d’avoir placé dans son article. Inversement combien de liens sans intérêt pour un lien de qualité.

Il est possible d’essayer d’évaluer la valeur intrinsèque d’un lien. Il faut alors mettre en balance la valeur apportée par le lien et le coût représenté par le click et le temps passé sur la page de destination. Un lien peut avoir une forte valeur positive et seulement une faible valeur négative, on peut donc aisément imaginer qu’on aboutit à une valeur moyenne des liens positive. Si on suppose que la valeur cumulée de liens d’un article est additive, c’est-à-dire que la valeur de la somme des liens est égale à la somme des valeurs des liens, alors la valeur ajoutée des liens d’un article croît avec leur nombre.

Je vois en plus aux liens d’un article une valeur de « réseau », ou plutôt une moins-value de réseau. Je suis même tenté d’affirmer que le moins-value marginale des liens est croissante. Sous cette condition la valeur moyenne mais aussi la valeur totale des liens peut être amenée à diminuer avec l’ajout d’un nouveau lien. Comment justifier d’une telle moins value de réseau ?

La sociologie de l’entreprise nous apprend que l’angoisse du manager est liée au nombre de choix qui sont à sa disposition : face à ce choix trop vaste, le manager manque d’outils pour évaluer la meilleure marche à suivre. La peur de se tromper et l’incapacité à y faire face est cause de cette angoisse, et aboutit généralement au statu quo.

Pour reprendre cette image, la surabondance de liens me conduit généralement à ne pas cliquer : n’ayant pas le temps de tous les explorer, et ne disposant pas des outils me permettant de juger ceux qui présentent le plus de valeur pour moi…

En observant mes propres comportements et ceux des visiteurs de ce blog, j’ai fait les observations suivantes qui tendent à conforter l’analyse précédente :

  1. Les liens fondus dans le texte sont peu clickés
  2. Plus 2 liens sont proches dans le texte et moins ils sont cliqués
  3. Les liens auxquels je consacre plusieurs lignes de contextualisation/description (comme dans les Fourre-tout) sont les plus cliqués

Qu’en pensez-vous ?

Le lien entre l’existence d’un objet et la perception que l’on a en est sujet à débats philosophiques depuis bien longtemps. Ce n’est pas mon objet que de l’aborder mais il se rapproche du lien que l’on peut faire entre la présence d’un individu et la perception qu’on a de lui.

Ce sujet m’a paru d’intérêt alors que l’on parle de « présence ambiante » en regard du succès des réseaux sociaux et de leur portage imminent sur terminaux mobiles. Avant de se consacrer aux univers digitaux faisons un détour par l’univers réel qui est le notre.

Supposons l’existence d’hommes invisibles, ou devrais-je dire d’hommes imperceptibles. Ils peuvent alors être présents dans mon salon alors que je regarde la télévision, mais ne pouvant les percevoir je n’aurai pas conscience de cette présence. De mon point de vue il n’y a présence que dès lors que je perçois.

Mais percevoir quoi ? Une forme, une odeur, une ombre…? N’importe : ce sont là autant de marqueurs de l’identité de la personne qui m’indique sa présence à défaut d’être suffisamment révélateur pour me dévoiler son identité.

L’absence, la présence imperceptible, puis la présence anonyme. De là se déroule un continuum qui permet de caractériser de mieux en mieux cette présence, jusqu’à ce que la personne nous soit pleinement perceptible : son visage, sa corpulence, son odeur, le son de sa voix,…

Marqueurs imperceptibles

Dans le métro nous sommes percevons les autres voyageur (parfois même un peu trop…), ils n’en restent pas des anonymes. Cependant nous amenés à reconnaitre ces personnes que nous y croisons régulièrement. L’anonymat s’entend donc ici en terme d’état civil. Ils nous sont anonymes sans nous être totalement étrangers. Nous connaissons certains marqueurs de leur identité sans être capable de les connecter à d’autres que sont leurs noms, adresses, etc…

Comme illustré par ailleurs, il n’existe pas une définition unique absolue de l’identité. Il s’agit plutôt d’un ensemble à géométrie variable de marqueurs dont la cohérence persistante nous permet d’affirmer d’une fois sur l’autre qu’une personne est celle dont nous avons la mémoire.

Au-delà de ces considérations sur l’identité il n’en reste pas moins que des marqueurs tels que ceux constituant l’état civil ont un importance particulière car ils permettent de désigner une personne de manière (relativement) non-ambiguë. Ces marqueurs, contrairement par exemple au visage ou au son de la voix, sont des marqueurs imperceptibles : il ne nous est pas donné de les connaitre de manière immédiate au travers de nos sens.

Médiation de la perception dans les univers digitaux

Dans les mondes digitaux nous ne percevons que ce que notre interface (essentiellement notre écran) nous transmet. Certains services tentent d’introduire une forme de perception de « l’autre » sans laquelle il ne peut y avoir de dimension sociale.

Ainsi lorsque je visite une page web, je suis a priori invisible pour les autres personnes présentes sur la même page au même instant. Les forums informent de la présence d’utilisateur « anonymous ». On peut aussi connaitre les pseudos des membres inscrits présents.

La volonté de rendre la navigation internet plus sociale se traduit par l’ajout de marqueurs supplémentaires sous forme d’avatars, qui vont des images 2D fixes aux représentations 3D mobiles. Ainsi les services proposant le « walking web » transforment une page 2D à usage individuel en un univers 3D, lieu d’échange et de mouvement.

Cette socialisation du web consiste donc à le transformer d’un lieu privé en un lieu public de divulgation de soi. Divulgation de marqueurs de son identité, ces marqueurs pouvant être liés à notre réalité physique (photos par exemple) ou pas.

La médiation de la perception permet donc l’enrichissement de la notion d’identité par la création de nouveaux marqueurs (marqueurs synthétique) ou par le travestissement de marqueurs « physiques » (photos truquées).

Ce nouveau flou qu’introduisent les mondes digitaux autour de la notion d’identité me parait, malgré les risques de manipulation qu’il introduit, être un juste retour des choses face au diktat réducteur de l’état civil. Sur le net la question « Qui es-tu ? » ne dispose pas d’une seule réponse…

Pour les tenants de l’indépendance de la forme et du fond, des services web récents illustrent l’influence de l’un sur l’autre. Twitter et 12seconds.tv en sont des exemples : ces services reprennent des modalités d’expression (le texte et la vidéo respectivement) préexistantes et leur adjoignent une contrainte, celle de la concision.

La question qui vient à l’esprit est : en quoi cette contrainte, que chacun pourrait s’appliquer de manière volontaire en utilisant des outils déjà existants (blogs pour Twitter, et plateforme de vidéo telles que Youtube ou Seesmic pour 12seconds.tv), suffit à fonder le succès de ces services ?

Cette contrainte de concision pourrait être comparée à celle imposée lors d’exposé oraux, présentations, elevator’s pitch… obligeant le locuteur à s’exprimer de manière synthétique. Cependant les effets constatés sont beaucoup plus profonds : on ne dit pas la même chose en moins de mots, on dit des choses différentes.

De la même manière que des modalités d’expression différentes trouvent des pratiques différenciées, ces nouveaux services introduisent de nouveaux modes de communication. Une fois apprivoisés on peut s’attendre à ce qu’ils nous deviennent aussi naturels et complémentaires (non concurrents) que des modes de communication déjà existants.

A quand un perec.com qui nous oblige à nous exprimer sans utiliser la lettre « e » ?

Suivre

Recevez les nouvelles publications par mail.