Alpha-bet ou le monde des non-A

Par défaut

Coïncidence troublante, je viens d’achever la lecture du monde des non-a de Van Vogt durant cette semaine où Google a changé de corps pour devenir l’Alphabet.

On en a déjà beaucoup parlé, mais très vite sur twitter j’avais évoqué le fait qu’il s’agissait aussi d’une question spirituelle qui se trouve derrière ce changement et pas seulement un choix économique et stratégique qui consiste à prendre le pari de l’alpha. Contrôler l’alphabet permet d’envisager de multiples combinaisons et on retrouve l’esprit des sefiroth et des adeptes de la gématria. Au passage, cela rappelle qu’évoquer de façon plus nette les lettres ne signifie pas qu’il n’y a pas de logique de calculs derrière la nouvelle stratégie. Bien au contraire, on rassemble plus nettement les chiffres et les lettres. Google a fait de cette alliance son énergie vitale en développant un capitalisme linguistique.

Seulement, il apparaît que dans sa volonté de changer le monde, Google cherche à produire un nouveau modèle, voire une nouvelle théorie. On était resté depuis quelque temps sur une logique qui ne menait à rien, celle de considérer que l’accumulation de données permettrait de produire du sens en temps réel, mettant de côté les théories classiques pour produire une fin de la science, comme ultime progrès scientifique perpétuel.

Mais cela se révèle insuffisant, si ce n’est que le seul sens apparaît être celle d’une téléologie d’une forme d’immortalité spirituelle portée par le courant transhumaniste et notamment Kurzweil qui a recyclé les mythes du téléchargement déjà abordé par Moravec. Ce fantasme porté par la science-fiction et récemment par le cinéma, avec Transcendance et le film Rennaissances (que je n’ai d’ailleurs pas vu) semble aboutir à un risque d’échec. En grande partie, parce que l’immortalité de l’esprit (d’ailleurs discutable car elle constitue la lignée qui sépare trop nettement corps et esprit à l’inverse des préconisations de Varéla) ne se suffit pas en soi. Il faut une théorie supérieure.

Ici, dans le nouvel alphabet qui se met en place, se pose la question de savoir si cette théorie est d’essence scientifique ou religieuse, ce qui n’est pas toujours aisé à distinguer. Une des pistes se trouve peut-être dans la science-fiction et dans une théorie déjà ancienne : la sémantique générale qui a inspiré l’œuvre de Van Vogt.

Le monde des non-A, le lien vous rend sur Amazon, mais l’ouvrage est trouvable et téléchargable gratuitement dans les arcanes du web. Il suffit de bien maîtriser l’alphabet

Il faut être clair que la lecture du monde des non-a est difficile. On n’y comprend pas grand-chose et on est parfois tenté d’abandonner le projet de lecture. Malgré tout, la fin devient quelque peu prévisible et la version corrigée par Van Vogt avec sa postface apporte quelques éclaircissements. Le texte fait du héros Gilbert Goseyn, un personnage qui devient plus sain (go sane nous rappelle Van Vogt) en s’améliorant notamment en changeant de corps pour accéder à une forme d’immortalité permise par le fait que l’équation de base repose sur le fait que la mémoire est synonyme d’identité.

Le texte est en fait une vision fictionnelle du texte de Korzybski sur la sémantique générale. Korzybski est connu pour sa phrase : la carte n’est pas le territoire. C’est donc un rapport à la vérité qui est proposé qui vise justement à distinguer la représentation de la réalité. C’est aussi une logique qui aboutit à une forme de relativité.

Par conséquent, il faut tenter d’analyser le projet alphabet de façon non A (pas nécessairement de façon anti-aristotélicienne), mais d’une manière nouvelle. Si d’emblée, de façon pulsionnelle, on peut penser qu’il s’agit d’une simple manœuvre juridique et économique (ce qui n’est pas totalement à exclure), le projet réside sur une logique plus complexe à capter d’emblée, celle qui mêle Science and Sanity.

Google tente donc d’écrire une nouvelle théorie générale, une nouvelle organologie et l’organisation des lettres symbole aussi ces logiques combinatoires et cette volonté de classer. Le modèle de la bibliothèque n’est jamais loin. Il suffit de repenser à la classification du congrès qui repose sur l’alphabet. On notera d’ailleurs que c’est au moment où la bibliothèque de congrès réfléchit à son avenir, que Google lance au même moment sa mue. Je ne crois pas que ce soit une coïncidence.

Alphabet de la vie, 26 lettres de sang chantait Reggiani. L’alphabet est cette nouvelle théorie générale des existences et des connaissances qu’est en train de produire une équipe continuellement en quête de sens. La sémantique générale restait une théorie à poursuivre, il semble que certains s’en chargent actuellement. Clairement, si l’hypothèse que j’avance est proche du projet alphabétique, cela va m’obliger à proposer des analyses plus poussées d’autant que Kurzweil s’est également positionné sur la » literacy ». J’invite d’ailleurs les lecteurs éclairés à aller chercher les relations entre la sémantique générale (spécialistes bienvenus !), la SF de Van Vogt et les travaux sur l’esprit humain développés par Kurzweil et les disciples de la singularité.

Si l’esprit de Gilbert Goseyn semblait aller vers un esprit plus clair au fur et à mesure du roman, j’ai l’impression de devenir à l’inverse davantage « insane » en ce moment, mais en ce jour de l’assomption, on me pardonnera. Le monde des non-A a été traduit par Boris Vian, voilà de quoi nous faire replonger en plein surréalisme.

 

Entre hyperstimulation et évanescence

Par défaut

Mes activités de blogging se font plus rares. Je n’ai guère le temps de développer des réflexions longues car elles s’opèrent de plus en plus ailleurs sur des formats plus longs. Le blog ou carnet de recherche s’inscrit dans une logique de teaser, d’alerte, de digest, de brouillon de réflexion. Il n’est pas une fin en soi car il appartient à un écosystème beaucoup plus vaste. Ce billet amorcé ne dérogera pas à la règle, en constituant une projection qui mérite de plus amples développements, mais qui ne doit sa source qu’à une envie d’écrire et de concrétiser un maelstrom d’idées fugaces.

Evidemment, il y a cet étrange manque de temps perpétuel qui ne cesse de croître au fur et à mesure des dynamiques de projet (c’est le plus stimulant), mais aussi en fonction des impératifs administratifs et  pédagogiques (la joie de faire des emplois du temps et autres évènements réguliers à l’IUT qui vous empêchent de déconnecter vraiment de votre lieu de travail).

Je crois d’ailleurs que l’erreur est de croire que ce sont les objets numériques qui sont les seuls coupables de notre relation à un travail qu’il devient difficile de déconnecter. C’est bien l’esprit qui ne peut plus faire autrement au point qu’une idée ou qu’un élément important peut surgir à tout moment, y compris en plein sommeil. Cela peut produire une forme d’épuisement et de limitation quand l’esprit n’est plus qu’un instrument d’une logique organisationnelle et institutionnelle. Alors, il convient d’aérer la machine avec d’autres velléités.

On peut certes s’éloigner du dispositif, une partie de votre cerveau travaille en arrière-plan au point de vous faire songer à tout élément clef à ne pas oublier, ce qui suppose au minimum que vous le mettiez dans la longue To Do list, tonneau des danaïdes, ou bien bien que vous tentiez de le réaliser dans la foulée.

Le paradoxe de cette stimulation permanente, qui est d’ailleurs une forme accompagnant la transattention que j’évoque ici et dont je parle également dans cet entretien, est que même si vous pensez être en train de déconnecter en lisant un bon roman… il n’est pas rare que l’envie de noter et d’annoter vous vienne et que vous continuez de tisser des liens avec d’autres activités.  Le web ne fait que mettre en avant cette activité réticulaire. Il n’est qu’un révélateur de notre envie de lier.

L’hyperstimulation dopée à la transattention devient une capacité de réaction réfléchie qui consiste à tisser des liens, à collecter, à faire des relations enrichies.  Le spider ou le bot, c’est nous, ce n’est pas celui de Google qui n’est qu’une puce qui saute de liens en liens sans que ces liens soient clairement qualifiés, mais davantage quantifiés. Voilà pourquoi j’avais évoqué l’idée d’être des ichnologues de filagrammes numériques.

On ne cesse de vouloir porter nos espoirs sur d’hypothétiques intelligences artificielles et algorithmes miraculeux. Mais tout cela est vain sans une expansion de l’esprit humain qui puisse s’exprimer et donc rêver aux possibles mais aussi à l’improbable. Je rejoins Stiegler (dans son ouvrage la société automatique) en ce qui concerne l’importance du rêve et le fait que l’idée de pouvoir quelque part indexer nos activités cérébrales (on s’approche de la dystopie de Print Brain technology) ne peut que constituer un appauvrissement du rêve :

Et, en effet, un article de Science décrivait en mai 2013 sous le titre « Neural Decoding of Visual Imagery During Sleep » une technologie de traçabilité des rêves, qui repose là encore sur un machine-learning prédictif dont il y a tout lieu de penser qu’il vide le rêve de ce qui constitue son pouvoir même : ce qui est prédictible d’un rêve dans de telles conditions (si cela l’est en effet) ne peut être que ce qui en constitue l’étoffe automatique.

Or, ce en quoi consiste le rêve, ce par quoi il peut nourrir la projection à venir d’une quelconque consistance par où ce rêve pourrait œuvrer, c’est-à-dire penser, c’est précisément ce qui en est non seulement imprédictible, mais tout à fait improbable, et en cela rigoureusement le fruit d’une désautomatisation – dont le nom est aussi, en grec, épokhè.

Méditer sans traces devient évanescent, disait Mallarmé, montrant ainsi que sans transformation documentaire, il n’y a rien de vraiment probant. Pour autant, il faut accepter pleinement cette évanescence, ce terreau de l’homme aux mille visages, cette fiction potentielle et quantique qui  est celle de nos désirs, du moteur de nos vies. Il faut donc plaider pour le maintien de cette évanescence sous peine d’opérer une réduction de nos vies intérieures et de produire une documentalité sans intention, c’est-à-dire la mise à jour et sous forme de traces et de données de notre intime sous peine de placer notre désir de vivre et de réfléchir en détention. Car l’intentionnalité doit être exprimée, elle ne peut être envisagée par probabilité, sous peine de commettre une forme de viol spirituel. Le probable n’est pas le probant. C’est pourquoi une des pistes d’échappatoire est aussi celle du hors-sujet.

Or, c’est bien cette mise en suspension de l’épokhè qu’il s’agit de défendre, notre faculté de jugement mais aussi notre folie qui est justement la source de notre capacité à raisonner. (à suivre …)

Fuir ou prendre le pouvoir ?

Par défaut

Hier soir, plusieurs messages sur twitter proposaient des alternatives à Google en relayant ce billet qui listait quelques alternatives, la plupart déjà connue, tandis que d’autres signalaient l’interview de Snowden qui conseille de quitter les géants du web.

Faut-il fuir et rejoindre Diaspora et sa version hébergée et rejoindre la résistance organisée par Framapad ? La métaphore du village breton résistant à l’Empire romain est amusante, mais semble s’inscrire dans une téléologie évidente, celle de la défaite ou de l’illusion fictionnelle d’une victoire hypothétique qui ne se déroule que dans un univers de BD.

Alors faut-il partir de nos locations numériques ? Car c’est bien de cela qu’il s’agit, nous sommes des locataires comme le laissait entendre Louise Merzeau. Fuir, car rien n’est vraiment sécurisé et les fuites de données régulières. Bien souvent, le problème vient du fait qu’on n’a pas vraiment lu le bail initial et qu’on est entré parce qu’on y était invité et qu’on ne savait guère combien de temps on comptait réellement rester.

La situation est beaucoup plus complexe qu’une simple fuite ou la découverte d’une alternative miraculeuse. On n’est pas dans un univers à la Goscinny mais bien plus dans ceux de Philip K. Dick. Ces risques, je tente depuis quelque temps de les illustrer par la fiction au travers de la firme supranationale, Argos qui est la véritable héroïne de Print Brain technology, de la Désindexée et de Dance into the cloud. Faut-il pour autant sombrer dans une parano ciblée sur certaines entreprises comme Google, Facebook et autres entreprises du genre ?

Peut-être, mais finalement pas besoin d’être connecté à quoi que ce soit, pour être potentiellement espionné. De plus, ce n’est finalement pas si nouveau que nos outils et nos techniques ne soient pas si parfaits et sans risque. La logique de l’écriture est celle d’une publication et d’un dévoilement, voire d’une conservation. C’est dans un second temps qu’arrive la logique de discrétion et de cryptographie. Si le numérique accroit la sphère de publication et de communication, il en va de même pour les risques d’intrusions imprévues.

Par conséquent, la position la plus intéressante est celle décrite dans l’article d’Hubert Guillaud qui nous offre d’autres stratégies, plus créatives, plus inventives… mais ou une des solutions est celle des écritures de soi, quelque peu détournées en essayant de mieux comprendre comment fonctionnent les trackers de nos intimités qui peuvent se tromper dans la constitution de nos profils. Il faut donc leur apprendre qu’on est un autre, en les induisant en erreur. Une stratégie qui n’est pas non plus totalement nouvelle, dans ce nouvel art du faux qui consiste à se dissimuler sous d’autres valeurs. Il faudrait donc parvenir à dissimuler le vrai par accumulation de données approximatives et erronées afin qu’il soit peu aisé de nous profiler. Navigation privée, bloqueurs de publicités, comptes multiples, proxys, logiciels alternatifs, identités multiples, les possibilités ne manquent pas effectivement.

Cependant, à force de vouloir présenter les google, facebook, ou microsoft comme les apôtres du mal, on rend probablement impossible la possibilité d’une reprise en main de nos espaces locatifs. Les services de ces sociétés sont réels, fortement utilisés parce qu’ils sont généralement plus performants que les services de nos entreprises et institutions dans lesquels on exerce. Qu’on puisse se contenter d’une action individuelle de résistance apparait difficile. Si ces entreprises ont pu prospérer, c’est grâce au manque d’investissement notamment européen dans ces technologies, si bien que nous sommes tous devenus majoritairement des locataires d’espaces sous contrôle américain. En attendant d’avoir des services de qualité équivalente… il est à mon avis préférable d’envisager plutôt une démocratisation de ces entreprises, non pas une nationalisation, mais plutôt une mise en commun à un niveau supranational, afin d’avoir des règles d’utilisation des données personnelles davantage sécurisées et moins risquées. Même si, le risque zéro n’existe pas. Démocratiser, cela signifie avoir un droit de parole dans les décisions de ces entreprises quant aux valeurs (éthiques, commerciales) qu’elles exploitent. De ces lieux qui veulent tout savoir et qui sont en fait des lieux de pouvoir, il nous faut les transformer davantage en milieux de savoir et milieux de pouvoir dans lesquels il nous est possible d’agir, de partager et de contribuer de façon plus sereine.

Affaire à suivre…

Moteur en quête d’auteurs : google sort l’argument d’autorité

Par défaut

Cela fait plusieurs mois que j’ai cette intuition mais je n’avais pas encore eu le temps de la formuler d’autant que j’escompte bien en faire un des travaux de recherche de cette année. Oliver Roumieux de l’Adbs m’avait incité à produire un billet. L’actualité m’oblige à le faire.  On n’est pas encore au niveau de Print Brain technology mais on se situe sur des territoires bien connus des professionnels de l’information.

 

La doxa a tendance à présenter Google + comme un concurrent potentiel de Facebook, un aspirateur aux usagers adeptes du réseau de Zuckerberg. D’une part, il n’en est rien du fait que la tendance est celle de l’éparpillement des profils avec réinjection de flux si besoin. Les usagers font alors le choix d’être présents un peu partout et repoussent le choix de cibler davantage un réseau qu’un autre.  Cette dispersion finit par être épuisante et pénible à terme. Google l’a compris et vise donc quelque chose de plus sérieux. Google + c’est le principe de Diaspora dans le sens inverse : on vise la concentration.

Dans cette querelle du choix des réseaux sociaux, Google va régler le problème en le déplaçant.

Pour rappel, il est très difficile de suicider son compte sans désagréments.  C’est le cas chez Google : l’appartenance à son réseau social est définitive. Si vous souhaitez en sortir, vous réalisez alors un hara-kiri numérico-identitaire qui peut être tragique si vous êtes un vieil utilisateur des services google et notamment de sa messagerie. D’où les risques qu’il y a à utiliser un pseudo sous peine de fermeture de compte.

On l’aura compris, c’est une stratégie de captation efficiente : le temps investi et les données contenues sur ces services sont telles qu’il faut vraiment bien programmer son éventuel départ. C’est en effet toujours possible de cesser de dépendre au niveau de l’identité numérique de Google. Soit. Mais vous avez sans doute remarqué que vous pouvez quand même « cercler » des amis qui ne sont pas encore présents sur Google +… Une nouvelle fois, on n’échappe pas totalement à Google.

Seulement, l’objectif de Google et de son avancée Google + n’est pas celle de constituer un énième réseau social, c’est bien mieux que cela. Il s’agit clairement d’une stratégie de développement de l’application première : le moteur de recherche. Un moteur dont le leadership permet à la société américaine de générer 95% de ses revenus via la publicité. Si bien que chaque nouvelle application doit s’inscrire dans cette orientation de rentabilité. Et google + est clairement dans ce cadre.

Alors en quoi Google + va aider le moteur de recherche ?

Et bien Google + va permettre de mieux identifier les auteurs de contenus sur le web et d’associer finement une ressource web à un profil Google +. Il est même fort probable qu’une URI identifiée par un profil auteur lui aussi bien mis en valeur…sera mieux classée dans le page rank. De là à dire que google va réussir à produire le web de données… il n’y a qu’un pas.

Au niveau documentaire, Google + est en train de créer des «  listes d’autorités » ! Et ces listes d’autorités vont se décliner avec l’indexation par les cercles thématique. Indexation que nous produisons nous-mêmes en créant des listes thématiques. Les folksonomies n’ont donc pas disparu réellement, Google les décline en cerclonomie.  On retrouvera la stratégie du like, impulsée par Facebook au sein du réseau… ce qui produira un indice de popularité sociale qui sera aussi inclus à terme dans l’algorithme.

Si bien que le moteur va de plus en plus produire des résultats avec des références d’auteurs et obliger les webmasters à inscrire dans les métadonnées de leur site, la liaison avec leur profil Google +. Cela fait déjà quelques semaines que cette éventualité est possible. Elle va devenir obligatoire pour un bon référencement. Souvenons-nous de l’obligation faite par Google + que les profils comportent des vrais noms et pas des pseudos ! On notera au passage que c’est le retour progressif de la prise en charge des métadonnées dans le référencement. Cependant, on avance prudemment avec des métadonnées fiables avec celles de l’auteur dont on a établi l’identité. Le profil Google+ deviendra alors un pôle de gestion de son identité numérique avec les services attachés et externes. Ce sera celui qui sera visible depuis le moteur de recherche.  Facebook demeurera alors qu’un sous-espace, une fête au village qui sera moins lucrative que le pôle des identités de Google.

Cela marque bien une volonté d’identification claire de la ressource. Cela pose évidemment tout un tas de question au niveau des potentialités d’anonymat. Mais si vous voulez être bien vu par le moteur… il faudra accepter l’encerclerment : rendez-vous, vous êtes cerné !

Pour rappel, le moteur comme beaucoup d’application a eu tendance à confondre autorité et popularité, en attribuant un indice d’autorité à ce qui relève clairement de la popularité via le page rank.  Il faut rappeler que l’analyse des citations sur lequel repose le moteur emprunte beaucoup à la bibliométrie et à la scientométrie, sauf qu’en ce qui concerne les domaines scientifiques, la production de documents est quand même soumise à des processus d’évaluations.

Il semble désormais que Google cherche à mieux saisir cette question de l’autorité tout en conservant ses stratégies de popularité et d’indices de citations basés sur la scientométrie. Simplement, le déplacement ou la continuité plutôt s’opère : désormais le page rank ne concerne pas seulement les sites web mais bel et bien les auteurs. Voilà qui va donner de fil à retordre aux référenceurs car désormais le référencement aura partie liée avec la gestion de l’identité numérique.  Car il est probable désormais que l’identification d’un spécialiste d’un domaine particulier va lui conférer une importance plus grande aux yeux du moteur en ce qui concerne la valorisation de sa production. C’était justement le gros point faible du moteur jusqu’à maintenant.

Cette tendance qui vise à mesurer l’influence et la notoriété d’une personne se développe avec les indices d’influence comme Klout. Mais on reste encore dans des mécanismes de popularité en mesurant le nombre de followers sur twitter, le nombre de retweet, etc.  Google cherche davantage à affiner et à savoir qui est vraiment l’auteur et son degré de compétence.  D’où l’intérêt premier d’avoir dans un premier temps, une liste d’initiés et de spécialistes. Google va aussi chercher à utiliser ses données pour personnaliser les requêtes et les affiner de plus en plus avec les résultats de production des personnes avec qui nous sommes liées sur Google +.  On a donc récupérer notre travail d’évaluation relationnelle pour affiner les résultats de nos requêtes. Cette stratégie a déjà commencé depuis quelques mois avec l’affichage de données signalées par nos amis sur Google Reader.

Google cherche donc à attribuer un identifiant unique via son profil Google +.  Cette stratégie s’opère également au niveau des chercheurs avec Google Scholar. Les projets d’identifiants uniques sur lesquels travaillent plusieurs éditeurs dont thomson risquent de se voir opposer un concurrent bien plus efficace : Google.

Google après avoir conquis le domaine de la popularité cherche à mettre la main sur l’autorité.  Il est donc probable de voir à terme de nouvelles métadonnées prises en compte. Maiss Google a d’abord misé sur la plus importante : l’auteur. En effet, elle représente souvent le premier indice d’importance en matière d’évaluation de l’information. La redocumentarisation de nos identités prend alors tout son sens.

On pourrait donc voir l’entreprise américaine jouer de plus en plus un rôle prégnant en matière de gestion de la production de l’IST et en matière d’employabilité… ce qui signifie à terme un contrôle sur l’économie.

J’arrête les projections possibles à termes notamment l’accroissement des capacités prédictives du moteur qui pour l’instant connait surtout le passé de nos actions….

Une nouvelle fois « être ou ne pas être sur Google » devient l’aporie philosophique actuelle.  On ne sait trop quelle histoire est en train d’écrire Google, ce qui est certain c’est que l’entreprise ne se contentera pas de faire de nous des personnages mais bel et bien des auteurs.

Dans tous les cas, voilà qui confirme ce que j’avançais en début d’année : on va avoir de plus en plus besoin de lecteurs de crâne de licorne

Dans le congélo de Google

Par défaut

Google vient de commettre sa première erreur stratégique avec son navigateur Chrome. Erreur qui n’est que la conséquence de la démesure qui l’anime de plus en plus : l’hybris. Pourquoi ne pas avoir choisi la stratégie du prodeo larvatus en avançant caché en impulsant des dynamiques via des start-ups au lieu de renforcer une situation monopolistique de plus en plus inacceptable au vu de Bruxelles et des institutions américaines. Je ne peux pas croire qu’il n’y ait pas de réaction institutionnelle poussant au démantèlement de l’entreprise. A moins que l’affaiblissement institutionnel soit si étendu que le formalisme de la société de l’information l’ait totalement emporté.
Dans ce cas effectivement, nous appartenons désormais tous à Google qui est bien plus qu’une entreprise.
J’ai testé moi-aussi le navigateur chrome qui a quelques points forts, il faut bien l’admettre, notamment le fait que les onglets soient indépendants ce qui nous met à l’abri des bugs dont regorgent firefox malheureusement notamment lorsqu’on utilise une kyrielle de plugins et d’extension comme moi.
Seulement, Chrome est laid et froid. Je le trouve hostile, transparent misant sur une fluidité. Je ne m’y sens pas bien. Firefox est conçu comme un espace douillet et personnalisable, chrome ressemble à un frigo, pire à un congélo. En effet, il peut garder au froid toutes vos traces constituant une glaçante extension de votre mémoire, une prothèse de plus guère enthousiasmante. On rentre dans une forme de glaciation informationnelle bien loin d’un travail de confiance nécessaire. On s’éloigne de la veille et on est bien loin des veillées d’antan.
Pour ma part, je préfère encore malgré ses défauts, le feu du petit panda rouge, à la chambre froide. Je préfère à Epiméthée qui nous met à nu, Prométhée qui tente de nous réchauffer et de nous apporter la lumière…n’en déplaise à Dieu même si son nom est Google…

Google : mesure et démesure de l’Internet

Par défaut

Le billet de Martin Lessard, justement initulé la mesure de toutes choses en référence à la phrase de Protagoras me fait revenir quelques années en arrière lorsque je travaillais sur la mesure de l’Internet pour mon Dea.

Or, il semble désormais que Google soit en passe de devenir la mesure totale du web et même de l’Internet si rien ne vient cesser son expansion. Google va donc proposer un système- une nouvelle fois gratuitement- de la mesure de l’audience des sites web, mettant en péril l’équilibre de sociétés commerciales dont c’est le marché et dont les mesures sont certes critiquables.

Une nouvelle fois se pose la question, Google prétend ne pas faire le mal mais pourtant utilise des armes économiques. Il s’agit ni plus ni moins de dumping. Google fait du mal à ses concurrents en rendant gratuit toute une série de services et en gardant le monopole sur les revenus publicitaires.

Il est étonnant que cela ne suscite toujours aucune réaction de l’Union Européenne et des autorités américaines face à une situation qui devient de plus en plus inacceptable et qui menace les fondements même de la démocratie. Théoriquement, il n’existe que deux solutions face à ce dilemme : le démantèlement ou la nationalisation. Pour ma part, j’en ajouterai une troisième : la supranationalisation : le rachat par Google par une autorité supranationale qui pourrait dès lors utiliser les bénéfices dans des actions éducatives et de réductions des fractures numériques et sociales.

Il ne faut pas tarder à réagir sans quoi à ce rythme là, c’est bel et bien Google qui va tout racheter et tout démanteler, y compris nos institutions. La mesure de toutes choses n’est jamais éloignée de la démesure, l’hybris.

Ces questions de mesure de l’Internet et du web intéressent fortement la recherche scientifique mais il semble que les moyens soient surtout du côté de certaines entreprises.  Cela renvoie aussi aux interrogations d’une science de l’Internet et des projets de la cybergéographie. Il s’agit de travailler à une pantométrie qui prenne en compte la métrologie plus centrée sur les aspects techniques et une sociologie plus axée sur les individus et les réseaux.

Les recommandations du CNRS où l’aporie institutionnelle?

Par défaut

Hervé Le Crosnier signale sur la liste rtp-doc ainsi que sur biblio-fr une mise en garde du CNRS quant à l’usage de services gratuits notamment liés au web 2.0 et à Google. Il est vrai que la gratuité est souvent un leurre et ce n’est pas une nouveauté. Notre article sur le web 2.0 mentionnait déjà ce côté obscur.
Il faut utiliser nos adresses institutionnelles et nos espaces institutionnels, voilà quelle serait donc la solution miracle!
Une nouvelle fois, cette remarque rejoint celle qui est souvent faite aux étudiants à qui on reproche d’utiliser leurs adresses personnelles. Ces dernières étant parfois farfelues, il est vrai.
Néanmoins tout cela procède d’une analyse qui me semble insuffisante et surtout qui ne perçoit pas des changements de paradigmes importants qui se font au détriment de l’institution.
D’une part, les étudiants ne vont pas garder leur adresse de l’université plus de 2 -3 ans en moyenne ce qui n’incite guère à utiliser celle de l’institution très souvent laide et inefficace. Il faudrait alors utiliser un logiciel de messagerie pour améliorer la qualité de service vous répondent les informaticiens de l’université. Pourquoi faire? Le logiciel de messagerie c’est tout simplement dépassé à moins de ne travailler tout le temps sur la même machine en espérant que le disque dur ne tombe pas en rade sous peine de tout perdre. A moins également que vous ne disposiez d’un formidable portable conçu pour durer qui vous permet de vous connecter partout. Seulement le document du CNRS nous met également en garde sur les diverses connexions en dehors des lieus sécurisés. Bref, c’est une logique de pantouflard voire de paranoïaque qu’on nous impose !
La solution de redirection pourrait constituer une bonne solution ce que je fais d’ailleurs moi-même mais reste sujet à critique car vous useriez encore d’un prestataire privé. Pour ma part, je n’écris jamais sous l’adresse de mon académie tout simplement parce que je sais que je vais en changer bientôt et qui si je l’utilisais régulièrement actuellement, je deviendrais « inconnu à cette adresse » l’année d’après. De plus, gmail me permet de stocker des mails et des données depuis plus de deux ans et c’est une formidable avancée d’autant que vous pouvez y accéder depuis n’importe où. Tandis qu’avec votre mail institutionnel, vous avez perdu la plupart de vos anciens mails car vous les avez mal archivés et qu’il a fallu faire le vide car vous êtes limités en espace de stockage. Les ENT ont permis quelques progrès néanmoins mais c’est insuffisant.
Finalement, le choix est rapidement fait. Google a des défauts, gmail est fliqué et il est vrai certains utilisateurs l’ignorent. Mais quelle confiance accordons nous aux services de l’institution ? Ne sommes-nous pas également surveillés ? Il nous semble évident que les élèves et les étudiants ont moins confiance dans les solutions de l’institution que dans les grands groupes comme Google, Yahoo ou Msn. Ils ont sans doute tort mais c’est un fait. De plus ces derniers rendent des services sans être trop contraignants en apparence tandis que l’institution met sans cesse des restrictions d’usage et des restrictions techniques. D’ailleurs peut-on reprocher à des étudiants et à des fonctionnaires d’utiliser des services plus performants car force est de constater que l’institution n’est pas toujours au niveau loin de là. Les projets sont longs à monter du fait de la hiérarchie et des circuits divers et variés d’incompétences techniques et politiques. La perte de confiance est d’autant plus forte que trop souvent les bâtiments de l ‘université ou les établissements scolaires sont laids, délabrés. Et le moins qu’on puisse dire c’est que rien n’incite au sentiment d’appartenance parce qu’une adresse électronique c’est aussi cela. Peu d’étudiants sont en fait fiers d’appartenir à telle ou telle université française. A-ton envie d’envoyer des mails mentionnant son appartenance à une université qui vous annonce votre réussite à un examen sur un papier prêt à tomber au sol ? Et puis allons droit au but, beaucoup d’entrepreneurs apprécient autant une adresse mail qui ne vient pas rappeler les derniers mouvements sociaux qui viennent d’agiter votre université de formation.

Certes le document du CNRS mentionne le fait qu’ « Aux responsables des systèmes d’information, il est rappelé que la meilleure façon d’éviter que les utilisateurs ne soient tentés de recourir à des services externes est de fournir en interne un service de qualité. »
Seulement il est certes bon d’inciter à, mais le document demeure dans des logiques contradictoires devant concilier à la fois sécurité et innovation.

Certes Google nous file, mais que dire de l’institution qui nous fait sans cesse remplir des tonnes de dossier, nous faisant redonner sans cesse les mêmes informations. En tant que fonctionnaire, je ne compte plus les heures passées à remplir dossiers, autorisations de cumul et autres paperasseries lassantes. Qu’on ne s’étonne pas au final si on préfère passer par Google que par l’institution qui semble autant fliquante voire plus que Google sans parler de l’efficacité car il n’est pas rare que les mails ne parviennent pas à leur destinataire pour des raisons de sécurité informatique qui sont surtout autant de raison pour repousser sans cesse l’innovation. Il est évident que les informaticiens de l’université ne sont pas ceux qui travaillent chez Google. Les salaires et les compétences sont aussi différentes.
Dès lors, les recommandations ne suffisent pas et j’avais déjà mentionné ce fait à Formist l’an dernier, l’institution doit se doter de services au moins équivalents à google et compagnie. Pourquoi ne pas imaginer une adresse unique pour les fonctionnaires pouvant être couplée avec une adresse correspondant à leur emploi du moment mais qui permettrait de garder la même boîte au fil de leurs mutations ? Pourquoi limiter les espaces de stockage ? Qu’est-ce qui empêche les universités de mettre en place des services du type web 2.0 ? Certaines le font comme à Paris V.
Nous l’avons dit, la solution n’est pas que technique mais la mise en place de solutions innovantes dans le cadre de réflexions est inévitable. Il s’agit de redonner confiance dans l’institution, pour cela il ne suffit pas de recommander, il faut agir. Il faut agir en étant proactif et pas seulement par mimétisme ou adaptionisme. Confiance et sentiment d’appartenance ne sont pas non plus des vains mots et il serait temps que l’institution s’interroge sur ce plan.
Il en va de même d’ailleurs pour la signature scientifique des chercheurs. J’aurais du être chargé d’une mission de ce type pour la Bretagne, seulement les blocages institutionnels ont empêché mon arrivée à ce poste malgré une réussite à un entretien. Pas vraiment de quoi donner confiance en l’institution. Qu’on ne s’étonne pas de ce fait que je continue et que je continuerai à utiliser les services de Google en dépit des défauts que je dénonce également. Mais comme beaucoup d’internautes, j’ai parfois plus confiance en Google qui me rend bien plus de services qu’en une institution dont la tournure kafkaïenne ou ubuesque ne cesse de lasser. Et l’institution ce n’est pas seulement les dirigeants, c’est nous tous. Une critique envers une institution impalpable où nul ne serait concerné serait trop facile : nous le sommes tous.
Les enjeux sont importants à l’heure où la popularité prend le pas sur l’autorité notamment sur le web, l’institution se doit de réagir et de « proagir ». La prévention ne suffit pas. A moins que nous appartenions tous demain à une nouvelle institution…Google…