Alpha-bet ou le monde des non-A

Par défaut

Coïncidence troublante, je viens d’achever la lecture du monde des non-a de Van Vogt durant cette semaine où Google a changé de corps pour devenir l’Alphabet.

On en a déjà beaucoup parlé, mais très vite sur twitter j’avais évoqué le fait qu’il s’agissait aussi d’une question spirituelle qui se trouve derrière ce changement et pas seulement un choix économique et stratégique qui consiste à prendre le pari de l’alpha. Contrôler l’alphabet permet d’envisager de multiples combinaisons et on retrouve l’esprit des sefiroth et des adeptes de la gématria. Au passage, cela rappelle qu’évoquer de façon plus nette les lettres ne signifie pas qu’il n’y a pas de logique de calculs derrière la nouvelle stratégie. Bien au contraire, on rassemble plus nettement les chiffres et les lettres. Google a fait de cette alliance son énergie vitale en développant un capitalisme linguistique.

Seulement, il apparaît que dans sa volonté de changer le monde, Google cherche à produire un nouveau modèle, voire une nouvelle théorie. On était resté depuis quelque temps sur une logique qui ne menait à rien, celle de considérer que l’accumulation de données permettrait de produire du sens en temps réel, mettant de côté les théories classiques pour produire une fin de la science, comme ultime progrès scientifique perpétuel.

Mais cela se révèle insuffisant, si ce n’est que le seul sens apparaît être celle d’une téléologie d’une forme d’immortalité spirituelle portée par le courant transhumaniste et notamment Kurzweil qui a recyclé les mythes du téléchargement déjà abordé par Moravec. Ce fantasme porté par la science-fiction et récemment par le cinéma, avec Transcendance et le film Rennaissances (que je n’ai d’ailleurs pas vu) semble aboutir à un risque d’échec. En grande partie, parce que l’immortalité de l’esprit (d’ailleurs discutable car elle constitue la lignée qui sépare trop nettement corps et esprit à l’inverse des préconisations de Varéla) ne se suffit pas en soi. Il faut une théorie supérieure.

Ici, dans le nouvel alphabet qui se met en place, se pose la question de savoir si cette théorie est d’essence scientifique ou religieuse, ce qui n’est pas toujours aisé à distinguer. Une des pistes se trouve peut-être dans la science-fiction et dans une théorie déjà ancienne : la sémantique générale qui a inspiré l’œuvre de Van Vogt.

Le monde des non-A, le lien vous rend sur Amazon, mais l’ouvrage est trouvable et téléchargable gratuitement dans les arcanes du web. Il suffit de bien maîtriser l’alphabet

Il faut être clair que la lecture du monde des non-a est difficile. On n’y comprend pas grand-chose et on est parfois tenté d’abandonner le projet de lecture. Malgré tout, la fin devient quelque peu prévisible et la version corrigée par Van Vogt avec sa postface apporte quelques éclaircissements. Le texte fait du héros Gilbert Goseyn, un personnage qui devient plus sain (go sane nous rappelle Van Vogt) en s’améliorant notamment en changeant de corps pour accéder à une forme d’immortalité permise par le fait que l’équation de base repose sur le fait que la mémoire est synonyme d’identité.

Le texte est en fait une vision fictionnelle du texte de Korzybski sur la sémantique générale. Korzybski est connu pour sa phrase : la carte n’est pas le territoire. C’est donc un rapport à la vérité qui est proposé qui vise justement à distinguer la représentation de la réalité. C’est aussi une logique qui aboutit à une forme de relativité.

Par conséquent, il faut tenter d’analyser le projet alphabet de façon non A (pas nécessairement de façon anti-aristotélicienne), mais d’une manière nouvelle. Si d’emblée, de façon pulsionnelle, on peut penser qu’il s’agit d’une simple manœuvre juridique et économique (ce qui n’est pas totalement à exclure), le projet réside sur une logique plus complexe à capter d’emblée, celle qui mêle Science and Sanity.

Google tente donc d’écrire une nouvelle théorie générale, une nouvelle organologie et l’organisation des lettres symbole aussi ces logiques combinatoires et cette volonté de classer. Le modèle de la bibliothèque n’est jamais loin. Il suffit de repenser à la classification du congrès qui repose sur l’alphabet. On notera d’ailleurs que c’est au moment où la bibliothèque de congrès réfléchit à son avenir, que Google lance au même moment sa mue. Je ne crois pas que ce soit une coïncidence.

Alphabet de la vie, 26 lettres de sang chantait Reggiani. L’alphabet est cette nouvelle théorie générale des existences et des connaissances qu’est en train de produire une équipe continuellement en quête de sens. La sémantique générale restait une théorie à poursuivre, il semble que certains s’en chargent actuellement. Clairement, si l’hypothèse que j’avance est proche du projet alphabétique, cela va m’obliger à proposer des analyses plus poussées d’autant que Kurzweil s’est également positionné sur la » literacy ». J’invite d’ailleurs les lecteurs éclairés à aller chercher les relations entre la sémantique générale (spécialistes bienvenus !), la SF de Van Vogt et les travaux sur l’esprit humain développés par Kurzweil et les disciples de la singularité.

Si l’esprit de Gilbert Goseyn semblait aller vers un esprit plus clair au fur et à mesure du roman, j’ai l’impression de devenir à l’inverse davantage « insane » en ce moment, mais en ce jour de l’assomption, on me pardonnera. Le monde des non-A a été traduit par Boris Vian, voilà de quoi nous faire replonger en plein surréalisme.

 

Moteur en quête d’auteurs : google sort l’argument d’autorité

Par défaut

Cela fait plusieurs mois que j’ai cette intuition mais je n’avais pas encore eu le temps de la formuler d’autant que j’escompte bien en faire un des travaux de recherche de cette année. Oliver Roumieux de l’Adbs m’avait incité à produire un billet. L’actualité m’oblige à le faire.  On n’est pas encore au niveau de Print Brain technology mais on se situe sur des territoires bien connus des professionnels de l’information.

 

La doxa a tendance à présenter Google + comme un concurrent potentiel de Facebook, un aspirateur aux usagers adeptes du réseau de Zuckerberg. D’une part, il n’en est rien du fait que la tendance est celle de l’éparpillement des profils avec réinjection de flux si besoin. Les usagers font alors le choix d’être présents un peu partout et repoussent le choix de cibler davantage un réseau qu’un autre.  Cette dispersion finit par être épuisante et pénible à terme. Google l’a compris et vise donc quelque chose de plus sérieux. Google + c’est le principe de Diaspora dans le sens inverse : on vise la concentration.

Dans cette querelle du choix des réseaux sociaux, Google va régler le problème en le déplaçant.

Pour rappel, il est très difficile de suicider son compte sans désagréments.  C’est le cas chez Google : l’appartenance à son réseau social est définitive. Si vous souhaitez en sortir, vous réalisez alors un hara-kiri numérico-identitaire qui peut être tragique si vous êtes un vieil utilisateur des services google et notamment de sa messagerie. D’où les risques qu’il y a à utiliser un pseudo sous peine de fermeture de compte.

On l’aura compris, c’est une stratégie de captation efficiente : le temps investi et les données contenues sur ces services sont telles qu’il faut vraiment bien programmer son éventuel départ. C’est en effet toujours possible de cesser de dépendre au niveau de l’identité numérique de Google. Soit. Mais vous avez sans doute remarqué que vous pouvez quand même « cercler » des amis qui ne sont pas encore présents sur Google +… Une nouvelle fois, on n’échappe pas totalement à Google.

Seulement, l’objectif de Google et de son avancée Google + n’est pas celle de constituer un énième réseau social, c’est bien mieux que cela. Il s’agit clairement d’une stratégie de développement de l’application première : le moteur de recherche. Un moteur dont le leadership permet à la société américaine de générer 95% de ses revenus via la publicité. Si bien que chaque nouvelle application doit s’inscrire dans cette orientation de rentabilité. Et google + est clairement dans ce cadre.

Alors en quoi Google + va aider le moteur de recherche ?

Et bien Google + va permettre de mieux identifier les auteurs de contenus sur le web et d’associer finement une ressource web à un profil Google +. Il est même fort probable qu’une URI identifiée par un profil auteur lui aussi bien mis en valeur…sera mieux classée dans le page rank. De là à dire que google va réussir à produire le web de données… il n’y a qu’un pas.

Au niveau documentaire, Google + est en train de créer des «  listes d’autorités » ! Et ces listes d’autorités vont se décliner avec l’indexation par les cercles thématique. Indexation que nous produisons nous-mêmes en créant des listes thématiques. Les folksonomies n’ont donc pas disparu réellement, Google les décline en cerclonomie.  On retrouvera la stratégie du like, impulsée par Facebook au sein du réseau… ce qui produira un indice de popularité sociale qui sera aussi inclus à terme dans l’algorithme.

Si bien que le moteur va de plus en plus produire des résultats avec des références d’auteurs et obliger les webmasters à inscrire dans les métadonnées de leur site, la liaison avec leur profil Google +. Cela fait déjà quelques semaines que cette éventualité est possible. Elle va devenir obligatoire pour un bon référencement. Souvenons-nous de l’obligation faite par Google + que les profils comportent des vrais noms et pas des pseudos ! On notera au passage que c’est le retour progressif de la prise en charge des métadonnées dans le référencement. Cependant, on avance prudemment avec des métadonnées fiables avec celles de l’auteur dont on a établi l’identité. Le profil Google+ deviendra alors un pôle de gestion de son identité numérique avec les services attachés et externes. Ce sera celui qui sera visible depuis le moteur de recherche.  Facebook demeurera alors qu’un sous-espace, une fête au village qui sera moins lucrative que le pôle des identités de Google.

Cela marque bien une volonté d’identification claire de la ressource. Cela pose évidemment tout un tas de question au niveau des potentialités d’anonymat. Mais si vous voulez être bien vu par le moteur… il faudra accepter l’encerclerment : rendez-vous, vous êtes cerné !

Pour rappel, le moteur comme beaucoup d’application a eu tendance à confondre autorité et popularité, en attribuant un indice d’autorité à ce qui relève clairement de la popularité via le page rank.  Il faut rappeler que l’analyse des citations sur lequel repose le moteur emprunte beaucoup à la bibliométrie et à la scientométrie, sauf qu’en ce qui concerne les domaines scientifiques, la production de documents est quand même soumise à des processus d’évaluations.

Il semble désormais que Google cherche à mieux saisir cette question de l’autorité tout en conservant ses stratégies de popularité et d’indices de citations basés sur la scientométrie. Simplement, le déplacement ou la continuité plutôt s’opère : désormais le page rank ne concerne pas seulement les sites web mais bel et bien les auteurs. Voilà qui va donner de fil à retordre aux référenceurs car désormais le référencement aura partie liée avec la gestion de l’identité numérique.  Car il est probable désormais que l’identification d’un spécialiste d’un domaine particulier va lui conférer une importance plus grande aux yeux du moteur en ce qui concerne la valorisation de sa production. C’était justement le gros point faible du moteur jusqu’à maintenant.

Cette tendance qui vise à mesurer l’influence et la notoriété d’une personne se développe avec les indices d’influence comme Klout. Mais on reste encore dans des mécanismes de popularité en mesurant le nombre de followers sur twitter, le nombre de retweet, etc.  Google cherche davantage à affiner et à savoir qui est vraiment l’auteur et son degré de compétence.  D’où l’intérêt premier d’avoir dans un premier temps, une liste d’initiés et de spécialistes. Google va aussi chercher à utiliser ses données pour personnaliser les requêtes et les affiner de plus en plus avec les résultats de production des personnes avec qui nous sommes liées sur Google +.  On a donc récupérer notre travail d’évaluation relationnelle pour affiner les résultats de nos requêtes. Cette stratégie a déjà commencé depuis quelques mois avec l’affichage de données signalées par nos amis sur Google Reader.

Google cherche donc à attribuer un identifiant unique via son profil Google +.  Cette stratégie s’opère également au niveau des chercheurs avec Google Scholar. Les projets d’identifiants uniques sur lesquels travaillent plusieurs éditeurs dont thomson risquent de se voir opposer un concurrent bien plus efficace : Google.

Google après avoir conquis le domaine de la popularité cherche à mettre la main sur l’autorité.  Il est donc probable de voir à terme de nouvelles métadonnées prises en compte. Maiss Google a d’abord misé sur la plus importante : l’auteur. En effet, elle représente souvent le premier indice d’importance en matière d’évaluation de l’information. La redocumentarisation de nos identités prend alors tout son sens.

On pourrait donc voir l’entreprise américaine jouer de plus en plus un rôle prégnant en matière de gestion de la production de l’IST et en matière d’employabilité… ce qui signifie à terme un contrôle sur l’économie.

J’arrête les projections possibles à termes notamment l’accroissement des capacités prédictives du moteur qui pour l’instant connait surtout le passé de nos actions….

Une nouvelle fois « être ou ne pas être sur Google » devient l’aporie philosophique actuelle.  On ne sait trop quelle histoire est en train d’écrire Google, ce qui est certain c’est que l’entreprise ne se contentera pas de faire de nous des personnages mais bel et bien des auteurs.

Dans tous les cas, voilà qui confirme ce que j’avançais en début d’année : on va avoir de plus en plus besoin de lecteurs de crâne de licorne

Google : mesure et démesure de l’Internet

Par défaut

Le billet de Martin Lessard, justement initulé la mesure de toutes choses en référence à la phrase de Protagoras me fait revenir quelques années en arrière lorsque je travaillais sur la mesure de l’Internet pour mon Dea.

Or, il semble désormais que Google soit en passe de devenir la mesure totale du web et même de l’Internet si rien ne vient cesser son expansion. Google va donc proposer un système- une nouvelle fois gratuitement- de la mesure de l’audience des sites web, mettant en péril l’équilibre de sociétés commerciales dont c’est le marché et dont les mesures sont certes critiquables.

Une nouvelle fois se pose la question, Google prétend ne pas faire le mal mais pourtant utilise des armes économiques. Il s’agit ni plus ni moins de dumping. Google fait du mal à ses concurrents en rendant gratuit toute une série de services et en gardant le monopole sur les revenus publicitaires.

Il est étonnant que cela ne suscite toujours aucune réaction de l’Union Européenne et des autorités américaines face à une situation qui devient de plus en plus inacceptable et qui menace les fondements même de la démocratie. Théoriquement, il n’existe que deux solutions face à ce dilemme : le démantèlement ou la nationalisation. Pour ma part, j’en ajouterai une troisième : la supranationalisation : le rachat par Google par une autorité supranationale qui pourrait dès lors utiliser les bénéfices dans des actions éducatives et de réductions des fractures numériques et sociales.

Il ne faut pas tarder à réagir sans quoi à ce rythme là, c’est bel et bien Google qui va tout racheter et tout démanteler, y compris nos institutions. La mesure de toutes choses n’est jamais éloignée de la démesure, l’hybris.

Ces questions de mesure de l’Internet et du web intéressent fortement la recherche scientifique mais il semble que les moyens soient surtout du côté de certaines entreprises.  Cela renvoie aussi aux interrogations d’une science de l’Internet et des projets de la cybergéographie. Il s’agit de travailler à une pantométrie qui prenne en compte la métrologie plus centrée sur les aspects techniques et une sociologie plus axée sur les individus et les réseaux.

Les recommandations du CNRS où l’aporie institutionnelle?

Par défaut

Hervé Le Crosnier signale sur la liste rtp-doc ainsi que sur biblio-fr une mise en garde du CNRS quant à l’usage de services gratuits notamment liés au web 2.0 et à Google. Il est vrai que la gratuité est souvent un leurre et ce n’est pas une nouveauté. Notre article sur le web 2.0 mentionnait déjà ce côté obscur.
Il faut utiliser nos adresses institutionnelles et nos espaces institutionnels, voilà quelle serait donc la solution miracle!
Une nouvelle fois, cette remarque rejoint celle qui est souvent faite aux étudiants à qui on reproche d’utiliser leurs adresses personnelles. Ces dernières étant parfois farfelues, il est vrai.
Néanmoins tout cela procède d’une analyse qui me semble insuffisante et surtout qui ne perçoit pas des changements de paradigmes importants qui se font au détriment de l’institution.
D’une part, les étudiants ne vont pas garder leur adresse de l’université plus de 2 -3 ans en moyenne ce qui n’incite guère à utiliser celle de l’institution très souvent laide et inefficace. Il faudrait alors utiliser un logiciel de messagerie pour améliorer la qualité de service vous répondent les informaticiens de l’université. Pourquoi faire? Le logiciel de messagerie c’est tout simplement dépassé à moins de ne travailler tout le temps sur la même machine en espérant que le disque dur ne tombe pas en rade sous peine de tout perdre. A moins également que vous ne disposiez d’un formidable portable conçu pour durer qui vous permet de vous connecter partout. Seulement le document du CNRS nous met également en garde sur les diverses connexions en dehors des lieus sécurisés. Bref, c’est une logique de pantouflard voire de paranoïaque qu’on nous impose !
La solution de redirection pourrait constituer une bonne solution ce que je fais d’ailleurs moi-même mais reste sujet à critique car vous useriez encore d’un prestataire privé. Pour ma part, je n’écris jamais sous l’adresse de mon académie tout simplement parce que je sais que je vais en changer bientôt et qui si je l’utilisais régulièrement actuellement, je deviendrais « inconnu à cette adresse » l’année d’après. De plus, gmail me permet de stocker des mails et des données depuis plus de deux ans et c’est une formidable avancée d’autant que vous pouvez y accéder depuis n’importe où. Tandis qu’avec votre mail institutionnel, vous avez perdu la plupart de vos anciens mails car vous les avez mal archivés et qu’il a fallu faire le vide car vous êtes limités en espace de stockage. Les ENT ont permis quelques progrès néanmoins mais c’est insuffisant.
Finalement, le choix est rapidement fait. Google a des défauts, gmail est fliqué et il est vrai certains utilisateurs l’ignorent. Mais quelle confiance accordons nous aux services de l’institution ? Ne sommes-nous pas également surveillés ? Il nous semble évident que les élèves et les étudiants ont moins confiance dans les solutions de l’institution que dans les grands groupes comme Google, Yahoo ou Msn. Ils ont sans doute tort mais c’est un fait. De plus ces derniers rendent des services sans être trop contraignants en apparence tandis que l’institution met sans cesse des restrictions d’usage et des restrictions techniques. D’ailleurs peut-on reprocher à des étudiants et à des fonctionnaires d’utiliser des services plus performants car force est de constater que l’institution n’est pas toujours au niveau loin de là. Les projets sont longs à monter du fait de la hiérarchie et des circuits divers et variés d’incompétences techniques et politiques. La perte de confiance est d’autant plus forte que trop souvent les bâtiments de l ‘université ou les établissements scolaires sont laids, délabrés. Et le moins qu’on puisse dire c’est que rien n’incite au sentiment d’appartenance parce qu’une adresse électronique c’est aussi cela. Peu d’étudiants sont en fait fiers d’appartenir à telle ou telle université française. A-ton envie d’envoyer des mails mentionnant son appartenance à une université qui vous annonce votre réussite à un examen sur un papier prêt à tomber au sol ? Et puis allons droit au but, beaucoup d’entrepreneurs apprécient autant une adresse mail qui ne vient pas rappeler les derniers mouvements sociaux qui viennent d’agiter votre université de formation.

Certes le document du CNRS mentionne le fait qu’ « Aux responsables des systèmes d’information, il est rappelé que la meilleure façon d’éviter que les utilisateurs ne soient tentés de recourir à des services externes est de fournir en interne un service de qualité. »
Seulement il est certes bon d’inciter à, mais le document demeure dans des logiques contradictoires devant concilier à la fois sécurité et innovation.

Certes Google nous file, mais que dire de l’institution qui nous fait sans cesse remplir des tonnes de dossier, nous faisant redonner sans cesse les mêmes informations. En tant que fonctionnaire, je ne compte plus les heures passées à remplir dossiers, autorisations de cumul et autres paperasseries lassantes. Qu’on ne s’étonne pas au final si on préfère passer par Google que par l’institution qui semble autant fliquante voire plus que Google sans parler de l’efficacité car il n’est pas rare que les mails ne parviennent pas à leur destinataire pour des raisons de sécurité informatique qui sont surtout autant de raison pour repousser sans cesse l’innovation. Il est évident que les informaticiens de l’université ne sont pas ceux qui travaillent chez Google. Les salaires et les compétences sont aussi différentes.
Dès lors, les recommandations ne suffisent pas et j’avais déjà mentionné ce fait à Formist l’an dernier, l’institution doit se doter de services au moins équivalents à google et compagnie. Pourquoi ne pas imaginer une adresse unique pour les fonctionnaires pouvant être couplée avec une adresse correspondant à leur emploi du moment mais qui permettrait de garder la même boîte au fil de leurs mutations ? Pourquoi limiter les espaces de stockage ? Qu’est-ce qui empêche les universités de mettre en place des services du type web 2.0 ? Certaines le font comme à Paris V.
Nous l’avons dit, la solution n’est pas que technique mais la mise en place de solutions innovantes dans le cadre de réflexions est inévitable. Il s’agit de redonner confiance dans l’institution, pour cela il ne suffit pas de recommander, il faut agir. Il faut agir en étant proactif et pas seulement par mimétisme ou adaptionisme. Confiance et sentiment d’appartenance ne sont pas non plus des vains mots et il serait temps que l’institution s’interroge sur ce plan.
Il en va de même d’ailleurs pour la signature scientifique des chercheurs. J’aurais du être chargé d’une mission de ce type pour la Bretagne, seulement les blocages institutionnels ont empêché mon arrivée à ce poste malgré une réussite à un entretien. Pas vraiment de quoi donner confiance en l’institution. Qu’on ne s’étonne pas de ce fait que je continue et que je continuerai à utiliser les services de Google en dépit des défauts que je dénonce également. Mais comme beaucoup d’internautes, j’ai parfois plus confiance en Google qui me rend bien plus de services qu’en une institution dont la tournure kafkaïenne ou ubuesque ne cesse de lasser. Et l’institution ce n’est pas seulement les dirigeants, c’est nous tous. Une critique envers une institution impalpable où nul ne serait concerné serait trop facile : nous le sommes tous.
Les enjeux sont importants à l’heure où la popularité prend le pas sur l’autorité notamment sur le web, l’institution se doit de réagir et de « proagir ». La prévention ne suffit pas. A moins que nous appartenions tous demain à une nouvelle institution…Google…

L’université de Google

Par défaut

Un mini buzz s’est produit dans la sphère des professionnels de l’information et en particulier ceux de de l’information literacy après les propos de Tara Brabazon de l’université de Brighton qui trouve les étudiants de plus en plus feignants car ils se cantonnent dans l’usage du duo Google et Wikipédia. Elle emploie donc le terme d’université de Google « university of Google » qui est également le terme de son dernier ouvrage. Ses propos tenus durant une lecture présentation de ses dernières recherches ont provoqué pas mal d’écho et notamment pas mal d’avis divergents.
Elle s’inscrit dans la lignée d’Andrew Keen qui avait employé l’expression « culte de l’amateur » mais qui avait confié à Francis Pisani qu’il n’avait pas une vision aussi figée. Pour ma part, je pense que le plus gênant, c’est le fort développement de la culture du pitre. Il en serait également de même pour Tara qui cherche surtout à enseigner l’information literacy et notamment le travail sur les sources. Il faudrait voir dans ces propos plutôt une stratégie pédagogique même s’il est certain qu’il y a également une stratégie commerciale évidente notamment au niveau de la vente de son ouvrage.
Ce qui a mis le feu aux poudres c’est les propos suivants rapportés par le journal « the argus »:
« I ban my students from using Google, Wikipedia and other websites like
that. I give them a reading list to work from and expect them to cite a
good number of them in any work they produce
. »
Scott Berkun replace l’intervention dans son contexte et montre que le bannissement n’est que stratégique et surtout provisoire. En effet, rien n’empêche un enseignant d’inciter ses élèves à chercher de manière différente et à se confronter vraiment à l’évaluation de l’information et à user d’autres stratégies pour accéder à des ressources pertinentes. Il est probable que le but de cette provocation est avant tout un plaidoyer pour la formation à un meilleur usage de l’information. Il est vrai qu’il existe un risque que cela renforte les positions conservatrices de certains, notamment de quelques bibliothécaires qui s’inscrivent contre ces nouveaux usages ce que déplore sur son blog Peter Godwin.
Je vous invite à lire sur le sujet l’article d’Edward Bilodeau que j’ai commenté sur mon nouveau blog test Et in Arcadio ego qui est en fait un lazy blog.
En guise de final, je note que justement des chercheurs britanniques ont conclu qu’il n’y avait pas véritablement de génération Google. Le programme de l’étude est ici et les premiers résultats .

Pour ma part, je songe que certes l’usage abusif de wikipédia peut-être gênant mais je note également que l’encyclopédie en ligne permet d’éviter la rencontre de sites peu pertinents. Je rejoints cependant Tara dans le fait que cela n’incite pas les élèves et étudiants à se confronter à l’analyse poussée des différents sites rencontrés. Je peux confirmer que cet exercice est très difficile pour mes collégiens qui participent à l’expérience historiae. J’en appelle à vous lecteurs d’ailleurs pour laisser des commentaires critiques, poser des questions aux rédacteurs voire indiquer d’autres pistes non exploitées sur le blog d’historiae.

 

Google se prend pour le doc

Par défaut

Je constate à l’instant à partir d’une simple requête « Jules Verne » sur Google que ce dernier se permet désormais de proposer d’ajouter le terme de biographie à la requête pour obtenir de meilleurs résultats.
Ce conseil, nous sommes plusieurs, en tant qu’enseignants-documentalistes à le donner à nos élèves depuis fort longtemps mais désormais après la correction orthographique, voilà que Google aide à l’usage des mots-clés. A moins que ce ne soit une fonction à des utilisateurs particuliers de Google, genre ceux abonnés aux divers services, mais j’en doute.
Affaire à suivre donc…

 

Google docs & doc syncer et Panorama des littératies.

Par défaut

Je teste la fonction d’inclusion des présentations du module de google docs dans un blog. Je la cherchais hier cette fonction, je découvre qu’elle est opérationnelle ce matin après lecture d’un billet de techcrunch
Désormais, Google va concurrencer slideshare et ce n’est pas rien pour moi qui doit désormais optimiser mon temps pour cause de thèse à faire avancer.
En effet, j’utilise désormais un outil fort précieux, doc syncer qui me permet de synchroniser les documents que j’utilise sur mon pc avec google docs. Cela permet des sauvegardes sécurisées en cas de problème de disque dur, et cela permet aussi de les rendre publics ou de les partager en un clic.
Finalement le disque dur ne disparait de nos pc, contrairement à ce que craignait Olivier Ertzscheid dans le Monde, mais on va plutôt vers des systèmes hybrides avec des capacités de stockages accrues inline et online. Voilà qui implique malgré tout une bonne gestion de la ligne de partage entre documents privés, documents à diffuser en accès restreint et documents à diffuser tout public. Voilà sans doute pourquoi, un ouvrage vient de sortir sur une autre littératie : la bit literacy de Mark Hurst qui est commentée ici.
La querelle nominaliste continue donc, et j’userai de mon rasoir d’Ockham à nouveau.