Retour du colloque Erté sur la culture informationnelle.

J’ai retenu du colloque lillois sur la culture informationnelle quelques points qui nous permettent de travailler sur des points de stabilité. J’ai eu le plaisir de rencontrer plusieurs personnes notamment Sheila Webber que j’avais rencontrée dans le virtuel mais pas encore dans le réel.
En premier lieu, nous sommes d’accord sur le fait de former à la distance critique. Il reste quelques points de désaccord à ce niveau. Je suis en ce sens proche d’Alexandre Serres dans ses critiques émises à la suite de la conférence de Dominique Wolton que cette distance critique ne s’avère que possible dans la prise en compte de la technique dans l’examen scientifique et la nécessité de son enseignement au niveau de la formation des élèves et des étudiants. Il ne s’agit pas de former de manière procédurale mais bel et bien de montrer quels sont les processus et les points de vue sur lesquels reposent notamment les outils actuels du web 2.0 ainsi que les moteurs de recherche type Google.
Le deuxième point qui semble faire consensus, c’est que nous sommes inscrits désormais dans une démarche de translittératie c’est à dire que nous ne pouvons penser et envisager les formations sous l’angle d’une stricte division de la formation aux médias, de la formation à l’information-documentation et de la formation à l’informatique. En effet, l’élève pris dans le maelström technico-informationnel ne peut comprendre ces distinctions tant il parvient via un seul outil à accéder à la fois à de l’information type news, à des vidéos et des extraits d’émission, le tout via des procédés techniques et informatiques qui bien souvent le dépassent et dont il ignore si ce n’est l’existence, tout au moins la complexité.
Une fois établi, ce consensus, vient les difficultés. En effet, si nous souhaitons rassembler, il demeure important de garder des distinctions entre ces disciplines. Ensuite, vient la question du dépassement des discours. Les travaux de l’Unesco, de l’IFLA et les actions internationales et européennes constituent d’évidentes avancées. Seulement, il nous semble qu’une translittératie reposant sur une culture de l’information et de la communication ne peut s’appuyer que sur des incitations, des modèles normatifs ou pire des kits ou autres dispositifs simplement « adaptionistes ».
Il ne s’agit donc pas de répondre aux théories de la société de l’information par des théories de la culture de l’information reposant sur des modalités assez similaires qui auraient d’ailleurs plutôt tendance à ressembler à une « digital literacy » mettant davantage l’accent sur la formation immédiate aux outils. Il faut également rappeler qu’historiquement le terme d’information literacy constitue un pendant de la société de l’information en considérant que l’information devient la matière première des sociétés post-industrielles.
Le problème c’est qu’au final, le discours de former tous les citoyens à ce qu’ils parviennent à utiliser au mieux leur environnement informationnel est évident. Pourtant derrière les concepts de culture de l’information demeurent des visions parfois diamétralement opposées.
C’est en ce sens que les travaux en didactique de l’information constituent des éléments intéressants du fait qu’ils nous permettent de distinguer à la fois les notions stables qui méritent d’être transmises.
C’est donc comprendre que derrière la littératie se trouve des élements stables, fortement liés à la constitution de l’humanité avec la technique, et qu’il nous faut donc penser le « trans ».
C’est donc aussi la difficulté de nos projets, face aux discours simplistes de la société de l’information, il nous faut répondre de manière patiente et complexe tout en parvenant à élaborer des formations adéquates et adaptées.
J’ai moi-même quelque peu amorcé concrètement cette visée avec la mise à disposition de séances que j’ai effectuées avec mes sixièmes sur Lilit & Circé. Ces fiches comme celles publiées par d’autres collègues ne sont pas à suivre à la lettre mais cherchent au travers de situations-problèmes à faire acquérir des notions notamment info-documentaires.
Les enseignants et les formateurs ont besoin de sources et de fiches qu’ils peuvent se réapproprier plutôt que de kits.
Il demeure toujours le problème politique de la réelle mise en place de ces formations qui n’ont lieu sur le terrain qu’au prix de bricolage…voire de négociations ce qui ne peuvent être sastisfaisants.
Je reste pour ma part pour une redistribution des cartes et un new-deal disciplinaire qui permettraient la mise en place de ces enseignements en souhaitant qu’ils reposent sur des stratégies pédagogiques et didactiques qui ne soient pas purement magistrales. La culture de l’information n’a de sens d’ailleurs que dans un fin dosage de pratique et de théorique s’autoalimentant.
Mon intervention s’intitulait bouillon de cultures : la culture de l’information est-elle un concept international ?
Je n’ai plus qu’à souhaiter que ça continue à bouillonner et que cela émerge non pas sur une soupe en kit mais sur des processus d’appropriations et des milieux associés.
Pour cela, il nous faut sans doute ne pas demeurer trop sur notre « Lille » mais continuer à aller de l’avant sans quoi nous finirons par faire de la chanson de JM Caradec notre hymne.

Web 2.0 et web sémantico-social

La sempiternelle ritournelle recommence, ceci tuera cela : le livre tuera l’édifice, le web 2.0 est mort. Je m’étais demandé durant l’été si la blogosphère n’était pas en train de s’essouffler ce qui me semblait être un peu le cas d’autant que je pressentais que ce n’était qu’un repos pour l’expression d’une envie de nouveautés. Ainsi, il semble que nous soyons rentrés dans un état de volonté de renouveau incessant comme si la stabilité, la routine constituerait une menace de notre intégrité physique et intellectuelle.
Le web 2.0 est en place, mais il l’est depuis déjà trop longtemps pour les pionniers, alors il faut encore bouger pour demeurer tout le temps en avance (en avance sur qui ou quoi d’ailleurs ?) Pour cela, il faut tuer l’ancienne créature pour en faire émerger une nouvelle qu’on appellera web 3.O, bidulemegafun, superchébran peu importe. Etrangement donc dans le petit monde du web, le désir d’instabilité semble être la règle et j’avoue parfois subir ce sentiment auquel il faut résister.
C’est un des dangers que cet état d’esprit devienne celui du web car il peut s’avérer au contraire anti-évolution et peut même empêcher la concrétisation technique. D’autre part, il peut également empêcher notre individuation ainsi que la stabilité de nos processus de veille et de collaboration.
L’individuation technique a besoin de stabilités tout au moins conceptuelles pour pouvoir évoluer et permettre l’expression et la poursuite de potentialités. Il en va de même pour nos individualités.
Cela signifie qu’il faut prêter attention à ce que le marketing ne vienne pas une nouvelle fois court-circuité les relations que nous construisons via les nouveaux hypomnemata des dispositifs sociaux plus communément nommés outils du web2.0.
Le web 2.O n’est donc pas mort. Certains rétorqueront probablement avec raison qu’il n’a probablement pas existé mais nous ne saurions accepter l’argument tout aussi fallacieux du nihil novi sub sole.
Je dois néanmoins admettre que j’observe des évolutions et la concrétisation de potentialités. La plus importante selon moi est celle de la construction de systèmes sémantico-sociaaux. Il devient de plus en plus difficile de parler seulement de web, cela paraît désormais trop restrictif et a fini par dissimuler pour beaucoup d’usagers et notamment chez les prétendus digital natives, la réalité technique des réseaux . L’apparition de l’expression de cloud computing ou d’informatique dans les nuages traduit bien ce sentiment de transmission de l’information de manière quasi éthérée voire magique. S’il n’en est rien  dans l’esprit des concepteurs de tels architectures, la confusion se développe dans l’esprit de l’usager lambda.
Et nous sommes ici tentés de reprendre l’analyse médiologique qui considère que le meilleur média se fait oublier. Il semble que les technologies de l’Internet parviennent de plus en plus à réussir ce tour de force.
Les infrastructures techniques vont devoir toujours demander des moyens financiers quant à leur développement et leur maintien. Reste à savoir qui sera chargé de sa prise en charge tant c’est le fait de proposer des services qui s’avère le plus rentable.
L’autre question est donc de savoir de quel type de solution sémantico-sociale nous voulons. Deux alternatives nous sont proposées :
– La première est une vision orientée usager en tant que consommateur et client. Cette dernière cherche donc à indexer surtout les activités et les goûts de l’usager pour mieux capter son attention et le manipuler. Pour cela, l’idéal est de le maintenir en état de frustration permanente. On apporte toujours de la nouveauté, on incite sans cesse à s’équiper et on change de nom….au web 2.0 par exemple. On ne laisse pas le temps à l’usager devenu captif de prendre les devants et de se construire psychiquement et intellectuellement ainsi que collectivement.
– L’autre solution nécessite une vision moins positiviste des techniques du web sémantique et notamment une vision moins objectiviste à la fois de l’information et de l’individu. Il s’agit ici de parvenir à ajouter de la valeur (de la valeur esprit?) à nos actions et aux documents présents sur les réseaux. Cela nécessite donc des stratégies de collaboration, des passerelles entre amateurs et professionnels, entre professeurs et élèves, entre dirigeants et dirigés. L’usager ici est plus le citoyen qui cherche à devenir majeur c’est à dire à sortir de son état de minorité dans lequel les industries de programme ou autres types de domination symbolique et physique tendent à l’y cloisonner. Ici nous retrouvons donc la réflexion de Stiegler autour des milieux associés par rapport aux milieux dissociés de la première alternative.
Evidemment, je souhaite que ce soit la deuxième solution qui ne l’emporte mais ce n’est chose aisée d’autant qu’il n’est pas évident de clairement distinguer les deux alternatives..
La bataille de l’intelligence commence, à nous tous d’y prendre part et surtout de prendre soin.

Face au négationnisme documentaire ?

Les récents propos d’un recteur de Lille rapporté sur les listes professionnelles des documentalistes ne font que nous rappeler sans cesse l’importance du travail sur les représentations qu’il reste à faire :
Il n’est pas choquant de voir des collègues affectés dans ces fonctions. La documentation n’est pas une discipline …. au sens universitaire, il n’y a pas de recherches en documentation. Toute personne est capable de faire fonctionner un CDI. Ces enseignants ne sont certes pas des documentalistes mais ils sont capables de mettre en place des actions et d’organiser ce lieu.
Outre le fait que ces propos relèvent de fortes ignorances, il convient évidemment de réagir mais surtout de comprendre.
Le plus gênant, ce n’est pas seulement le reniement du capes de documentation, c’est le refus de caractère scientifique de la documentation et au travers elles des sciences de l’information et de la communication.
Au final, il en ressort toujours une difficulté à comprendre la documentation et derrière elle la notion de document et ses multiples potentialités : archéologiques et historiques, éducatifs et sa valeur d’établissement de preuve (juridique)
Que de telles déclarations viennent du plus haut de l’institution ne peut qu’accentuer le décalage qui au final fait que nous n’avons plus confiance en nos hiérarchies parce qu’elles sont décalées et que leur management est clairement hors-jeu. Ne nous étonnons donc pas de tels propos qui souvent ne font que refléter des pensées clairement datées et qui n’ont pas su évoluer…mais qui sont fortement partagées. Finalement ce recteur n’est pas le seul à penser ainsi.
Tout cela résulte d’une idéologie informationnelle dont il semble difficile de se départir et  qui explique le succès des théories de la société de l’information.
Ces dernières placent notamment la matière « information » comme devenant primordiale et remplaçant la matière première des sociétés industrielles si nous suivons les analyses de Daniel Bell et celles de Manuel Castells. Au final, en parallèle des travaux de recherche et des travaux de mise en place de la documentation que Sylvie Fayet-Scribe avait analysé en notant l’émergence d’une culture de l’information notamment durant la période où exerçait Paul Otlet, se développe une autre culture de l’information : celle dont les proximités avec les théories de la société de l’information sont évidentes. Cette autre culture de l’information s’inscrit dans une lignée prétendue non-idéologique et s’est développée, selon Eric Segal qui a étudié l’histoire de la notion d’information, à partir d’un terreau formé notamment par la théorie du signal de Shannon et par les interprétations des travaux de Norbert Wiener. Il en résulte une pensée de l’information qui ne prend pas en compte sa dimension sociale et qui oublie les processus de normes et de formes à l’œuvre dans l’information et la documentation.
Peut-on  alors reprocher à un recteur de ne pas saisir ce que c’est que la documentation quand beaucoup de  discours politiques et médiatiques reposent sur ces visions? Quelque part, la document souffre de ces divisions entre nature et culture, entre sciences dures et sciences molles, entre méthodes classiques d’apprentissage et nouvelles méthodes. Elle est pleinement au cœur de ces tensions et ces héritages mal assumés qui empêchent le succès de sa transmission et la mise en place d’une culture de l’information et de la communication.
Le négationnisme documentaire n’est qu’une conséquence d’une idéologie qui en voulant trop montrer les défauts des processus a fini par être victime de sa propre idéologie. Le dernier ’article de Francis Fukuyama explique bien les causes de ce processus dérégulateur. Cette volonté de sans cesse faire table rase démontre une incapacité de prêter attention, de prendre soin de l’autre, une incapacité de penser cela, de s’inscrire dans des processus plus longs, celui des constructions. C’est donc hélas sans surprise que certains parlent actuellement de la mort d’un web 2.0 dont le rasoir d’Ockham nous aurait dit qu’il n’a jamais existé. Tout cela ne fait que démontrer la nécessité de la documentation à la fois comme champ de recherche et enseignement au travers de la recherche de stabilités qui permettent de générer de nouvelles potentialités permettant les individuations psychiques et collectives ainsi que techniques. Mettre en avant des stabilités permet d’anticiper et d’être acteurs de changements éventuels, evidemment cela relève de pensées plus complexes que celles qui circulent sur d’hypothétiques autoroutes de l’information.
Pour conclure, il faut vraiment que ce recteur vienne au colloque de l’Erté sur la culture informationnelle…cela tombe bien cela se déroule justement dans son académie.

La mesure de la blogosphère

A quelques jours de la publication du nouveau classement wikio que j’ai plusieurs fois critiqué mais dont il est toujours intéressant d’examiner le fonctionnement surtout depuis que  le TALentueux Jean Véronis a pris la tête de la machine, il est opportun de s’interroger à nouveau sur la mesure de l’Internet et notamment du web et des réseaux sociaux. On peut toujours critiquer les classements type wikio,  mais il est  absolument nécessaire que des outils de mesure soient développés pour le web. Il serait donc opportun aussi de développer de nouvelles mesures « blogométriques ». L’idéal serait d’avoir des mesures davantage scientifiques qui ne visent pas seulement à des classements d’influence ou d’audience. D’ailleurs, il serait également souhaible que le classement qui se veut désormais plus rigoureux avec des règles connues évolue et ne prenne pas en compte que les rétroliens provenant de blogs. Il y a là un point gênant, un blog populaire se voit doté d’un poids supérieur à un site institutionnel qui n’est d’ailleurs pas pris en compte. Tout aussi gênant qu’impensable pour des classements de blogs scientifiques ou professionnels. Mais il y a encore d’autres types de mesures à effectuer sur des corpus précis et je déplore que nous n’ayons plus d’études ambitieuses comme celle qui avait abouti à la théorie de noeud papillon. A quoi ressemble le Web? J’aimerais bien découvrir de nouveaux graphes en la matière.
Plus ça va, plus les mesures sont effectuées de manière automatisée sur des échantillons restreints. Il est ainsi possible d’obtenir des visualisations de son propre réseau social. Mais il serait intéressant d’en avoir d’autres sur des aspects plus collectifs.
Il y a donc des sphères énormes de travail et des tas de corpus à examiner.
Je ne peux donc que saluer les initiatives des cartographes du web, de la blogosphère et des réseaux sociaux.
Je conseille donc le  récent travail de claude Aschenbrenner avec sa carte de blogs sous la forme de celle du réseau du métro parisien. Ce dernier travaille d’ailleurs depuis longtemps dans ce domaine et il nous donne même sa manière de faire. Dans le prolongement, il est opportun de rappeler que les annales du colloque carto 2.0 sont disponibles et qu’il constitue un bon moyen de découvrir de nouveaux territoires. Vous découvrirez également des acteurs incontournables en ce qui concerne ces domaines.
La visualisation de l’information constitue un moyen de nous fournir des réprésentations qui améliorent notre compréhension. Le nouvel essor de la cartographie de l’information est une bonne nouvelle après le semi-échec de la cybergéographie et notamment de l’atlas de cybergéographie de Dodge qui n’est plus mis à jour.
C’est aussi l’occasion de s’interroger sur les projets de mesure totale de l’Internet et du web qui semblent désormais être oubliés tant la tâche semble impossible. Pas de pantométrie donc si ce n’est avec l’hybris de Google. Il est vrai que les propos de l’auteur de SF, Laurent Généfort s’inscrivent ici dans la lignée de Borgès :

•« Le pouvoir sur l’intégralité du Rézo(…)Le zéro, on l’appelle. Beaucoup de pirates ont caressé ce rêve, mais le Rézo échappe à toute appréhension globale. Vous connaissez la maxime : pour connaître l’univers, il faut un ordinateur de la taille de l’univers. » [1]
Un peu de modestie et de mesure dans les deux sens du terme et un peu de recul aussi pour nous autres tenants de l’amélioration des bibliothèques et autres prophètes des bibliothèques 2.0, voici une bibliothèque qu’il sera difficile d ‘égaler :

Vous trouverez plus de renseignements et de photos sur le site de wired magazine qui consacre un article à cette étonnante bibliothèque, oeuvre d’art, cabinet de curiosité, haut lieu de l’humanisme.
[1]  Laurent Genefort. Rezo. Paris : fleuve noir. 1999 SF métal n°63
update : Eric Dupin signale un travail de cartographie intéressant.