Des communautés de pratiques aux communautés d’initiés : les digerati aux responsabilités ?

Plusieurs voix s’élèvent depuis quelques temps sur les listes de diffusion qui deviennent de plus en plus source d’infopollution et notamment celle de Bertrand Calenge. J’avoue que j’y participe de moins en moins et que je considère désormais que l’échange d’information s’effectue surtout ailleurs et de manière plus efficace et pertinente.
Les flux rss répondent en grande partie au besoin de veille informationnelle en évitant une partie d’infopollution même s’il en demeure notamment du point de vue de l’infoabondance.
D’autre part, j’ai le sentiment que se sont mises en place des communautés d’initiés réunissant des blogueurs et force est de constater la puissante présence des sciences de l’information, des bibliothèques et de la documentation dans ces réseaux. Les informations y circulent par messagerie mais aussi par système de recommandation via google reader ou via partage de signets en ligne tels diigo ou delicious voire encore ma.gnolia.
La bonne nouvelle c’est que la médiation est essentiellement humaine en témoigne d’ailleurs le projet des fous à lier.
Tout cela montre que les communautés de pratique demeurent utiles et que les listes de diffusion doivent continuer à jouer ce rôle de partage et de débats.
Mais il est évident que pour certains « digerati » ces modes apparaissent si ce n’est quelque peu désuet, certainement insuffisants. Au passage, il faut rappeler que les réseaux sociaux ne résident pas seulement sur des outils mais leur succès ne tient qu’à la cohésion et cohérence de la communauté.
Mais ce constat ne s’applique pas qu’aux listes de diffusion mais à la plupart des médias traditionnels. Je songe évidemment à la télévision mais également aux journaux et hebdomadaires avec sans cesse les mêmes chroniqueurs qu’il y a 10 ou 20 ans. Rien ne ressemble plus à un nouvel observateur d’il y a 10 ans qu’un nouvel observateur de cette semaine. Mais le nouvel obs n’est qu’un exemple parmi d’autres. Un terrible sentiment d’à côté de la plaque et que le vide n’est finalement pas vraiment du côté de la blogosphère mais du côté de ceux qui en sont restés aux anciens modèles et qui à défaut de pouvoir penser l’évolution et la technique dans de nouveaux milieux associés préfèrent célébrer le passé par ailleurs mythifié plutôt que d’aller de l’avant.
Comment dans un tel cadre, les jeunes générations peuvent elles avoir de l’espoir ?
Il est grandement temps d’un changement de décor et notamment de décorateurs : comment peut-on encore continuer à confier notre avenir à des personnes incapables de le penser si ce n’est à l’aune d’un passé par ailleurs fort restreint.
Il faut donc continuer à travailler et contribuer à bâtir des réseaux associés qui nous permettent d’apprendre des uns et des autres.

Second life en trans

Il ne s’agit pas de translittératie mais de transmusicales.
En clair, durant les transmusicales de Rennes va se dérouler plusieurs concerts en simultané avec des concerts « in real life »
Les places sont limitées mais vous pouvez encore vous inscrire.
L’évènement est organisée notamment par des membres et bénévoles de la bibliothèque francophone et en l’occurence Hugobiwan Zolnir. Je retranscris donc les détails de l’évènement :
Après le concert réel virtuel organisé en 2007 dans Second Life, la ville de Rennes et les Transmusicales mettent la barre plus haut en nous proposant cette année 3 concerts d’affilée pendant lesquels les avatars seront videoprojetés live sur écran géant. Il y aura aussi « in real life » un espace expérimental de réalité mixte pour faire découvrir les mondes virtuels « sans clavier ni souris » au grand public.
Attention la jauge est limitée à 60 places par concert et les réservations se font en commentant des billets ici : avis aux amateurs 😉

C’est l’occasion également de découvrir ou de redécouvrir les initiatives de la bibliothèque francophone. Pour vous téléporter sur la bibliothèque francophone de Second Life c’est par ici.


Hugobiwan Zolnir :

Le Ka documentarisé et la culture de l’information

De retour du colloque Doc Soc 2008 intitulé : Traitements et pratiques documentaires : vers un changement de paradigme ?, je mets en ligne le diaporama de mon intervention.
J’ai pu rencontrer plusieurs personnes intéressantes durant le colloque dont les actes sont publiés par l’Adbs.
Merci à bibliobsession de m’avoir fait remarquer la faute sur ma dernière diapositive.

Facebook ou le miroir de nos masques

Facebook demeure toujours autant source de critiques et d’inquiétudes sur son modèle financier. J’avais raconté il y a quelques mois que j’observais l’arrivée massive de nouvelles générations sur la plateforme notamment avec les demandes de mes anciens élèves. J’avais décidé d’accepter ces demandes de contact en créant un profil élèves. Force est de remarquer après quelques temps qu’il s’agit d’un véritable intérêt pour un observateur des réseaux sociaux et ce d’autant plus lorsqu’il s’agit de ces anciens élèves. Scientifiquement, facebook permet de mesurer des usages et des évolutions de manière parfois plus fines et efficaces que ne le ferait une simple enquête statistique ou quelques entretiens menés d’ici de là auprès d’élèves ou étudiants. Outre que Facebook pourrait permettre de réaliser une forme active de suivi des cohortes : c’est-à-dire répondre à la question que se pose bon nombre d’enseignants à propos de leurs anciens élèves : que sont-ils devenus?
La première observation qui apparait sur mes anciens élèves, c’est que leurs stratégies sont purement inscrites dans l’instantané. Il n’y a que rarement des projections dans le futur. Cela explique sans doute pourquoi tout est facilement accessible, ils ne connaissent pas les profils limités, les photos des amis des amis sont ainsi sans cesse disponibles, etc. Certaines habitudes émanant de la skyblogsphère sont importées notamment en ce qui concerne les commentaires sur les photos publiées. On retrouve les mêmes phrases du genre « je t’adore, t’es trop belle« , etc voire tout simplement « j’taime » quand il s’agit de commenter la photo du fiancé du moment. A aucun instant, il n’y a conscience de la trace. Cette inconscience du futur se voir également chez un ancien des mes élèves qui prend plaisir à réaliser exactement tout ce qu’il faut éviter de faire sur un réseau social. Il remplit régulièrement ses états pour démontrer aux autres qu’il est décidément un gars cool et qui ne s’en fait pas. Dernièrement, son état mentionnait qu’il s’était enfin décidé à faire ses devoirs…mais qu’il ne savait pas encore quand. Cette volonté humoristique va de pair avec l’état précédent qui mentionnait « a encore pris sa race comme d’habitude », tout cela allant de pair avec la participation à des groupes thématiques ventant les mérites de l’alcoolisme ou de tout type d’apéritifs. Pourtant ce garçon sera bientôt dans quelques années sur le marché du travail. Mais sur ce point, il est comme beaucoup à ne pas trop y penser. En effet, nombreux sont ceux qui s’en moquent et démontrent par cette volonté festive, souvent alcoolisée et que l’on rencontre certains jeudis soir dans les villes étudiantes ne sont le reflet que d’une terrible évidence : dans le futur, seul le pire n’est pas décevant pour paraphraser une expression d’un film de Lelouch.
Tous ces états, ces mentions d’activités sont bien souvent des mises en scène et ce d’autant plus pour les jeunes générations qui doivent, tout en demeurant dans une forme de mimétisme, faire apparaitre leur différence. Pour autant, ces masques sont surtout des miroirs. Le masque ne dissimule pas, il révèle encore plus et cela est d’autant plus vrai sur Facebook et sur les profils de mes anciens élèves. Mais ce ne sont pas les seuls concernés, que dire de celle qui change sa photo de profil pour apparaitre plus à son avantage peu après avoir inscrit qu’elle en avait marre du célibat.
Alors que faire face à toutes ces diverses observations et tendances à l’oeuvre? Une réponse qui peut paraitre terrible c’est que désormais notre rôle d’enseignant ne peut non seulement se borner à la classe et qu’il doit s’ouvrir en dehors des temps de cours mais que ce rôle n’est pas nécessairement borné à la sacrosainte-sainte année scolaire. Un ancien élève qui souhaite vous garder en contact, vous témoigne une forme de confiance. Et la confiance appelle donc au conseil. Faut-il se résoudre à demeurer parfois professeur-documentaliste virtuel comme ce fut mon cas mercredi soir en dépannant une ancienne élève confronté à quelques difficultés plutôt de type informatique ce qui a eu pour effet qu’elle mentionne sur son état « sauvé par maitre Yoda » Je ne sais pas mais je note que cela nous ramène du bon côté de la force.

Remarques sur le rapport Assouline

Il y a des éléments fortement intéressants dans le rapport Assouline. Certes, on déplorera le choix d’emblée de commencer par des propositions négatives (et peu convaincantes ?) dans le genre interdiction des webcams dans les messageries instantanées. J’ai toujours la crainte que ça ne finisse par cacher le reste.
La première partie tente de faire le point sur les relations entre les jeunes générations et les technologies de l’information. Le rapport reste parfois sur des lieux communs qui ne permettent pas toujours de bien saisir la complexité de la situation. Il aurait été opportun de retrouver en plus quelques analyses d’ars industrialis mais il est vrai que l’exhaustivité en la matière est impossible. Néanmoins, le rapport cite quelques sources fiables notamment celles de Mimi Ito entre autres. Nous pouvons aussi remarquer que l’importance des enseignants-documentalistes a été bien perçue et qu’outre évidemment le Clemi, la Fadben, Pascal Duplessis et Jean Louis Durpaire sont cités. Le rapport parait donc assez équilibré et propose des pistes concrètes.
Quelques constats semblent consensuels et nous ne pouvons que les partager :
Alors que les jeunes jouissent d’une réelle liberté grâce à leur maîtrise des nouvelles technologies, l’absence frappante de la famille et de l’école les laisse abandonnés, sans repères, dans un monde multimédiatique omniprésent. A cet égard, les autorités ont donc un rôle d’émancipation à jouer afin de libérer les jeunes en leur donnant un regard critique et distancié sur leurs pratiques.
Une culture de l’information biaisée :
L’expression est donc employée dans le rapport et montre que cette culture de l’information des jeunes générations comporte des lacunes :
Les jeunes n’ont pas forcément conscience que les conditions de production de l’information, le support ou le canal de diffusion ne sont pas neutres sur Internet et qu’ils conditionnent la forme des messages, induisent une série de choix et donc surdéterminent leur contenu.
C’est donc fort logiquement que le rapporteur en arrive à cette conclusion :
Ce qu’il faut donc, en France, c’est une éducation aux médias qui soit un enseignement à l’analyse critique de l’image
Nous ne pouvons que partager cette nécessité de distance critique à enseigner. Les problèmes liés à la formation (et donc à la déformation) par les images notamment de la télévision et de l’ensemble des médias sont décrits :
Il est également sociétal en ce que les images façonnent la représentation que l’enfant se fait du monde : surévaluation de la violence dans la réalité, vision négative de l’avenir, tolérance plus grande à l’égard de comportements agressifs et sexistes.
Ici, nous serions tentés de dire que cela ne concerne pas que les jeunes et que les plus grandes victimes des médias sont de loin les plus âgées…Certes ce n’était pas l’objectif du rapport, mais la méconnaissance des médias des générations qui restent scotchés devant leur télé et qui sont ainsi objets de manipulation est un point qui est trop souvent oublié selon nous. Or ce sont les parents et les grands-parents de nos élèves et de nos étudiants…ce qui explique l’inconsistance de la transmission dans ces domaines. Nous serions tentés de dire que l’état de minorité face aux médias ne concerne pas que les jeunes générations.
Le rapport propose de prolonger les étiquetages et les labels sur tous les médias. Si l’idée de label et d’autres moyens de distinction positive peuvent être encouragés, je ne suis pas convaincu par les stratégies d’interdiction comme à la télévision. Je crains qu’à l’inverse, le fait d’interdire aux moins de 18, 16 ou 12 ans ne produit qu’un effet de séduction renforcée, fortement courant chez les adolescents. Le rapport n’est pas naif et est conscient qu’il existe des moyens d’échanges qui échappent aux filtres. Sur ces questions de pornographie, de violence et autres désinformations, il nous semble que le problème est d’abord est extérieur à l’Internet : où et qui sont les pédophiles (qui sévissent plus souvent d’ailleurs au sein des familles ce qu’oublie Action Innocence)
Internet n’est donc pas la seule donnée à prendre en compte dans ces questions.
Le rôle des professeurs-documentalistes dans l’Education aux médias
Assouline souligne que désormais cette prise en compte des nouveaux médias ne peut résider dans les mêmes apprentissages qui s’effectuent depuis des décennies. C’est une critique à l’immobilisme de l’Education Nationale ou tout au moins à l’incapacité à réellement éduquer par et avec les médias :
La question qui se pose dès lors est de savoir si l’esprit critique développé par l’analyse de texte peut s’exercer sur les nouveaux médias. Votre rapporteur ne le pense pas. Convaincu de l’intérêt d’un enseignement spécifique à la compréhension des médias contemporains, il a établi un état des lieux de l’éducation aux médias puis dégagé quelques pistes de modernisation.
Institutionnellement, David Assouline propose donc de clairement de revaloriser le métier de professeur-documentaliste :
Le rapport recommande la rédaction d’une nouvelle circulaire de définition du métier de documentaliste.
– il appelle en premier lieu à une revalorisation forte du métier de professeur documentaliste qui passe par l’attribution claire de responsabilités en matière d’éducation aux médias1. La Fédération des enseignants documentalistes de l’Éducation nationale (FABDEN) propose à cet égard la mise en place de modules spécifiques à l’éducation aux médias confiés aux documentalistes, ce que souhaite également votre rapporteur
Comme le préconise le rapport de l’IGEN, votre rapporteur milite pour qu’un temps et un espace bien identifiés soient définis pour cet enseignement, au moins pour les années de collèges. Sur deux niveaux de classe choisis au collège, une dizaine d’heures annualisées d’éducation aux médias en demi-groupe seraient ainsi prévue. Cette initiative permettrait notamment de mettre en valeur la capacité des élèves à créer un discours médiatique, et pourrait s’intégrer dans un projet d’accompagnement à la semaine de la presse. Ce projet associerait obligatoirement des professeurs de plusieurs matières, le lieu serait le CDI et l’animateur principal en serait le professeur documentaliste.
Cela impose d’inscrire l’éducation aux médias en tant que telle dans les missions des documentalistes.

Il demeure l’idée française que l’éducation et le service public peuvent éduquer via la télévision :
Dans le cadre de la réforme de France Télévisions, votre rapporteur souhaite que soit imposée une émission sur le décryptage des images, non pas seulement dans le cahier des charges de France 5, mais aussi dans celui de France 2.
Il semble quand même que dans ce domaine, une tendance se dégage avec des services comme lesite.tv, france5éducation ou Ina.fr
Au final, il en ressort donc la nécessité d’une nouvelle circulaire des professeurs-documentalistes qui prenne en compte clairement l’éducation aux médias. En ces temps de masterisation, voilà qui sera un objet de négociation à mettre en place dans les mois qui viennent.
Il s’agira ensuite de travailler à une didactique de cette « translittératie » qui soit un moyen de sortir de la logique du B2I dont le rapporteur a noté les nombreuses critiques qui lui sont faites.
Nous notons que ce rapport a le mérite d’insister sur la revalorisation institutionnelle du métier de professeur-documentaliste et constitue un premier texte de confiance entre élus et professionnels. Le rapport met donc également en avant la nécessité intergénérationnelle.
Evidemment, il n’est pas parfait mais qui pourrait prétendre réaliser un rapport parfait sur la question de l’éducation aux médias ?
Il ne reste plus qu’à attendre les faits concrets au niveau institutionnel et à continuer nos travaux en la matière, aussi bien sur les plans de la recherche, qu’au niveau pédagogique et tous les jours sur le terrain avec les élèves.

Evaluer ou pas ?

La récente controverse au sujet des évaluations bibliométriques établies par l’Aeres finit par me déranger sur plusieurs points ce qui explique sans doute le fait que je n’ai pas signé la pétition. Le premier point gênant c’est le risque de voir la bibliométrie et la scientométrie comme des méthodes statistiques bêtes et aveugles qui ne seraient pas dignes d’interêt. J’ai la désagréable impression que certains chercheurs découvrent même l’existence de la bibliométrie et de la scientométrie qui sont des secteurs qui intéressent fortement les chercheurs en information communication et également les professionnels de la documentation. Plusieurs ouvrages intéressants sont parus sur le sujet et je mentionne régulièrement ces secteurs et travaux à mes étudiants. Un bon point de réflexion de départ sur le sujet est le numéro (collector?) de Solaris n°2 dont les archives sont toujours en ligne.
Les mesures scientométriques, bibliométriques voire nétométriques sont utiles et intéressantes. Cela ne signifie pas que leurs méthodes ne doivent pas être discutées au contraire puisque c’est au sein des débats que ces domaines peuvent progresser.
De la même manière, la bibliométrie répond à des impératifs professionnels fort utiles d’autant plus  si on leur ajoute une analyse sociale. Je cite ici un extrait de  l’article de Jean Max Noyer extrait du numéro de Solaris qu’il a coordonné et  qui rapelle la définition de la bibliométrie :
« Je rappelle donc brièvement, à partir de la définition de A. Pritchard, ce que l’on entend par « Bibliométrie », à savoir : l’ensemble des méthodes et techniques quantitatives — de type mathématiques / statistiques — susceptibles d’aider à la gestion des bibliothèques et d’une manière très générale des divers organismes ayant à traiter de l’information. Dit d’une autre façon, les outils statistiques utilisés par la Bibliométrie visent avant tout à élaborer des indicateurs concernant les outputs (publications) des diverses pratiques de recherche. Ce qui est visé : la classification, les fréquences et les types de distribution… bref, tout ce qui peut permettre d’aider à définir par exemple de nouvelles stratégies en matière d’acquisition, de mise à jour, de gestion des bibliothèques ou des bases de données. La Bibliométrie engendre donc des indicateurs d’activités qui ne nous renseignent guère sur les pratiques, les usages, les modes de problématisations à partir desquels les dispositifs de la science et de la technique se donnent comme pouvant être pensés, au moins en partie.  »
Il s’agit donc de signaler de suite qu’une évaluation uniquement statistique est insuffisante et qu’il faut donc lui adjoindre d’autres méthodes d’analyses.Je ne suis donc pas opposé à des mesures scientométriques au niveau des chercheurs à condition que toutes les démarches d’évaluation soient prises en compte. Ces démarches font partie de la science et même à un petit niveau en utilisant le logiciel Harzing. Publish or Perish, il est possible d’effectuer quelques mesures notamment pour un thème précis. Il faut toutefois relativiser les résultats car ils sont basés sur Google Scholar qui n’est pas rigoureux.
Je ne suis donc pas non plus de l’avis-que j’ai entendu- que toutes les recherches sont équi-valentes. Il ne s’agit pas de tomber pour autant dans le débat entre le bons et le mauvais chercheur…j’imagine déjà le parallèle avec le sketch des inconnus sur les chasseurs : le bon chercheur il publie mais le mauvais chercheur il publie aussi…)  C’est contraire à l’esprit scientifique qui vise à convaincre soit à priori par les mécanismes de sélection dans les revues avec évaluation par les pairs, soit a posteriori par les citations par les articles d’autres chercheurs. De la même manière, individuellement chaque chercheur sait qu’il a mieux réussi tel ou tel article ou telle communication. De même, certains concepts ou applications connaissent plus de succès et la scientométrie associée à des méthodes telles les co-occurences et les méthodes de Latour et Callon, nous sont utiles pour tenter d’analyser ces processus.
Alors toute démarche d’évaluation n’est pas nécessairement à rejeter. Il est vrai que cela doit se faire de manière la plus transparente possible : il nous faut connaître les règles du jeux à l’inverse du page rank de Google.
Je signalerai déjà sur ce point que selon moi, ces critères doivent être pensés au sein des disciplines mais également de manière inter-disciplinaire.
D’autre part, évaluer ne doit pas sans cesse signifier sanctionner mais conférer de la valeur. C’est tout l’intérêt de l’évaluation et étymologiquement, c’est cette action de conférer de la valeur qui nous intéresse. L’évaluation doit être un processus de valorisation à la fois de l’auteur, de l’article, du laboratoire, de l’université, etc. Evidemment derrière il y a le spectre de la compétition avec ses dérives : le risque du publish or perish, l’augmentation du nombre de publications et de revues ainsi que le choix de privilégier des secteurs permettant d’obtenir de meilleurs indicateurs. Voilà pourquoi, il faut parvenir à une analyse sociale et humaine des résultats.
Il ne s’agit donc pas de refuser tout type d’évaluation mais au contraire d’en créer de nouvelles. Et ce qui doit être évalué est assez large et dépasse les critères du classement de shangai. De même l’évaluation répond à un besoin : celui du regard extérieur et de la critique. Sans les remarques, les critiques et les suggestions, quel intérêt ? L’évaluation prend donc en compte clairement la relation auteur-lecteur et leur co-construction qui nous oblige à ne pas se penser comme un auteur séparé et comme milieu d’idées spontanées.
Une fois de plus, il s’agit aussi de rappeler que le chercheur doit être un communiquant. Un chercheur ou un enseignant-chercheur qui ne produit ni textes ni communications ne peut être considéré comme un chercheur.  Ce travail de communication est à la base de la science en action. En effet qu’importe un travail génialissime si nous n’en avons pas de trace…documentaire.
Or le second point qui me gêne également parfois dans le rejet de l’évaluation, c’est que certains enseignants-chercheurs publient peu ou pas alors qu’ils sont rémunérés pour et que ce refus d’évaluation sous des discours généraux ne cachent que des défenses d’intérêt personnel. J’ai la sensation qu’à vouloir tout refuser en bloc, nous allons finir par avoir une solution qui n’aura pas été négociée et donc améliorée…et qui pèsera  sur les nouveaux recrutés.
Autre point d’importance qu’il faut aussi rappeler, c’est que l’évaluation ne peut provenir uniquement que de la sphère scientifique. Elle vient également selon les domaines, des communautés de professionnels, des usagers, des amateurs éclairés, des citoyens…et des étudiants. Ici, je souligne le fait que je reste convaincu que l’alliance enseignement et recherche est un atout précieux pour ce que nous avons à transmettre aux étudiants et qu’une trop nette division entre enseignants et chercheurs n’est pas profitable. L’évaluation doit donc être à la fois effectuée sous des formes de pairs à pairs mais rien n’interdit de lui adjoindre d’autres moyens d’observation à condition toutefois de ne pas dériver de l’autorité à la popularité.
La question est donc complexe et il nous faut donc penser l’évaluation en prenant en compte également l’e-science, les cyberinfrastructures et toute une série d’éléments possibles. Quel part accorder aux document sur les archives ouvertes ? Que penser notamment des activités de blog scientifique, comment l’évaluer et lui conférer une valeur pour le chercheur surtout quand il s’agit parfois d’heures considérables de travail comme dans le cas d’affordance.info
Alors valorisons la recherche.

Retour du colloque Erté sur la culture informationnelle.

J’ai retenu du colloque lillois sur la culture informationnelle quelques points qui nous permettent de travailler sur des points de stabilité. J’ai eu le plaisir de rencontrer plusieurs personnes notamment Sheila Webber que j’avais rencontrée dans le virtuel mais pas encore dans le réel.
En premier lieu, nous sommes d’accord sur le fait de former à la distance critique. Il reste quelques points de désaccord à ce niveau. Je suis en ce sens proche d’Alexandre Serres dans ses critiques émises à la suite de la conférence de Dominique Wolton que cette distance critique ne s’avère que possible dans la prise en compte de la technique dans l’examen scientifique et la nécessité de son enseignement au niveau de la formation des élèves et des étudiants. Il ne s’agit pas de former de manière procédurale mais bel et bien de montrer quels sont les processus et les points de vue sur lesquels reposent notamment les outils actuels du web 2.0 ainsi que les moteurs de recherche type Google.
Le deuxième point qui semble faire consensus, c’est que nous sommes inscrits désormais dans une démarche de translittératie c’est à dire que nous ne pouvons penser et envisager les formations sous l’angle d’une stricte division de la formation aux médias, de la formation à l’information-documentation et de la formation à l’informatique. En effet, l’élève pris dans le maelström technico-informationnel ne peut comprendre ces distinctions tant il parvient via un seul outil à accéder à la fois à de l’information type news, à des vidéos et des extraits d’émission, le tout via des procédés techniques et informatiques qui bien souvent le dépassent et dont il ignore si ce n’est l’existence, tout au moins la complexité.
Une fois établi, ce consensus, vient les difficultés. En effet, si nous souhaitons rassembler, il demeure important de garder des distinctions entre ces disciplines. Ensuite, vient la question du dépassement des discours. Les travaux de l’Unesco, de l’IFLA et les actions internationales et européennes constituent d’évidentes avancées. Seulement, il nous semble qu’une translittératie reposant sur une culture de l’information et de la communication ne peut s’appuyer que sur des incitations, des modèles normatifs ou pire des kits ou autres dispositifs simplement « adaptionistes ».
Il ne s’agit donc pas de répondre aux théories de la société de l’information par des théories de la culture de l’information reposant sur des modalités assez similaires qui auraient d’ailleurs plutôt tendance à ressembler à une « digital literacy » mettant davantage l’accent sur la formation immédiate aux outils. Il faut également rappeler qu’historiquement le terme d’information literacy constitue un pendant de la société de l’information en considérant que l’information devient la matière première des sociétés post-industrielles.
Le problème c’est qu’au final, le discours de former tous les citoyens à ce qu’ils parviennent à utiliser au mieux leur environnement informationnel est évident. Pourtant derrière les concepts de culture de l’information demeurent des visions parfois diamétralement opposées.
C’est en ce sens que les travaux en didactique de l’information constituent des éléments intéressants du fait qu’ils nous permettent de distinguer à la fois les notions stables qui méritent d’être transmises.
C’est donc comprendre que derrière la littératie se trouve des élements stables, fortement liés à la constitution de l’humanité avec la technique, et qu’il nous faut donc penser le « trans ».
C’est donc aussi la difficulté de nos projets, face aux discours simplistes de la société de l’information, il nous faut répondre de manière patiente et complexe tout en parvenant à élaborer des formations adéquates et adaptées.
J’ai moi-même quelque peu amorcé concrètement cette visée avec la mise à disposition de séances que j’ai effectuées avec mes sixièmes sur Lilit & Circé. Ces fiches comme celles publiées par d’autres collègues ne sont pas à suivre à la lettre mais cherchent au travers de situations-problèmes à faire acquérir des notions notamment info-documentaires.
Les enseignants et les formateurs ont besoin de sources et de fiches qu’ils peuvent se réapproprier plutôt que de kits.
Il demeure toujours le problème politique de la réelle mise en place de ces formations qui n’ont lieu sur le terrain qu’au prix de bricolage…voire de négociations ce qui ne peuvent être sastisfaisants.
Je reste pour ma part pour une redistribution des cartes et un new-deal disciplinaire qui permettraient la mise en place de ces enseignements en souhaitant qu’ils reposent sur des stratégies pédagogiques et didactiques qui ne soient pas purement magistrales. La culture de l’information n’a de sens d’ailleurs que dans un fin dosage de pratique et de théorique s’autoalimentant.
Mon intervention s’intitulait bouillon de cultures : la culture de l’information est-elle un concept international ?
Je n’ai plus qu’à souhaiter que ça continue à bouillonner et que cela émerge non pas sur une soupe en kit mais sur des processus d’appropriations et des milieux associés.
Pour cela, il nous faut sans doute ne pas demeurer trop sur notre « Lille » mais continuer à aller de l’avant sans quoi nous finirons par faire de la chanson de JM Caradec notre hymne.

Web 2.0 et web sémantico-social

La sempiternelle ritournelle recommence, ceci tuera cela : le livre tuera l’édifice, le web 2.0 est mort. Je m’étais demandé durant l’été si la blogosphère n’était pas en train de s’essouffler ce qui me semblait être un peu le cas d’autant que je pressentais que ce n’était qu’un repos pour l’expression d’une envie de nouveautés. Ainsi, il semble que nous soyons rentrés dans un état de volonté de renouveau incessant comme si la stabilité, la routine constituerait une menace de notre intégrité physique et intellectuelle.
Le web 2.0 est en place, mais il l’est depuis déjà trop longtemps pour les pionniers, alors il faut encore bouger pour demeurer tout le temps en avance (en avance sur qui ou quoi d’ailleurs ?) Pour cela, il faut tuer l’ancienne créature pour en faire émerger une nouvelle qu’on appellera web 3.O, bidulemegafun, superchébran peu importe. Etrangement donc dans le petit monde du web, le désir d’instabilité semble être la règle et j’avoue parfois subir ce sentiment auquel il faut résister.
C’est un des dangers que cet état d’esprit devienne celui du web car il peut s’avérer au contraire anti-évolution et peut même empêcher la concrétisation technique. D’autre part, il peut également empêcher notre individuation ainsi que la stabilité de nos processus de veille et de collaboration.
L’individuation technique a besoin de stabilités tout au moins conceptuelles pour pouvoir évoluer et permettre l’expression et la poursuite de potentialités. Il en va de même pour nos individualités.
Cela signifie qu’il faut prêter attention à ce que le marketing ne vienne pas une nouvelle fois court-circuité les relations que nous construisons via les nouveaux hypomnemata des dispositifs sociaux plus communément nommés outils du web2.0.
Le web 2.O n’est donc pas mort. Certains rétorqueront probablement avec raison qu’il n’a probablement pas existé mais nous ne saurions accepter l’argument tout aussi fallacieux du nihil novi sub sole.
Je dois néanmoins admettre que j’observe des évolutions et la concrétisation de potentialités. La plus importante selon moi est celle de la construction de systèmes sémantico-sociaaux. Il devient de plus en plus difficile de parler seulement de web, cela paraît désormais trop restrictif et a fini par dissimuler pour beaucoup d’usagers et notamment chez les prétendus digital natives, la réalité technique des réseaux . L’apparition de l’expression de cloud computing ou d’informatique dans les nuages traduit bien ce sentiment de transmission de l’information de manière quasi éthérée voire magique. S’il n’en est rien  dans l’esprit des concepteurs de tels architectures, la confusion se développe dans l’esprit de l’usager lambda.
Et nous sommes ici tentés de reprendre l’analyse médiologique qui considère que le meilleur média se fait oublier. Il semble que les technologies de l’Internet parviennent de plus en plus à réussir ce tour de force.
Les infrastructures techniques vont devoir toujours demander des moyens financiers quant à leur développement et leur maintien. Reste à savoir qui sera chargé de sa prise en charge tant c’est le fait de proposer des services qui s’avère le plus rentable.
L’autre question est donc de savoir de quel type de solution sémantico-sociale nous voulons. Deux alternatives nous sont proposées :
– La première est une vision orientée usager en tant que consommateur et client. Cette dernière cherche donc à indexer surtout les activités et les goûts de l’usager pour mieux capter son attention et le manipuler. Pour cela, l’idéal est de le maintenir en état de frustration permanente. On apporte toujours de la nouveauté, on incite sans cesse à s’équiper et on change de nom….au web 2.0 par exemple. On ne laisse pas le temps à l’usager devenu captif de prendre les devants et de se construire psychiquement et intellectuellement ainsi que collectivement.
– L’autre solution nécessite une vision moins positiviste des techniques du web sémantique et notamment une vision moins objectiviste à la fois de l’information et de l’individu. Il s’agit ici de parvenir à ajouter de la valeur (de la valeur esprit?) à nos actions et aux documents présents sur les réseaux. Cela nécessite donc des stratégies de collaboration, des passerelles entre amateurs et professionnels, entre professeurs et élèves, entre dirigeants et dirigés. L’usager ici est plus le citoyen qui cherche à devenir majeur c’est à dire à sortir de son état de minorité dans lequel les industries de programme ou autres types de domination symbolique et physique tendent à l’y cloisonner. Ici nous retrouvons donc la réflexion de Stiegler autour des milieux associés par rapport aux milieux dissociés de la première alternative.
Evidemment, je souhaite que ce soit la deuxième solution qui ne l’emporte mais ce n’est chose aisée d’autant qu’il n’est pas évident de clairement distinguer les deux alternatives..
La bataille de l’intelligence commence, à nous tous d’y prendre part et surtout de prendre soin.

Face au négationnisme documentaire ?

Les récents propos d’un recteur de Lille rapporté sur les listes professionnelles des documentalistes ne font que nous rappeler sans cesse l’importance du travail sur les représentations qu’il reste à faire :
Il n’est pas choquant de voir des collègues affectés dans ces fonctions. La documentation n’est pas une discipline …. au sens universitaire, il n’y a pas de recherches en documentation. Toute personne est capable de faire fonctionner un CDI. Ces enseignants ne sont certes pas des documentalistes mais ils sont capables de mettre en place des actions et d’organiser ce lieu.
Outre le fait que ces propos relèvent de fortes ignorances, il convient évidemment de réagir mais surtout de comprendre.
Le plus gênant, ce n’est pas seulement le reniement du capes de documentation, c’est le refus de caractère scientifique de la documentation et au travers elles des sciences de l’information et de la communication.
Au final, il en ressort toujours une difficulté à comprendre la documentation et derrière elle la notion de document et ses multiples potentialités : archéologiques et historiques, éducatifs et sa valeur d’établissement de preuve (juridique)
Que de telles déclarations viennent du plus haut de l’institution ne peut qu’accentuer le décalage qui au final fait que nous n’avons plus confiance en nos hiérarchies parce qu’elles sont décalées et que leur management est clairement hors-jeu. Ne nous étonnons donc pas de tels propos qui souvent ne font que refléter des pensées clairement datées et qui n’ont pas su évoluer…mais qui sont fortement partagées. Finalement ce recteur n’est pas le seul à penser ainsi.
Tout cela résulte d’une idéologie informationnelle dont il semble difficile de se départir et  qui explique le succès des théories de la société de l’information.
Ces dernières placent notamment la matière « information » comme devenant primordiale et remplaçant la matière première des sociétés industrielles si nous suivons les analyses de Daniel Bell et celles de Manuel Castells. Au final, en parallèle des travaux de recherche et des travaux de mise en place de la documentation que Sylvie Fayet-Scribe avait analysé en notant l’émergence d’une culture de l’information notamment durant la période où exerçait Paul Otlet, se développe une autre culture de l’information : celle dont les proximités avec les théories de la société de l’information sont évidentes. Cette autre culture de l’information s’inscrit dans une lignée prétendue non-idéologique et s’est développée, selon Eric Segal qui a étudié l’histoire de la notion d’information, à partir d’un terreau formé notamment par la théorie du signal de Shannon et par les interprétations des travaux de Norbert Wiener. Il en résulte une pensée de l’information qui ne prend pas en compte sa dimension sociale et qui oublie les processus de normes et de formes à l’œuvre dans l’information et la documentation.
Peut-on  alors reprocher à un recteur de ne pas saisir ce que c’est que la documentation quand beaucoup de  discours politiques et médiatiques reposent sur ces visions? Quelque part, la document souffre de ces divisions entre nature et culture, entre sciences dures et sciences molles, entre méthodes classiques d’apprentissage et nouvelles méthodes. Elle est pleinement au cœur de ces tensions et ces héritages mal assumés qui empêchent le succès de sa transmission et la mise en place d’une culture de l’information et de la communication.
Le négationnisme documentaire n’est qu’une conséquence d’une idéologie qui en voulant trop montrer les défauts des processus a fini par être victime de sa propre idéologie. Le dernier ’article de Francis Fukuyama explique bien les causes de ce processus dérégulateur. Cette volonté de sans cesse faire table rase démontre une incapacité de prêter attention, de prendre soin de l’autre, une incapacité de penser cela, de s’inscrire dans des processus plus longs, celui des constructions. C’est donc hélas sans surprise que certains parlent actuellement de la mort d’un web 2.0 dont le rasoir d’Ockham nous aurait dit qu’il n’a jamais existé. Tout cela ne fait que démontrer la nécessité de la documentation à la fois comme champ de recherche et enseignement au travers de la recherche de stabilités qui permettent de générer de nouvelles potentialités permettant les individuations psychiques et collectives ainsi que techniques. Mettre en avant des stabilités permet d’anticiper et d’être acteurs de changements éventuels, evidemment cela relève de pensées plus complexes que celles qui circulent sur d’hypothétiques autoroutes de l’information.
Pour conclure, il faut vraiment que ce recteur vienne au colloque de l’Erté sur la culture informationnelle…cela tombe bien cela se déroule justement dans son académie.

La mesure de la blogosphère

A quelques jours de la publication du nouveau classement wikio que j’ai plusieurs fois critiqué mais dont il est toujours intéressant d’examiner le fonctionnement surtout depuis que  le TALentueux Jean Véronis a pris la tête de la machine, il est opportun de s’interroger à nouveau sur la mesure de l’Internet et notamment du web et des réseaux sociaux. On peut toujours critiquer les classements type wikio,  mais il est  absolument nécessaire que des outils de mesure soient développés pour le web. Il serait donc opportun aussi de développer de nouvelles mesures « blogométriques ». L’idéal serait d’avoir des mesures davantage scientifiques qui ne visent pas seulement à des classements d’influence ou d’audience. D’ailleurs, il serait également souhaible que le classement qui se veut désormais plus rigoureux avec des règles connues évolue et ne prenne pas en compte que les rétroliens provenant de blogs. Il y a là un point gênant, un blog populaire se voit doté d’un poids supérieur à un site institutionnel qui n’est d’ailleurs pas pris en compte. Tout aussi gênant qu’impensable pour des classements de blogs scientifiques ou professionnels. Mais il y a encore d’autres types de mesures à effectuer sur des corpus précis et je déplore que nous n’ayons plus d’études ambitieuses comme celle qui avait abouti à la théorie de noeud papillon. A quoi ressemble le Web? J’aimerais bien découvrir de nouveaux graphes en la matière.
Plus ça va, plus les mesures sont effectuées de manière automatisée sur des échantillons restreints. Il est ainsi possible d’obtenir des visualisations de son propre réseau social. Mais il serait intéressant d’en avoir d’autres sur des aspects plus collectifs.
Il y a donc des sphères énormes de travail et des tas de corpus à examiner.
Je ne peux donc que saluer les initiatives des cartographes du web, de la blogosphère et des réseaux sociaux.
Je conseille donc le  récent travail de claude Aschenbrenner avec sa carte de blogs sous la forme de celle du réseau du métro parisien. Ce dernier travaille d’ailleurs depuis longtemps dans ce domaine et il nous donne même sa manière de faire. Dans le prolongement, il est opportun de rappeler que les annales du colloque carto 2.0 sont disponibles et qu’il constitue un bon moyen de découvrir de nouveaux territoires. Vous découvrirez également des acteurs incontournables en ce qui concerne ces domaines.
La visualisation de l’information constitue un moyen de nous fournir des réprésentations qui améliorent notre compréhension. Le nouvel essor de la cartographie de l’information est une bonne nouvelle après le semi-échec de la cybergéographie et notamment de l’atlas de cybergéographie de Dodge qui n’est plus mis à jour.
C’est aussi l’occasion de s’interroger sur les projets de mesure totale de l’Internet et du web qui semblent désormais être oubliés tant la tâche semble impossible. Pas de pantométrie donc si ce n’est avec l’hybris de Google. Il est vrai que les propos de l’auteur de SF, Laurent Généfort s’inscrivent ici dans la lignée de Borgès :

•« Le pouvoir sur l’intégralité du Rézo(…)Le zéro, on l’appelle. Beaucoup de pirates ont caressé ce rêve, mais le Rézo échappe à toute appréhension globale. Vous connaissez la maxime : pour connaître l’univers, il faut un ordinateur de la taille de l’univers. » [1]
Un peu de modestie et de mesure dans les deux sens du terme et un peu de recul aussi pour nous autres tenants de l’amélioration des bibliothèques et autres prophètes des bibliothèques 2.0, voici une bibliothèque qu’il sera difficile d ‘égaler :

Vous trouverez plus de renseignements et de photos sur le site de wired magazine qui consacre un article à cette étonnante bibliothèque, oeuvre d’art, cabinet de curiosité, haut lieu de l’humanisme.
[1]  Laurent Genefort. Rezo. Paris : fleuve noir. 1999 SF métal n°63
update : Eric Dupin signale un travail de cartographie intéressant.