La perte d’influence de l’intellectuel français

L‘article sur la perte d’influence des intellectuels français et notamment sur les réseaux sociaux m’a intéressé à plus d’un titre. Je crois que le problème ne vient pas du manque de spécialiste français dans le domaine mais de deux obstacles principaux. Je m’attarde principalement ici sur les sciences humaines et sociales.

Premier obstacle de taille : la langue.

C’est la principale raison pour laquelle les principaux « penseurs » et leaders dans de nombreux domaines et encore plus sur les thématiques du web sont anglo-saxons. Ils ont l’avantage du terrain. Vous publiez en anglais, votre potentialité d’influence et de relai est à peu près dix fois supérieure qu’en français. Vous vendez un ouvrage 1000 exemplaires en français, son potentiel de vente est souvent 10 fois supérieur en anglais. De même, pour le nombre de visites sur les blogs. La réponse est donc évidente : il faut écrire en anglais en allant jouer sur un terrain extérieur. Mais bon, il va falloir s’y mettre. D’ailleurs, je suis persuadé que seul le multilinguisme défendra le français et les autres langues, et aucunement une défense stérile et chauvine. Au diable l’identité nationale qui est devenue du reste totalement inverse de la conception révolutionnaire qui faisait de la nationalité française une identité universelle et non pas une identité saucisson-tf1-rolex.

 

Second obstacle : la difficulté de la pensée complexe et non dichotomique.

Je note que la tendance est quand même au succès de pensée et de théorie parfois provocatrice et souvent proche du consulting. En clair, ce n’est pas toujours pleinement scientifique. Je songe par exemple à la théorie des digital natives et même à Clay Shirky qui joue souvent la provoc de même que Chris Anderson. Certes, ça fait bouger les lignes et réfléchir mais en aucun cas, rétrospectivement, c’est si génial et si cohérent. Mais leur objectif n’était pas scientifique mais davantage commercial et stratégique. Dans ce domaine, ils sont plutôt bons d’autant qu’ils sont de véritables praticiens prêts à innover.

Il est dommage qu’en France, le rapport soit assez dichotomique. Les discours positivistes sont souvent portés par des consultants ou des acteurs commerciaux. Leurs discours ne sont pas mauvais en soi, mais ce ne sont pas des discours émanant d’intellectuels proprement dits ou tout au moins de scientifiques. Je rappelle que la définition d’intellectuel suppose un engagement politique, ce qui ne signifie pas qu’on a pris en douce sa carte à un parti ou qu’on va chercher des enveloppes chez des mamies, mais qu’on prend position dans des discours et des écrits et notamment au niveau médiatique. Mais c’est là, le problème, c’est qu’on ne convoque que dans ses sphères les penseurs les plus rétrogrades et anti-internet pour répondre aux discours branchés. Dès lors, la naphtaline fait pâle effet à côté. De même, il serait quand même important que les médias renouvèlent leurs prétendus intellectuels qui sont les mêmes depuis 30 ou 40 ans. La couverture du nouvel obs sur les intellectuels français cette année aurait pu être la même il y a 20 ans…il faut dire qu’un nouvel obs de 2010 ressemble à un nouvel obs de 1990 : même rédaction, mêmes éditorialistes et…mêmes éditoriaux à quelque chose près. Mais les nouveaux acteurs médiatiques du web devraient peu à peu changer la donne.

Mais en général sur les grands médias, les discours les plus complexes sont moins entendus parce qu’ils ne sont pas médiatiques d’une part et parce qu’il suppose des capacités de réflexion et de pratique de la part de l’auditoire. Dans le genre, les fidèles de Jean Pierre Pernaut ne peuvent pas suivre depuis longtemps même s’ils ont essayé de faire attention à la marche. Certes, la radio se démarque à ce niveau de la télévision du fait de journalistes compétents et plus engagés dans les médias sociaux. La télé à l’inverse poursuit son autarcie. L’évacuation d’arrêt sur images est en ce point un exemple évident. Mais l’émission a sans doute gagné au final en pertinence et en puissance en passant sur le web.

Revenons, donc sur l’obstacle de la complexité car il tend d’ailleurs à gagner du poids au sein des sciences humaines et sociales qui privilégient de plus en plus une simplicité d’étude et d’analyse dont les résultats ne seront qu’éphémères face à une pensée conceptuelle qui dérange ou est tout simplement incomprise. L’idéal devenant la production scientifique à peu près normée mais dont les conséquences scientifiques, politiques et éducatives seront nulles et donc sans risque.

Face à la pensée conceptuelle, l’argument méthodologique est alors utilisé comme seul contre-argument, qui place le discours scientifique conceptuel dans la lignée de l’essai. Il est vrai que la pensée complexe, celle qui mobilise autant concepts que des résultats est parfois inopérante aussi dans des articles trop brefs. En ce qui me concerne, j’ai une valise pleine de concepts qui fonctionnent ensemble, il est impossible de tous les convoquer dans un article et cela devient parfois difficile voire mission impossible quand il s’agit de les transposer en anglais.

 

En conclusion, l’intellectuel français ou francophone n’est pas mort, pas autant que le web au final (pour rappel après le web 2.0, le web 3.0, le web au carré, le web qui mène 3-1 contre le psg, voici désormais le web mort-vivant qui se multiplie jusque dans vos frigos ce qui devrait inspirer Roméro ou Véronique C.) mais il n’est plus dans la presse classique et pas du tout sur les chaînes grand public même si Mister Affordance a failli y faire une apparition sur le nouvel ortf.

Je crois aussi que l’intellectuel est surtout une identité collective, un réseau pensant (et guère dépensant d’ailleurs) qui produit des documents et des réflexions sous des modes différents.

Finalement, il faut différencier le fait de ne pas voir l’intellectuel et celui de le croire invisible. Bien souvent, le regard ne se porte pas aux bons endroits.

 

Voilà pour ce premier billet de rentrée. Je suis parvenu à rendre plus compliqué un problème qui l’était déjà à la base. Mais je crois que ça devrait la devise et le credo de l’intellectuel : montrer que lorsqu’un problème apparaît compliqué, c’est bien parce qu’il est encore plus en réalité.

Classement « science » wikio Août 2010 et nouvelles métries

Voici le classement « Science » tel que me l’a transmis wikio.
Pas de grands bouleversements à mon sens.
J’ai accepté de le publier dans l’espoir de relancer le débat sur les nouvelles métries.
J’ai été à plusieurs reprises critique avec ce classement sur le blog et dans des articles notamment à cause du mélange entre autorité et popularité et surtout du fait de l’exclusion de liens institutionnels. Malgré tout, ce classement avec tous ces défauts a le mérite d’exister et il faut bien constater que nos métries scientifiques demeurent insuffisantes pour rendre compte des mutations du numérique.

1 Technologies du Langage
2 affordance.info
3 Bibliobsession 2.0
4 {sciences²}
5 La feuille
6 En quête de sciences
7 Le blogue de Valérie Borde
8 L’édition éléctronique ouverte
9 ThatCamp Paris 2010
10 Ecrans de veille en éducation
11 Tom Roud
12 teXtes
13 Mapping Expert
14 Le guide des égarés.
15 Évaluation de la recherche en SHS
16 La Science au XXI Siècle
17 Historicoblog (3)
18 Enro, scientifique et citoyen
19 Vagabondages
20 À la Toison d’or

Classement réalisé par Wikio
Si vous êtes intéressé pour participer à la réflexion sur les nouvelles métries, faites le moi savoir par mail ou par commentaire. Je vous inviterai à la participation autour du document de réflexion.

Pour une évaluation diversifiée et de nouvelles métries

Geo-metrie
Image by Mihr* via Flickr

Je reviens donc comme promis sur les métries et ce à quelques jours de la non-conférence du Thatcamp autour des digital humanities. Il n’y aura pas d’ateliers autour des métries. Je pense qu’il s’agit néanmoins d’un enjeu important tant il y a de nouveaux aspects à évaluer notamment autour du blog.

Parmi ces territoires à évaluer, ceux des rapports du blogueur « scientifique » et de son lectorat. Comment mesurer son influence et notamment ses apports en matière de valorisation de son travail, la manière dont il fait mieux connaitre sa discipline, les formations qu’il dispense, les diplômes dans lesquels il intervient voire la notoriété qu’il apporte à l’université. De la même façon, en quoi il permet de tisser des liens avec le monde professionnel.

De nouveaux indicateurs semblent nécessaires dans ce cadre. Sans vouloir en faire des indicateurs absolus, il pourrait être tout aussi opportun de mesurer la portée de ses travaux dans le monde professionnel. D’ailleurs pourquoi ne pas développer déjà des indicateurs bibliométriques dans ce cadre ? (nombre de citations dans la presse professionnelle, parutions dans la presse professionnelle, etc.)

En ce qui concerne le blog, l’indicateur devrait à l’inverse de Wikio être plutôt composé à partir non pas seulement d’autres blogs mais d’un plus grand nombre de sites web en accordant notamment un plus grand poids aux sites à portée institutionnelle (ministère, signets de bibliothèque, bibliographies thématiques, sites de laboratoires, carnets de recherche, réseau de blogs reconnu comme Culture visuelle, etc.), afin de mettre en place un algorithme de popularité à pondération basée sur l’autorité institutionnelle.

L’idéal serait la production cartographique ou en rosace des travaux d’un chercheur ou d’un laboratoire suivant différents axes. C’est d’ailleurs ces aspects qui intéressent Antoine Blanchard, alias Enro, notamment en faisant référence à l’intérêt des théories l’acteur-réseau. Cela démontre l’importance équivalente entre la production de savoirs et inscriptions de son nom en tant que chercheur ou laboratoire sur des articles, et la traduction c’est-à-dire l’opération de communication et de recherches d’alliés qui permet la diffusion (contagion ?) des idées.

 

En ce qui me concerne, l’article le plus téléchargé sur archivesic est sur la thématique du web 2.0. Il est également un des plus cités. Problème, sa reconnaissance en tant qu’article pose problème puisqu’il n’est paru dans aucune revue. Sa valeur en tant qu’article n’est d’ailleurs pas reconnue notamment par certains membres des autorités institutionnelles. Il est pourtant cité et je croise quelques collègues qui me disent l’avoir pas mal utilisé. Par conséquent, quelle est sa valeur ? En d’autres termes, est-ce la revue qui fait la valeur de l’article où est-ce la suite qu’on lui donne ? Vaut-il mieux être publié dans une revue de rang A et ne pas être cité ou au contraire voir son travail cité et source de divers intérêts. Il convient donc de s’interroger aussi sur une portée de l’économie de la recherche et de ses propres travaux.

Evaluer signifie surtout conférer de la valeur et pas seulement vouloir appliquer un ratio. Nul doute que tous les éléments évoqués ne sont pas tous pleinement calculables mais au moins pouvant être source d’une forme d’évaluation. Il demeure qu’elle est toujours relative. Je partage d’ailleurs le point de vue du message twitter d’ OlivierAuber « tout ce qui est compté (ou pas) traduit le point de vue de ceux qui comptent ». Ce qui nous ramène aussi à Protagoras.

Par conséquent, je prône dès lors de rechercher un maximum de points de vue. En cela, la prise en compte de l’avis des étudiants ne serait pas un luxe en ce qui concerne les enseignants-chercheurs.

Il reste qu’on a toujours besoin d’être évalué par les autres, pour progresser. Evaluer c’est aussi conseiller, ouvrir à d’autres points de vue et méthodes. Pour ma part, les critiques même celles qui sont douteuses voire agaçantes, m’ont toujours fait progresser. Elles sont nécessaires tout comme l’artiste qui doit sortir de son cercle familial. La critique est donc une condition obligatoire à la science.

Il reste que cette critique ne doit pas s’arrêter aux estampillage et accessits qui émaillent les carrières. Il n’a rien de plus pénible que les enseignants qui dotés du capes, de l’agrégation, ou recrutés comme maitres de conférences, estiment qu’ils ont reçu un double 00, le droit d’avoir raison dans leur discipline et dans leur manière de faire et d’enseigner. Le blanc-seing ne doit pas exister.

L’évaluation, c’est une remise en cause ponctuelle, un élément de la faculté à progresser individuellement et collectivement. Attention, toutefois, à ne pas glisser non plus dans le fantasme de la bêta perpétuelle. Il faut donc trouver un juste équilibre entre stabilité et remise en cause, une « métastabilité » simondonnienne en quelque sorte.

Je pense qu’il est temps de commencer à bâtir ces nouveaux indicateurs, ces nouvelles cartographies, ces nouvelles métries : autant scientométries que nétométries. J’invite tous ceux qui veulent me rejoindre dans cette entreprise pour esquisser de nouveaux types de métries afin de pouvoir mettre en place un document de travail afin d’éclaircir ce que je viens d’exposer confusément.

 

Reblog this post [with Zemanta]

Blog et science

 

Je publie ici la trame que j’ai à peu près suivie pour mon intervention à la table ronde du colloque international sur le numérique éditorial organisé par sens public à l’INHA.

La table ronde était modérée par Antoine Blanchard et s’intitulait « Nouveaux rapports des chercheurs aux publics » avec Ghislaine Chartron (CNAM, INTD), Bastien Guerry (Wikimédia France), Alexandre Moatti (Conseil scientifique du TGE-Adonis), Joëlle Zask (Université de Provence) .

Je vais plutôt adapter une position personnelle qui s’appuie principalement sur des expériences et des ressentis.

J’interviens donc en tant qu’hybride, à la fois en tant que docteur en information communication, mais aussi en tant que blogueur et également en tant que professionnel de la documentation et de la pédagogie de l’information car je suis également certifié en documentation.

Je m’intéresse par conséquent à ces espaces hybrides, à ces entredeux que constituent justement les blogs.

Mon blog « le guide des Egarés » a débuté en 1999. Il n’était donc pas originellement un écrit voué à la recherche, mais plutôt un objectif personnel de valorisation d’idées pour le monde des bibliothèques. Il n’a donc cessé en fait de suivre mon itinéraire personnel, s’orientant davantage vers la pédagogie à la suite de la réussite de concours de professeur-documentaliste. La réorientation progressive vers une démarche plus proche des sciences de l’information et de la communication s’est faite avec la reprise d’étude et la thèse.

Je vais donc aborder la relation entre le blog et la science sans chercher à démontrer qu’il existe une opposition mais au contraire qu’il y a plutôt des relations.

J’aime assez le propos d’Olivier Ertzscheid sur twitter récemment :

@affordanceinfo le blog c’est un peu l’archive ouverte de l’établi / du terrain scientifique

Par conséquent, ce n’est pas une perte de temps dans la recherche scientifique. Je pense même que les blogueurs possédant une activité de recherche, écrivent plus. Henry Jenkins revendiquait d’ailleurs la pratique du blog comme un exercice intéressant dans la mesure où il permet d’écrire et d’exprimer des idées et de les confronter. Il convient toutefois de ne pas demeurer évidemment dans ce seul exercice et donc d’opérer de réguliers détachements pour la production d’articles par exemple.

Institutionnellement, il est encore difficile de prétendre qu’il s’agit d’une pratique reconnue scientifiquement. La tendance est plutôt de ne pas trop mettre en avant cet aspect car il suscite encore de la méfiance. Personnellement, je crois que le succès relatif de mon blog dans la communauté professionnel de l’infodoc a quand même facilité mon recrutement en tant qu’Ater à l’université de Lyon 3.

Il reste que le blog se place davantage sur un terrain différent du processus universitaire classique qui est celui de l’autorité. Le blog est dans la lignée du web 2.0 dans une position qui est celle de la popularité. Cette opposition se voit notamment dans le classement wikio qui possède un top science qui fait d’ailleurs la part belle aux sciences de l’information. Il est possible d’ailleurs d’acquérir une notoriété importante par ce moyen.

Mais passons outre les classements pour se concentrer vers des actions plus hybrides qui sont fortement importantes pour la place des universitaires au sein de l’espace public.

Le blog est un espace de valorisation et pas seulement de vulgarisation dont le sens reste toujours péjoratif. Il constitue un lien entre différents acteurs. Sa présence dans l’espace public, même si elle peut paraître risquée, est une nécessité…justement du fait de la concurrence dans le monde de la recherche et de l’impératif d’attirer des étudiants et d’opérer des relations avec le monde professionnel.

Mon blog est un lien avec une communauté professionnelle qui me semble vital à la fois pour mes activités de recherche, mais également au niveau de l’enseignement. Je pense qu’une légitimité universitaire qui s’appuierait seulement sur ses pairs est insuffisante notamment dans le champ des SIC.

Cette visibilité est importante pour que la recherche soit lue en dehors d’une communauté scientifique restreinte et ce afin de faciliter l’interdisciplinarité, et pour inciter les étudiants à s’intéresser davantage à certaines thématiques, pour rapprocher le monde professionnel de la science et vice versa.

Je crois aussi que l’enseignement va rentrer dans des systèmes de plus en plus concurrentiels et que la reconnaissance universitaire repose également sur les étudiants et les partenaires extérieurs. Et si pour l’instant ces relations reposent sur des mécanismes différents de la reconnaissance par les pairs, ils existent néanmoins.

Par conséquent, tous les outils issus du web 2.0 laissent entrevoir de nouveaux développement et la production d’une variété de documents autre que l’article. Cela peut être des résultats d’enquête, des résumés orientés grand public ou à destination de professionnels. Il s’agit de s’orienter davantage dans le mouvement d’une science ouverte (open science ou e-science) et le blog participe de ce mouvement.

Je pense également que cette production diversifiée devra entrainer une évaluation riche et tout autant diversifiée, ainsi que de nouvelles métries qui peuvent intéresser autant les secteurs professionnels et éducatifs.

Je n’ai pas eu le temps d’aborder la question des nouvelles métries même si j’ai eu l’occasion d’en discuter avec Antoine Blanchard. Pourtant, il semble bien que de nouveaux enjeux peuvent se jouer ici. J’y reviendrai dans un prochain billet

Intervention au Luxembourg au symposium « digital humanities »

Je mets en ligne en ligne mon intervention au symposium sur l’histoire contemporaine qui se déroule à Luxembourg.
Le colloque concerne plutôt l’histoire mais d’intéressantes pistes et réflexions ont été avancées et présentées qui intéressent les sciences de l’information et de la communication.
Mes propos concernaient surtout une position qui est celle de la culture technique quant à l’usage des nouveaux outils et notamment ceux du web 2.O

L’invention d’Orfanik et la technique aux enfers

The parade is named after Orpheus, a figure fr...
Image via Wikipedia

Jules Verne dans le château des Carpathes nous fait part à la fin du mystère de la présence continue de la cantatrice Stilla dans le château en ruines qui suscite l’inquiétude en Transylvanie. Elle est en fait morte mais l’inventeur Orfanik, qui travaille au service de Rodolphe de Gortz a mis au point un procédé qui permet de retransmettre l’image et la voie de la cantatrice. L’image et la voie ayant été précédemment enregistrés lors d’une représentation.
Ce procédé que Jules Verne qualifie sans vraiment le dire de diabolique correspond à la vision de la culture littéraire qui voit de la magie dans la technique. Orfanik en étant le digne représentant. Toutefois, Jules Verne qui possède également une culture technique nous donne quelques éclaircissements sur le procédé :
« Or, au moyen de glaces inclinées suivant un certain angle calculé par Orfanik, lorsqu’un foyer puissant éclairait ce portrait placé devant un miroir, la Stilla apparaissait, par réflexion, aussi « réelle » que lorsqu’elle était pleine de vie et dans toute la splendeur de sa beauté. »

Dans ce roman de Jules Verne, nous retrouvons les deux côtés de l’objet technique ou de l’hypomnematon, un côté positif qui est illustré par les potentialités de la technique explicitées et un côté négatif exprimée par la confusion engendrée et par les relations diaboliques, quasi alchimiques d’un Orfanik.
Aujourd’hui, cela n’a guère évolué avec les potentialités de la technique qui sont louées lorsqu’il s’agit de pouvoir commercialiser au delà de la mort, les œuvres d’Elvis Presley et de Mickael Jackson…mais qui deviennent alors sujettes à critiques lorsqu’il s’agit de pouvoir en disposer sans les acheter grâce à des procédés qui en facilitent l’échange.
Pourtant, la reproduction sur supports constitue à l’origine un faux qui tente de s’approcher au mieux de l’original. Pendant des années, la possibilité de reproduire des œuvres a permis des bénéfices énormes en offrant la possibilité de revendre une prestation pourtant unique à l’origine. Peu semblaient pourtant s’offusquer de ce qui constitue autant une supercherie qu’une prouesse diabolique comme l’auraient sans doute qualifiée certains inquisiteurs quelques siècles plus tôt.
Finalement, la technique demeure Eurydice ou Stilla, prisonnière des enfers, difficile à regarder en face et à saisir.
Il nous faut pourtant parvenir à réaliser ce qu’Orphée n’est pas parvenu à faire, pour faire corps avec elle.

Reblog this post [with Zemanta]

Y-a-t-il vraiment émergence d’une science 2.0 ?

Je travaille actuellement à l’écriture d’un article sur une hypothétique science 2.0, avec comme interrogation principale : quelles sont les évolutions du mode de publication scientifique et les nouveaux usages liés au web 2.0 ?
L’étude s’avère très difficile à effectuer. L’examen du classement science de wikio, l’étude de la présence des articles sur les plateformes types delicious ou citeulike révèlent un côté scientifique en fait très incertain.
Le premier problème, c’est que nous n’avons pas inventé les nouvelles nétométries, qui nous permettraient d’évaluer de nouveaux effets de type viral sur les réseaux type web 2.0. De même, les moteurs pour examiner les réseaux sociaux et les plateformes de partage de signets ou d’articles sont inexistants ou mauvais.
De plus, l’usage s’avère assez faible. Les articles les plus référencés émanent des archives ouvertes mais cela n’atteint pas des sommets de partage. De plus, les articles les plus partagés en provenance d’archivesic sur delicious concernent les questions autour du web 2.0 et des folksonomies. Ce qui produit un effet gênant : je suis souvent un des principaux auteurs référencés sur ces réseaux. En clair, trois ou quatre auteurs émergent fréquemment et notamment mon co-auteur.
On tourne en rond et quelle conclusion en tirer si ce n’est que ceux qui parlent le plus de l’évolution du web sont aussi ceux qui parlent le plus de ces outils, qui incitent le plus à leur usage, et qui de fait sont les plus souvent mentionnés par ceux qu’ils ont convaincus. Ce travail de communication s’effectuant sur les sphères de la popularité et notamment la blogosphère.
Je ne suis donc pas du tout convaincu que la science 2.0 existe vraiment. Nous sommes probablement dans d’autres types d’effets, notamment toujours dans le glissement de l’autorité à la popularité. Avec également des élargissements des sphères de la légitimité scientifique vers des sphères annexes par contiguïté notamment sur les blogs. Les blogs scientifiques devenant de plus en plus des blogs politiques ces derniers mois sans que pour autant la figure du savant ne refasse surface.
Il s’agit aussi de nouvelles formes de vulgarisation scientifique dont les effets positifs me semblent intéressants tant ils tendent à rapprocher sphère professionnelle et sphère scientifique. Dès lors s’agit-il de science ou de vulgarisation? Les deux problèmes devant être distingués, ce qui s’avère en fait difficile puisque de plus en plus les mêmes canaux peuvent être utilisés. De la convergence des médias, on glisse dans le mélange.
J’aboutis à une aporie dont je ne parviens pas à me sortir. Les usages sont faibles, les atouts sont importants mais les risques aussi. Faut-il former à l’e-science?
En tout cas, il va falloir tenter de mettre en place de nouveaux outils de mesure qui permettent de mettre en avant la science en action ainsi que la science en liaison. J’en appelle donc aux spécialistes des diverses métries et notamment Jean Véronis.
J’en appelle donc à vos commentaires, ici ou par mail sur vos usages scientifiques en ce qui concerne les outils du web 2.0. On notera que mon billet de blog constitue également un sujet d’études qui concerne pleinement le sujet.

Le Ka documentarisé et la culture de l’information

De retour du colloque Doc Soc 2008 intitulé : Traitements et pratiques documentaires : vers un changement de paradigme ?, je mets en ligne le diaporama de mon intervention.
J’ai pu rencontrer plusieurs personnes intéressantes durant le colloque dont les actes sont publiés par l’Adbs.
Merci à bibliobsession de m’avoir fait remarquer la faute sur ma dernière diapositive.

Evaluer ou pas ?

La récente controverse au sujet des évaluations bibliométriques établies par l’Aeres finit par me déranger sur plusieurs points ce qui explique sans doute le fait que je n’ai pas signé la pétition. Le premier point gênant c’est le risque de voir la bibliométrie et la scientométrie comme des méthodes statistiques bêtes et aveugles qui ne seraient pas dignes d’interêt. J’ai la désagréable impression que certains chercheurs découvrent même l’existence de la bibliométrie et de la scientométrie qui sont des secteurs qui intéressent fortement les chercheurs en information communication et également les professionnels de la documentation. Plusieurs ouvrages intéressants sont parus sur le sujet et je mentionne régulièrement ces secteurs et travaux à mes étudiants. Un bon point de réflexion de départ sur le sujet est le numéro (collector?) de Solaris n°2 dont les archives sont toujours en ligne.
Les mesures scientométriques, bibliométriques voire nétométriques sont utiles et intéressantes. Cela ne signifie pas que leurs méthodes ne doivent pas être discutées au contraire puisque c’est au sein des débats que ces domaines peuvent progresser.
De la même manière, la bibliométrie répond à des impératifs professionnels fort utiles d’autant plus  si on leur ajoute une analyse sociale. Je cite ici un extrait de  l’article de Jean Max Noyer extrait du numéro de Solaris qu’il a coordonné et  qui rapelle la définition de la bibliométrie :
« Je rappelle donc brièvement, à partir de la définition de A. Pritchard, ce que l’on entend par « Bibliométrie », à savoir : l’ensemble des méthodes et techniques quantitatives — de type mathématiques / statistiques — susceptibles d’aider à la gestion des bibliothèques et d’une manière très générale des divers organismes ayant à traiter de l’information. Dit d’une autre façon, les outils statistiques utilisés par la Bibliométrie visent avant tout à élaborer des indicateurs concernant les outputs (publications) des diverses pratiques de recherche. Ce qui est visé : la classification, les fréquences et les types de distribution… bref, tout ce qui peut permettre d’aider à définir par exemple de nouvelles stratégies en matière d’acquisition, de mise à jour, de gestion des bibliothèques ou des bases de données. La Bibliométrie engendre donc des indicateurs d’activités qui ne nous renseignent guère sur les pratiques, les usages, les modes de problématisations à partir desquels les dispositifs de la science et de la technique se donnent comme pouvant être pensés, au moins en partie.  »
Il s’agit donc de signaler de suite qu’une évaluation uniquement statistique est insuffisante et qu’il faut donc lui adjoindre d’autres méthodes d’analyses.Je ne suis donc pas opposé à des mesures scientométriques au niveau des chercheurs à condition que toutes les démarches d’évaluation soient prises en compte. Ces démarches font partie de la science et même à un petit niveau en utilisant le logiciel Harzing. Publish or Perish, il est possible d’effectuer quelques mesures notamment pour un thème précis. Il faut toutefois relativiser les résultats car ils sont basés sur Google Scholar qui n’est pas rigoureux.
Je ne suis donc pas non plus de l’avis-que j’ai entendu- que toutes les recherches sont équi-valentes. Il ne s’agit pas de tomber pour autant dans le débat entre le bons et le mauvais chercheur…j’imagine déjà le parallèle avec le sketch des inconnus sur les chasseurs : le bon chercheur il publie mais le mauvais chercheur il publie aussi…)  C’est contraire à l’esprit scientifique qui vise à convaincre soit à priori par les mécanismes de sélection dans les revues avec évaluation par les pairs, soit a posteriori par les citations par les articles d’autres chercheurs. De la même manière, individuellement chaque chercheur sait qu’il a mieux réussi tel ou tel article ou telle communication. De même, certains concepts ou applications connaissent plus de succès et la scientométrie associée à des méthodes telles les co-occurences et les méthodes de Latour et Callon, nous sont utiles pour tenter d’analyser ces processus.
Alors toute démarche d’évaluation n’est pas nécessairement à rejeter. Il est vrai que cela doit se faire de manière la plus transparente possible : il nous faut connaître les règles du jeux à l’inverse du page rank de Google.
Je signalerai déjà sur ce point que selon moi, ces critères doivent être pensés au sein des disciplines mais également de manière inter-disciplinaire.
D’autre part, évaluer ne doit pas sans cesse signifier sanctionner mais conférer de la valeur. C’est tout l’intérêt de l’évaluation et étymologiquement, c’est cette action de conférer de la valeur qui nous intéresse. L’évaluation doit être un processus de valorisation à la fois de l’auteur, de l’article, du laboratoire, de l’université, etc. Evidemment derrière il y a le spectre de la compétition avec ses dérives : le risque du publish or perish, l’augmentation du nombre de publications et de revues ainsi que le choix de privilégier des secteurs permettant d’obtenir de meilleurs indicateurs. Voilà pourquoi, il faut parvenir à une analyse sociale et humaine des résultats.
Il ne s’agit donc pas de refuser tout type d’évaluation mais au contraire d’en créer de nouvelles. Et ce qui doit être évalué est assez large et dépasse les critères du classement de shangai. De même l’évaluation répond à un besoin : celui du regard extérieur et de la critique. Sans les remarques, les critiques et les suggestions, quel intérêt ? L’évaluation prend donc en compte clairement la relation auteur-lecteur et leur co-construction qui nous oblige à ne pas se penser comme un auteur séparé et comme milieu d’idées spontanées.
Une fois de plus, il s’agit aussi de rappeler que le chercheur doit être un communiquant. Un chercheur ou un enseignant-chercheur qui ne produit ni textes ni communications ne peut être considéré comme un chercheur.  Ce travail de communication est à la base de la science en action. En effet qu’importe un travail génialissime si nous n’en avons pas de trace…documentaire.
Or le second point qui me gêne également parfois dans le rejet de l’évaluation, c’est que certains enseignants-chercheurs publient peu ou pas alors qu’ils sont rémunérés pour et que ce refus d’évaluation sous des discours généraux ne cachent que des défenses d’intérêt personnel. J’ai la sensation qu’à vouloir tout refuser en bloc, nous allons finir par avoir une solution qui n’aura pas été négociée et donc améliorée…et qui pèsera  sur les nouveaux recrutés.
Autre point d’importance qu’il faut aussi rappeler, c’est que l’évaluation ne peut provenir uniquement que de la sphère scientifique. Elle vient également selon les domaines, des communautés de professionnels, des usagers, des amateurs éclairés, des citoyens…et des étudiants. Ici, je souligne le fait que je reste convaincu que l’alliance enseignement et recherche est un atout précieux pour ce que nous avons à transmettre aux étudiants et qu’une trop nette division entre enseignants et chercheurs n’est pas profitable. L’évaluation doit donc être à la fois effectuée sous des formes de pairs à pairs mais rien n’interdit de lui adjoindre d’autres moyens d’observation à condition toutefois de ne pas dériver de l’autorité à la popularité.
La question est donc complexe et il nous faut donc penser l’évaluation en prenant en compte également l’e-science, les cyberinfrastructures et toute une série d’éléments possibles. Quel part accorder aux document sur les archives ouvertes ? Que penser notamment des activités de blog scientifique, comment l’évaluer et lui conférer une valeur pour le chercheur surtout quand il s’agit parfois d’heures considérables de travail comme dans le cas d’affordance.info
Alors valorisons la recherche.

La mesure de la blogosphère

A quelques jours de la publication du nouveau classement wikio que j’ai plusieurs fois critiqué mais dont il est toujours intéressant d’examiner le fonctionnement surtout depuis que  le TALentueux Jean Véronis a pris la tête de la machine, il est opportun de s’interroger à nouveau sur la mesure de l’Internet et notamment du web et des réseaux sociaux. On peut toujours critiquer les classements type wikio,  mais il est  absolument nécessaire que des outils de mesure soient développés pour le web. Il serait donc opportun aussi de développer de nouvelles mesures « blogométriques ». L’idéal serait d’avoir des mesures davantage scientifiques qui ne visent pas seulement à des classements d’influence ou d’audience. D’ailleurs, il serait également souhaible que le classement qui se veut désormais plus rigoureux avec des règles connues évolue et ne prenne pas en compte que les rétroliens provenant de blogs. Il y a là un point gênant, un blog populaire se voit doté d’un poids supérieur à un site institutionnel qui n’est d’ailleurs pas pris en compte. Tout aussi gênant qu’impensable pour des classements de blogs scientifiques ou professionnels. Mais il y a encore d’autres types de mesures à effectuer sur des corpus précis et je déplore que nous n’ayons plus d’études ambitieuses comme celle qui avait abouti à la théorie de noeud papillon. A quoi ressemble le Web? J’aimerais bien découvrir de nouveaux graphes en la matière.
Plus ça va, plus les mesures sont effectuées de manière automatisée sur des échantillons restreints. Il est ainsi possible d’obtenir des visualisations de son propre réseau social. Mais il serait intéressant d’en avoir d’autres sur des aspects plus collectifs.
Il y a donc des sphères énormes de travail et des tas de corpus à examiner.
Je ne peux donc que saluer les initiatives des cartographes du web, de la blogosphère et des réseaux sociaux.
Je conseille donc le  récent travail de claude Aschenbrenner avec sa carte de blogs sous la forme de celle du réseau du métro parisien. Ce dernier travaille d’ailleurs depuis longtemps dans ce domaine et il nous donne même sa manière de faire. Dans le prolongement, il est opportun de rappeler que les annales du colloque carto 2.0 sont disponibles et qu’il constitue un bon moyen de découvrir de nouveaux territoires. Vous découvrirez également des acteurs incontournables en ce qui concerne ces domaines.
La visualisation de l’information constitue un moyen de nous fournir des réprésentations qui améliorent notre compréhension. Le nouvel essor de la cartographie de l’information est une bonne nouvelle après le semi-échec de la cybergéographie et notamment de l’atlas de cybergéographie de Dodge qui n’est plus mis à jour.
C’est aussi l’occasion de s’interroger sur les projets de mesure totale de l’Internet et du web qui semblent désormais être oubliés tant la tâche semble impossible. Pas de pantométrie donc si ce n’est avec l’hybris de Google. Il est vrai que les propos de l’auteur de SF, Laurent Généfort s’inscrivent ici dans la lignée de Borgès :

•« Le pouvoir sur l’intégralité du Rézo(…)Le zéro, on l’appelle. Beaucoup de pirates ont caressé ce rêve, mais le Rézo échappe à toute appréhension globale. Vous connaissez la maxime : pour connaître l’univers, il faut un ordinateur de la taille de l’univers. » [1]
Un peu de modestie et de mesure dans les deux sens du terme et un peu de recul aussi pour nous autres tenants de l’amélioration des bibliothèques et autres prophètes des bibliothèques 2.0, voici une bibliothèque qu’il sera difficile d ‘égaler :

Vous trouverez plus de renseignements et de photos sur le site de wired magazine qui consacre un article à cette étonnante bibliothèque, oeuvre d’art, cabinet de curiosité, haut lieu de l’humanisme.
[1]  Laurent Genefort. Rezo. Paris : fleuve noir. 1999 SF métal n°63
update : Eric Dupin signale un travail de cartographie intéressant.