L’ère des guérillas informationnelles

Ma présence sur les médias sociaux me permet d’être embarqué dans des flux et des discussions qui sont autant des pertes de temps que des enseignements indispensables.
Cette présence au sein de la mêlée est essentielle sous peine de ne pouvoir réellement comprendre ce qui s’y trame, les modes de fonctionnements, les évolutions techniques, informationnelles et communicationnelles qui se produisent depuis une dizaine d’années. Je suis sur Twitter depuis 2007. Ce n’est plus le même réseau qu’en 2007. Le réseau était alors relativement pacifié, je dis bien, relativement, car c’était une cour de récré ce qui n’excluait pas les bagarres, les discussions un peu lourdes, les blagues de potache et autres subtilités.
En 2007, Twitter était majoritairement anti-sarkozyste, on accueillait Frédéric Lefebvre comme il se doit (voir aussi en 2011°), et tout était assez drolatique finalement. Le côté sérieux venait des blogosphères notamment politiques qui se retrouvaient sur Twitter. J’ai envie de dire, que cela s’est quelque peu inversé. On avait besoin du blog pour avoir un positionnement sur Twitter, c’est désormais l’inverse.
L’extrême-droite était peu présente, la droite essentiellement pro-Sarko avec quelques idolâtres, phénomène classique lors de l’arrivée d’un nouveau président.
La cour de récré s’est transformée en gigantesque champ de bataille permanent où la moindre personne sensée peut se transformer en gladiateur de l’information. Si Bruno Gaccio affirme que les guignols ne sont plus nécessaires désormais, car il y a suffisamment de vannes sur Twitter, ce serait effectivement plutôt sympathique. Mais ce n’est hélas pas que cela. Le côté autodérision et dégonflage d’égo des premiers temps sur twitter – on se faisait toujours gentiment remettre en place, car cela faisait partie du jeu – a glissé vers une forme de méchanceté. On est passé clairement de la remarque bienveillante à de la malveillance exacerbée.
L’extrême droite avait saisi rapidement l’intérêt de se positionner en jouant sur les registres de l’émotion, de la vérité potentielle (« cela semble plausible, cela correspond à mes représentations, donc c’est tout à fait possible ») et donc de la désinformation.
La blogosphère et twittosphère majoritairement à gauche avec quelques éléments qu’on pourrait qualifier de centriste (même si je maintiens que ce concept de centre est une erreur autant intellectuelle que politique, ce que j’avais pu exprimer lors de mon bref passage en blogueur politique sous le nom de Pharmakon durant la période Modem) dans les années 2007-2009 se sont vus concurrencées par une fachosphère montante, décomplexée et débridée. Ce positionnement a fait exploser le consensus antisarkoziste qui existait en 2007 et a abouti à un éclatement des positionnements qui frisent la caricature et la radicalisation de toute part.
À titre personnel, il est souvent bien difficile de résister aux réactions puériles et partisanes. Seule solution : conserver une time-line la plus ouverte possible. Je dois admettre que j’évite de suivre sur Twitter les positions nationalistes néanmoins.
La montée en puissance de la stratégie de l’extrême-droite a conduit, à mon avis, a une volonté de réaction similaire de l’extrême-gauche avec un hyperactivisme et la mise en circulation d’informations tout aussi douteuses, ou de mauvaise foi la plus totale, et ce depuis une bonne année.
On peut constater que l’électorat de centre-gauche, centre-droit est parfois tenté désormais de réagir de même en amplifiant la moindre information contre les concurrents. Le phénomène est plus récent, mais ne peut qu’inquiéter à l’approche des prochaines élections européennes.
Nous sommes entrés en guérilla informationnelle tous azimuts avec tout un écosystème informationnel bordélisé, avec des remises en cause permanente des uns et des autres ; avec les journalistes au centre, qui sont tantôt encensés, tantôt critiqués selon les circonstances.
On retrouve une offre informationnelle élargie mais dont on ne possède pas les codes. C’est plutôt bien d’avoir finalement l’émergence de nouveaux médias même s’ils sont clairement politisés. Ce n’est pas foncièrement nouveau. Ce qui est gênant, c’est qu’on entre dans un système médiatique qui cherche surtout à dénoncer plutôt qu’à analyser, car il faut faire du buzz plutôt que de produire une information de qualité. Je ne suis donc pas si certain effectivement que ce soit toujours la vérité qui soit véritablement recherchée, mais il me semble que c’est surtout  l’erreur qui devient l’objet principal de la recherche. C’est un passage très classique dans la tension entre indexation des connaissances et indexation des existences. Je me demande si la presse n’est pas tentée d’y céder à son tour.
On va passer un temps infini sur la moindre petite affaire désormais et paradoxalement s’éloigner de la piste du journalisme de données qui semblait pouvoir émerger. Visiblement, nous ne sommes pas assez mûrs pour ce genre de perspective, car cela nécessite de nouvelles compétences chez les journalistes, mais surtout de nouvelles chez le lectorat.
Pour l’instant, on voit surtout des graphiques souvent biaisés pour tenter d’expliquer un phénomène économique. À ce niveau-là, certains économistes français peuvent continuer à vendre des bouquins prétendument hérétiques.
On avait déjà observé lors du referendum sur le traité européen une influence du web sur le résultat avec pas mal de désinformations et la découverte que l’Union Européenne s’était fondée sur des principes libéraux.
Il faut désormais s’attendre au pire dans les prochains mois.
Sur ce point effectivement, nul besoin d’avoir le soutien de bots russes pour que l’on continue à nourrir le populisme le plus total aux bénéfices des autres grandes puissances qui n’attendent que cela.
On peut donc s’attendre à des attaques ad hominem, à ce que l’on cherche la moindre bévue chez les politiques en place dans les gouvernements, mais par ricochet chez les députés et membres de l’opposition… mais encore sur le moindre journaliste suspecté d’être partisan.
Alors que faire ?
Si la loi dite « fake news » semble avoir du plomb dans l’aile, je reste persuadé qu’il faut légiférer sur la question notamment pour respecter la dimension citoyenne de la culture de l’information, décrite en 1976 par Major R Owens avec la nécessité que l’information literacy permette à l’électeur de pouvoir faire un choix politique en ayant tous les éléments à sa disposition.
Je sais que ma position est minoritaire à ce niveau parmi les universitaires, mais je crois travailler depuis suffisamment longtemps sur ces questions pour dire que la formation n’est pas suffisante pour éviter la désinformation. Même en renforçant l’EMI, on n’ y arrivera pas, car il faudrait vraiment un programme sérieux, ambitieux et sur de longues durées pour y parvenir. Pire, à mon avis, un saupoudrage EMI peut augmenter le risque complotiste (voir dans l’article pour mediadoc mon tableau sur les proximités qu’il peut y avoir parfois).
Autre point, je vois beaucoup de professionnels de l’information et des universitaires relayer des informations fausses ou bidons. J’ai moi-même retweeté (non sans avoir hésité) la fausse mort de journaliste ukrainien qui n’était en fait qu’une mise en scène.

image d'une activiste avec fumigène
pas de fumée sans feu ?

Alors que faire ? ou plutôt qui doit le faire ? Qui doit vérifier l’information ?
Les index n’appartiennent plus aux sphères bibliothéconomiques et documentaires, mais de plus en plus aux acteurs comme Google et Facebook qui s’appuient parfois sur des équipes de journalistes décodeurs pour tenter de vérifier l’information.
Les pistes algorithmiques et d’intelligence artificielle voir de deep learning sont également évoquées, mais bien souvent il s’agit d’extrapoler à partir de travaux humains qui fournissent des index.
Cette multiplication des guérillas informationnelles ne peut que désarçonner de plus en plus les autorités traditionnelles et notamment gouvernementales qui ne savent plus comment réagir et qui multiplient ainsi les erreurs dans le genre «  à toucher le fond, mais creuse encore ».
Voilà, pour cette réaction un peu rapide, à plusieurs éléments que je tente d’analyser depuis quelques années et qui devraient trouver suite dans le prochain ouvrage (un essai) que je suis en train de rédiger et pour lequel je cherche d’ailleurs un éditeur.
Je reviendrai ici sur des pistes potentielles face à l’infocalypse…
 
credit photo :

Photo by Warren Wong on Unsplash

A propos de la trilogie d’Antoine Bello : le storytelling et la vérité

Je suis en train d’achever avec plaisir la trilogie d’Antoine Bello avec les producteurs qui fait suite aux  falsificateurs et aux éclaireurs. (les liens vont vers Amazon, mais vous les trouverez chez votre libraire ou bibliothécaire préféré)
L’histoire est bien menée, difficile de décrocher et cela fait écho en plus à certains faits du passé, et cela ne peut que nous faire réfléchir.
Cette trilogie me semble incontournable pour ceux qui s’intéressent à la question du storytelling et sans doute également du transmédia, mais aussi à tous ceux qui s’intéressent à la fabrique du faux ou tout au moins du plausible.
L’ouvrage nous interroge sur notre rapport à la vérité.
Antoine Bello décrit une organisation dont le but est de travestir la réalité  que nous connaissons, pour nous proposer des alternatives que nous prenons d’ailleurs pour des vérités dans des buts qui sont en général plutôt progressistes et pacifiques, même si l’organisation secrète s’avère plus complexe.
Des documentalistes travaillent dans cette organisation, et on se demande au final s’ils sont vraiment au service de la vérité, car l’organisation repose sur plusieurs types de hiérarchies et différents personnels.
Mais les principaux emplois concernent finalement les scénaristes, ceux qui inventent des histoires, et les falsificateurs, ceux qui produisent, transforment des documents pour les rendre crédibles.
Le personnage principal est justement un scénariste islandais  Sliv Dartunghuver qui arrive au sommet de l’organisation. Un nom étrange qui résonne comme un dark hangover, une mauvaise gueule de bois.
Cette capacité à raconter des histoires et finalement parvenir à les diffuser via les médias et bien sûr de plus en plus de façon transmédia est pasionnante à découvrir dans l’ouvrage, car cela pose la question des régimes de vérité qui nous gouvernent. Or, il semble que ce soit clairement une lutte, à l’instar de celle déjà décrite par Bruno Latour dans les milieux scientifiques, si ce n’est que c’est également le cas pour à peu près tout ce qui nous entoure. Le CFR ( Consortium de falsification du réel ) fonctionne finalement comme un gigantesque système de lobby supranational. Les méthodes sont finalement assez similaires au point d’ailleurs qu’on se demande si l’auteur n’a pas travaillé dans ces milieux.  En tout cas, Antoine Bello est un écrivain hors-norme, pas si éloigné du héros principal finalement, en étant également un homme d’affaires qui vit aux États-Unis d’après cet article de Télérama.  L’auteur a fondé une société Ubiqus qui s’inspire d’un de ses romans . On note qu’en tant que descendant de Marcel Aymé, cette histoire d’ubiquité me fait penser à la nouvelle « les sabines ».
Mais finalement, est-ce que tout cela est vrai ? D’ailleurs, on se demande à la fin si l’auteur ne finit pas par se perdre lui-même dans la dernière partie de sa trilogie avec cette histoire de tribus maya qui peine à nous convaincre… sans doute avons-nous été dès lors à bonne école avec les deux tomes précédents. Mais bon, la morale de l’histoire est sans doute quand le dernier tome nous place dans une situation qui consiste à  nous faire regarder dans la profondeur de la mer avec cette histoire d’épave près des côtes mexicaines,  alors qu’il serait sans doute plus opportun de  regarder en l’air peut-être. On se demande parfois, s’il ne peut pas y avoir une autre lecture de la triologie, avec un sens caché qui nous aurait échappé. L’appendice final n’y répond que de façon partielle.  D’ailleurs est-ce vraiment la fin de la trilogie ?
Bello nous montre que les ressors de la falsification reposent sur les mécaniques du storytelling couplées aux logiques de la captation de l’attention. On notera d’ailleurs les nombreuses références aux stratégies de manipulation des réseaux sociaux qui sont déployées par les protagonistes notamment dans ce dernier tome. Par endroit, on est tenté de dire que ça sent le vécu…
Bref, une bonne trilogie intéressante à lire pour passer un bon moment et pour ouvrir également sa réflexion quant à la fabrique de la réalité et de la vérité.
À la lecture de la trilogie, il devient également difficile d’en vouloir aux conspirationnistes , car la production massive d’histoire qu’on nous sert au quotidien ne peut que semer le doute en chacun de nous. J’avais déjà remarqué lors de ma thèse que la pire situation serait celle d’un doute qui empêcherait finalement toute position vis-à-vis de la vérité. Une vérité qui ne deviendrait qu’une illusion, un idéal absurde. Telle est d’ailleurs la conclusion du dernier roman d’Umberto Eco.
Ce rapport à la vérité est pourtant essentiel à plusieurs titres :
– Il fait partie des prérogatives de nombreux professionnels de l’information, comme les journalistes et les documentalistes. C’est également une des missions de la science, même si l’erreur est possible et que la science doit permettre la contradiction.
– Il constitue finalement un objectif ou idéal de l’humanité ou en tout cas de l’esprit humain. Comment envisager un humanisme si on considère que la vérité n’est que relative, et que tous les discours se valent finalement?
– cela pose également la question : qui sont les détenteurs et autorités de la vérité ? Les travaux notamment dans la lignée de Foucault montrent que les institutions se sont souvent construites dans un rapport d’une détention du savoir et de la vérité qui est légitime ? Mais qu’en est-il actuellement, à l’heure où les plus grandes démocraties de l’histoire font le choix de l’extrémisme (imaginons qu’après le Brexit britannique, les États-Unis choisissent Trump et la France Marine Le Pen ?) notamment parce que le pouvoir politique est devenu inconsistant (c’est le cas du hollandisme qui n’est pas un consensus mou, mais une mollesse sans consensus et un daladiérisme inconscient). Le pouvoir a basculé sur d’autres institutions que sont les industries, notamment les industries de programmes et de services.
Ce sont les GAFA qui désormais écrivent l’histoire supranationale, mais également nos petites histoires du quotidien qui tout en nous offrant une liberté apparente d’action, nous contraignent dans des formes pré-écrites, des architextes. Il ne s’agit pas de fantasmer sur les big data et les algorithmes, ce sont simplement des logiques de petites histoires qui sont ainsi constituées.
Il reste à savoir si dans ces écritures pro-grammées, il y a véritablement un idéal, un objectif ultime, question qui taraude les membres du CFR dans la trilogie d’Antoine Bello. S’il semblait y avoir quelques idées dans les organismes de paix internationaux à leur début, on ne peut qu’en douter depuis. Dès lors, y a-t-il un ghost in the machine chez Google, Facebook et consorts où faut-il n’y voir que la main invisible du marché qui doit souffrir d’arthrite aiguë, car elle ne semble faire que le même mouvement pour remplir la même poche.
J’y reviendrai certainement, mais actuellement cela ne peut qu’interroger les professionnels de l’information. Paul Otlet considérait que l’information devait être vraie comme base de la documentation. De plus, cet accès devait au final permettre l’amélioration du niveau intellectuel de la population mondiale afin de pouvoir espérer une paix universelle. Qu’en est-il actuellement ?
Quand des professionnels de l’information d’un grand groupe français me disaient il y a quelques années, qu’ils procédaient beaucoup à de la destruction de documents trop sensibles et donc pas nécessairement pour conserver pour les archives, cela ne peut que nous interroger.
Complexe également est la formation dont je m’occupe qui oblige à multiplier les compétences et à savoir les utiliser au bon moment à bon escient. Tantôt, il faut faire preuve de proximité avec le document original lorsqu’il s’agit de réaliser une analyse documentaire qui ne doit souffrir d’aucune déformation, interprétation et critique, tantôt il faut développer  des qualités communicationnelles qui impliquent à l’inverse d’imaginer et de produire du nouveau.
Les professionnels de l’information ne sont pas nécessairement au service de la vérité. Ils font parfois oeuvre de fiction. Reste à savoir quelle est la recette du bon équilibre.
D’ici quelque temps, je vous reparlerai d’Antoine Bello avec son dernier ouvrage Ada, autour de l’intelligence artificielle.

La fin de la révélation ?

Je vous livre un début de réflexion que seul le blog peut accueillir pour le moment, tant il s’agit d’une amorce non finalisée, mais qui est mue par un besoin de s’exprimer face à un sentiment d’impuissance croissant.

J’ai achevé il y a quelques jours la lecture de numéro zéro d’Umberto Eco qui n’est pas son meilleur ouvrage loin de là, et qui m’a laissé un étrange sentiment également. Mais je commence à mieux saisir le message au fil du temps. L’histoire est celle d’un pseudo-journal qui ne paraîtra jamais, une sorte de farce en quelque sorte, mais qui finir par se retourner contre les journalistes, car un des journalistes obsédé par les théories du complot, finit par relier tout un tas événements de la politique et de l’histoire italienne à la non-mort du Mussolini. Cette histoire rocambolesque possède un tel fonds de crédibilité qu’elle précipite la fin de l’expérience, car elle met finalement trop de personnes en danger. Néanmoins, les hypothèses de l’étrange complot finissent par être divulguées par une télévision anglaise qui révèle alors au grand public toutes les manipulations et les acteurs impliqués. La conclusion est alors terrible : il ne se passe rien, personne ne démissionne, tout le monde reste en place, rien n’est vraiment grave de toute façon.

C’est la leçon du numéro zéro, une conséquence finalement tragique, c’est la fin du pouvoir des médias d’investigation et la disparition progressive de la révélation. Le message ne passe plus, car il y a trop de messages évidemment, mais également parce que l’enjeu n’est pas que ce soit vrai ou faux, mais que tout le monde s’en fout. Il ne peut y avoir de suite aux révélations que si et seulement si, il y a des suites judiciaires, à condition que cette dernière puisse exercer son action… ce qui n’est évidemment plus le cas. Les ministres grugent le fisc et restent en place, etc.

Chaque affaire révélée par les médias ne produit plus d’effets, car il y en a tout simplement trop d’une part, d’autre part parce que ça n’étonne plus personne. La révélation ne fonctionne plus, car l’affaire à révéler n’est pas une chose rare, ce qui témoigne d’un niveau de corruption de la République jamais atteint jusqu’alors en France. Par exemple, alors que la mairie de Bordeaux a manipulé les chiffres du budget notamment autour du nouveau stade, ce qui constitue une escroquerie de plus de 100 millions d’euros et qui devrait conduire à une démission immédiate de l’édile responsable… ce dernier raille simplement l’opposition. Même chose finalement pour les divers leaks, les lanceurs d’alerte sont quant à eux poursuivis en justice, voient leur vie détruite…pendant qu’on cherche à protéger les secrets industriels (en fait les petites magouilles entre amis). On pourrait imaginer que l’hypocrisie habituelle aboutirait à sacrifier de temps en temps quelques personnages, mais le plus simple est de blâmer désormais celui qui interrompt le jeu. Celui qui tente le chemin de la révélation est considéré comme un infâme streaker qu’il faut plaquer au sol. C’est lui qu’on sacrifiera au final pour le bénéfice du show must go on.

Jamais, on a vu un tel culot des personnes incriminées… on a l’impression de se retrouver dans le sketch de Catherine de Pierre Palmade « si tu t’excusais et qu’on n’en parlait plus !».

Dans l’histoire de la circulation et de l’information, le vocabulaire de la révélation a bien sûr été lié au vocabulaire religieux, mais également à la découverte scientifique. Finalement, le journalisme en a fait un de ses fers de lance, en incarnant un quatrième pouvoir nécessaire. Or, il devient non seulement de plus en difficile de réaliser ce travail, mais lorsqu’il est réalisé… il est d’emblée mis en doute ou pire ignoré. La révélation est devenue impuissante, face à d’autres magies que je ne sais comment qualifier. Il se produit en tout cas une forme de tragédie informationnelle d’un type nouveau que je ne sais pas encore conceptualiser. Ce dévoilement informationnel impuissant ne peut qu’inquiéter, car il est le marqueur d’un désenchantement du monde, de dysfonctionnements suite à une sorte de magie noire dont nos politiques sont les grands maîtres. Finalement, ces médecins de nos sociétés ne sont pas là pour nous soigner, mais faire de nous des malades permanents porteurs de tous les maux. On retrouve ce que disait Antonin Artaud à propos de cet état de magie noire qui n’existait pas il n’y a pas si longtemps. Sauf que ce n’est pas une mort classique, mais une zombification qu’avait déjà dénoncée Romero. Cette situation informationnelle étrange va alimenter mes réflexions (et mes actions ?) dans les prochains mois

Une des réponses se situe peut-être dans l’humanisme de Montaigne dont j’ai lu récemment la biographie par Stephen Zweig. On connait la célèbre devise « Que sais-je ? » de l’ancien édile de Bordeaux. Cette question, il nous faut nous la poser, à condition de l’accompagner d’une autre question « Que fais-je ? » Sans doute pouvons déjouer une énième conjuration de Catilina (saine lecture pour les rares latinistes survivants), mais ne pourrons pas sauver cette république.

La CI en 7 leçons. E05. La culture de l’information repense les aspects de la formation liés à l’information.

Suite de la série hiémale sur la culture de l’information.  Pour rappel, l’épisode 1 est ici, le second est là , le troisième ici et le précédent est là.
Une des principales difficultés réside dans le fait de savoir de quelle information, il s’agit au sein de la culture de l’information. A priori, l’adjonction des deux termes parait presque antithétique avec une culture inscrite dans la durée et une information souvent perçue comme éphémère.
Il convient donc de clarifier la notion d’information en la regardant dans une perspective historique plus large et différente de celle qui assimile l’information à des simples flux ou à de brèves nouvelles issues des médias.
En premier lieu, il convient de rappeler la prise de forme qui s’effectue dans l’information. Sans pour autant revenir à un schème hylémorphique trop classique (vision d’Aristote du potier qui donne forme à la glaise), nous avons donc choisi d’opter pour une conception puisant dans les travaux de Gilbert Simondon. Ce dernier substitue d’ailleurs la notion d’information à celle de forme :
La notion de forme doit être remplacée par celle d’information, qui suppose l’existence d’un système en état d’équilibre métastable pouvant s’individuer : l’information, à la différence de la forme, n’est jamais un terme unique.[1]
Il reste que la polysémie du mot information n’est pas totalement résolue dans les travaux de Simondon où se mêlent diverses influences notamment celle de la cybernétique. En ce qui concerne la culture de l’information,  il est possible de conserver les trois principaux sens de l’information à la fois en tant que nouvelles, données et connaissances auxquelles on pourrait rajouter une dimension de médiation. Il convient cependant d’insister sur les aspects de formation voire de déformation qui se jouent autour de ces différents types d’information.
En effet, le contraire de l’information est d’abord la déformation. Cela signifie que l’intérêt de l’information réside dans sa capacité de formation, c’est-à-dire dans les possibilités qu’elle ouvre dans la construction des individus et des collectifs d’individus. Nous partageons la position de Bernard Stiegler issue de Simondon, que cette formation, qu’il définit plutôt comme une individuation voire une transindividuation, ne peut s’opérer qu’au sein de collectifs d’humains et de machines : les milieux associés.
Cependant, de plus en plus, ces milieux sont surtout dissociés, c’est-à-dire qu’ils court-circuitent la formation et constituent plutôt des dispositifs de déformation. Bernard Stiegler démontre particulièrement ces aspects en ce qui concerne la télévision. Cependant, nous avons montré que le web 2.0, qui repose souvent davantage sur la popularité, ne garantit pas la constitution de milieux associés notamment du fait de nombreuses infopollutions. Bernard Stiegler parle d’ailleurs de « jeunesse déformée », notamment par un déficit d’attention qui est la conséquence des stratégies publicitaires que nous pouvons rencontrer notamment sur les skyblogs mais qui prennent de l’ampleur sur la plupart des dispositifs numériques actuellement.
De même, du fait d’une complexité liée aux évolutions du document numérique, de nouveaux défis documentaires et sémantiques sont posés. La réalisation de ces milieux associés peut s’effectuer dès lors dans une continuité de l’héritage documentaire, avec le développement de nouvelles techniques documentaires (qui sont également désormais informatiques et numérique) pour faciliter l’accès à de l’information digne de confiance et des outils qui autorisent la création, l’annotation et l’invention.
Il s’agit donc de percevoir l’information non pas selon le paradigme informationnel qui consiste à faire de l’information une valeur marchande qui ne cesse de décroître, mais de développer la formation à l’œuvre dans l’information pour aller vers la société des savoirs dont la valeur se maintient. L’information de la culture de l’information diffère donc de celle de la société de l’information. Elles proviennent toutes deux de la raison mais au sein de la société de l’information, elle devient surtout ratio, c’est-à-dire calcul. Dans la logique de la société de l’information, tout devient mesurable si bien que la quantité prime sur la qualité. L’information se met alors au service de la performance. Une performance qui consiste en une trans-formation généralisée de la matière aussi bien que de l’esprit [2]. En effet, l’adjonction autour des discours de la société de l’information est celle de l’adaptation dans une logique de survie.
Bon nombre de discours et d’articles autour de l’information literacy n’échappent pas à cette vision extrêmement concurrentielle entre les individus et qui présentent les habiletés informationnelles comme des moyens de se distinguer par rapport aux autres.
L’adaptation imposée entraîne une déformation facilitée chez les jeunes générations par la prédominance du besoin d’affirmation sur le besoin d’information.
La culture constitue davantage une réponse, même si elle n’est pas exempte de normes :
C’est elle qui constitue le monde auquel nous devons nous adapter, en même qu’elle est la boîte à outils dont nous avons besoin pour y parvenir. (…) Considérer le monde comme un simple réservoir d’informations, que chacun traiterait à sa façon, ce serait perdre de vue la manière dont l’homme se forme et fonctionne. [3]
Si la culture donne forme à l’esprit, c’est également parce que l’individu en tant que « je » peut prendre part au « nous ». Un nous participatif face à un « on », indéterminé, qui contraint à se conformer à une logique utilitariste, qui même si elle se prétend anti-idéologique, devient pourtant une idéologie aussi puissante. Elle en devient négative pour la formation et pour l’éducation en général comme le remarque bien Philippe Meirieu :
Nous sommes passés de la transmission d’une culture et de valeurs assumées (ce qui ne signifie nullement, bien sûr, qu’elles n’étaient pas contestables sur le plan éthique et politique) à la production de résultats identifiés : or, en dépit d’un consensus social apparent sur la nature et l’importance des ces résultats (l’acquisition du socle commun, la formation à la citoyenneté, l’élévation du niveau de qualification, etc.), ces résultats ne sont actuellement que des « utilités scolaires et sociales », privés de toute verticalité capable de les relier, en même temps, à un patrimoine et à un projet, à un passé et à un futur.[4]
Voilà pourquoi, nous avons avancé l’idée d’une reformation de la culture de l’information (titre de notre thèse), qui prenne en compte les enjeux évoqués. C’est aussi la réalisation d’un programme culturel autour de la formation qui évite autant la nostalgie éducative que la seule logique utilitariste.
Nous préconisons la poursuite d’un travail de transmission autour d’un héritage qui ne soit pas un fardeau mais au contraire porteur de potentialités. Simondon défend l’idée d’une société métastable c’est-à-dire dont les potentiels ne sont pas épuisés et dont l’ensemble des savoirs n’est pas figé. La formation doit donc se concevoir non pas au sein d’une culture normée et inscrite dans des logiques d’héritiers mais plutôt au sein d’une culture technique qui permet davantage la formation de l’individu.



[1] Gilbert SIMONDON. L’individuation psychique et collective : A la lumière des notions de Forme, Information, Potentiel et Métastabilité.Editions Aubier. 2007., p.35
[2] Bernard SIEGLER. Constituer l’Europe. T.2 Le motif européen. Paris. Galilée, 2005, p.32
[3] Jérôme BRUNER. car la culture donne forme à l’esprit: De la révolution cognitive à la psychologie culturelle. Retz, 1991
[4] Philippe MEIRIEU. Le maître, serviteur public »Sur quoi fonder l’autorité des enseignants dans nos sociétés démocratiques ? Conférence donnée dans le cadre de l’École d’été de Rosa Sensat, Université de Barcelone, juillet 2008. < http://www.meirieu.com/ARTICLES/maitre_serviteur_public_version2.pdf> p. 5
 

L’information est-elle une science ?

Ce billet fait suite à la lecture de deux autres. Le premier est celui d’Olivier Ertzscheid qui rappelle qu’en dehors de notre hexagone, la science de l’information jouit d’une légitimité réelle au même type que des disciplines classiques telles la physique. Or en France les sciences de l’information demeurent toujours dans un statut hybride puisqu’associées aux sciences de la communication et dans un statut mineur puisque c’est bien un institut de la communication que pilote Dominique Wolton. Pourtant effectivement les communications scientifiques en la matière prennent de l’essor et les chantiers ne cessent de s’accroître.
Le second billet est celui de Jean Michel Salaun qui annonce le changement de dénomination de la faculté des sciences de l’information de Toronto qui retire le terme de sciences pour devenir Faculté d’Information afin d’être reconnu à l’instar des autres disciplines des facultés de droit, etc.
Soit nous considérons cela comme une réelle avancée et que désormais l’adjonction du terme science devient inutile car évident comme cela semble être le cas chez les canadiens, soit nous devons nous inquiéter du fait que c’est avant tout le caractère professionnel et managérial qui est mis en avant, cédant à une mode du raccourci sémantique, transformant l’institution devenue I-Ecole en un objet instable pouvant être rejeté.
Finalement cela revient à poser la question brutalement : l’information peut-elle être le support d’une science ? Nous pouvons par notre pratique répondre affirmativement. Mais il est clair qu’elle ne peut être une science purement isolée…mais quelle science peut vraiment l’être ? La solution hybride française va à mon avis s’avérer un avantage au cours des années futures tant les domaines communicationnels et informationnels vont rencontrer des terrains communs. Je considère déjà que la culture de la communication élargit ses horizons et tend à devenir une culture de l’information et de la communication.
Scientifiquement néanmoins, il y a nécessité de découper, de forger des concepts. En clair, il s’agit d’éviter la confusion et la fusion totale sans quoi la science n’existerait plus et laisserait place à des dogmes. C’est tout l’enjeu scientifique actuel, parvenir à créer à la fois des associations, des liens tout en ne dénaturant pas les concepts et objets scientifiques. Pour tisser la vision de Simondon à la sauce Stiegler, il convient scientifiquement de créer des milieux scientifiques associés qui permettent à des éléments scientifiques stables de se constituer propres à leur champ respectif et de parvenir à créer des stratégies collectives transdisciplinaires permettant la potentialité créatrice.
Une nouvelle fois, j’ai le sentiment que la situation hybride et insitutionnellement difficile des sciences de l’information n’est pas un désavantage à condition que son état transdisciplinaire ne soit pas un obstacle à la stabilisation du travail scientifique. L’ensemble du travail scientifique ne peut être en bêta perpétuelle. Le fait que dans le classement français sciences de Wikio, certes très discutable car basé sur la popularité et non sur l »autorité, 11 blogs dans les 20 premiers concerne les sciences de l’information et des bibliothèques témoignent d’un bouillon intellectuel dont la communauté scientifique doit se saisir. Il faut malgré tout désormais que tout cela puisse institutionnellement être visible notamment au niveau français. Car c’est bien là qu’il semble qu’il faille travailler, si l’information est une science, elle n’est pas devenue une institution au même titre que le droit par exemple ou comme les mathématiques. Cela se voit également au niveau de l’Education Nationale ou finalement elle n’est pas non plus considérée comme une discipline mais tout au plus intégré dans les éducations à. Or, les enjeux informationnels sont trop importants désormais : les sciences de l’information doivent occuper une place au sein du système scolaire. Le travail doit donc se poursuivre entre sciences et savoir, pour cela il faut des moyens et notamment humains mais également la caution institutionnelle qui tarde à venir. Il est vrai qu’une science et des savoirs qui amènent le citoyen à réflèchir à l’âge de la vitesse ne sont peut-être pas du goût de tous les décideurs.

Facebook : Rennes-le-Château devient Versailles ?

Cela fait désormais plus de 6 mois que j’utilise facebook et désormais il semble qu’un rythme de croisière se met en place. Le réseau social semble continuer à séduire, j’en tiens pour preuve l’arrivée massive depuis quelques mois d’anciens camarades de classe. Mais finalement ce qui est le plus marquant, c’est comme le dit un ami récemment arrivé, Facebook c’est un peu l’antiskyblog, à savoir que le réseau séduit principalement des personnes diplômées ce qui parait logique puisque le réseau était initialement axé sur les profils universitaires. J’ai désormais atteint le chiffre de 79 « amis » qu’il faudrait plutôt qualifier de relations. Sur cet ensemble, il faut bien avouer que rares sont ceux qui ont des diplômes inférieurs à la licence ce qui confirme également que la dimension professionnelle ne saurait être vaine. Pour aller plus loin, ne pas figurer sur un réseau social pourrait s’avérer autant préjudiciable que d’y mettre des renseignements trop personnels. Une nouvelle fois, notre double numérique, notre identité indexée, notre Kà documentarisé nous renvoie à l’aporie shakespearienne. Or Facebook ce n’est pas que Rennes-le-Château...c’est désormais Versailles avec ses clans, et sans doute bientôt ses cabales ce qui mériteraient de faire renaitre le Louis de Rouvroy , Duc de Saint-Simon et auteur des célèbres mémoires . Je ne sais pas s’il faut considérer Eric Delcroix comme le nouveau Saint Simon qui va nous aider à utiliser efficacement le réseau avec son ouvrage sur la question mais je ne peux que constater que c’est par ce biais que j’ai été contacté ce matin par un journaliste. Faut-il dès lors voir ce réseau comme l’annuaire indispensable, le nouveau who’s who affichant tous nos divers pédigrées? Finalement c’est ce Saint-Simon là qui est le père de la philosophie des réseaux bien avant son cousin. D’ailleurs il parle de sa première liaison avec le Duc de Chartres pour exprimer son entrée au sein du réseau royal car finalement ce n’est pas des amis que nous avons sur Facebook mais des liaisons de différents types. D’ailleurs je lance un défi aux historiens passionnés par les réseaux sociaux pour nous constituer un Facebook historique de l’époque de Louis XIV. Une telle étude permettrait peut-être de comprendre un peu mieux la complexe période de la Fronde. Je vais d’ailleurs tenter une initiative de ce genre bien moins ambitieuse avec mes élèves concernant la littérature…affaire à suivre donc.
Si Facebook s’avère le nouveau Versailles, qui en est le nouveau Roi ? Et bien ce n’est pas son créateur, Zuckerberg mais le réseau lui-même, le Réseau d’Organisations et d’Informations. Par contre, je ne suis pas certain qu’il soit démocrate contrairement à ce que j’écrivais en 2002. Il présente néanmoins un avantage, celui d’être un lieu virtuel et permet aux « provinciaux » de figurer en bonne place. Ainsi Facebook ne correspond pas à une vision centralisée classique, mais permet de constituer non pas un big brother, mais un little sister où chacun observe et peu observer, critiquer voire dénoncer…non pas un panopticon mais un  nonopticon. L’Arcadie a donc créer son Versailles : le dieu Hermès (trismégiste ?) va donc pouvoir s’amuser encore un peu.

Le Gr-CDI : La culture et la didactique de l’information.

La culture de l’information et la didactique de l’information sont des sujets passionnants et il existe des ponts bien sûr entre les deux.
Le Gr-Cdi regroupe quelques personnes qui travaillent autour de ces questions et qui tentent à la fois d’éclairer les concepts mais aussi de forger les bases d’une didactique de l’information efficace.
Le groupe est né d’une volonté conjointe de se retrouver autour de ces questions et de rassembler les efforts afin qu’ils puissent aboutir à des projets communs et des avancées intéressantes sur ces domaines.
Souhaité depuis longue date par Alexandre Serres et impulsé également par la volonté de Jacques Kernéis, le groupe rassemble principalement des personnes engagés dans des travaux de recherche.
Un séminaire a eu lieu en septembre 2007. Vous pourrez retrouver les textes des interventions sur le site du GR-CDI qui est hébergé sur le site de l’Urfist de Bretagne-Pays de Loire.
Vous pouvez visualiser le support de ma présentation, n’ayant rédigé aucun texte pour l’occasion, thèse oblige. Mon intervention tournait autour des cultures de l’information et des différentes conceptions de l’information literacy.
La présentation sur slideshare

Métamorphose de l’éducation : allons-nous devenir des individus purs ?

Dans la lignée de ma réaction anti « éducation 2.0 » au niveau conceptuel, je pense qu’il faut faire attention à ne pas être dans une mutation permanente. Il faut donc envisager des éléments stables avec des éléments évolutifs et non pas adaptationnistes voire quasi darwinistes. Je m’inscris donc encore une fois contre le concept d’éducation 2.0 ou bien encore contre celui d‘apprentinuité proposé par la dynamique Florence Meichel qui cherche à fédérer toutes les bonnes volontés pour tirer profit au maximum des nouvelles technologies pour améliorer les performances éducatives. Je vous invite d’ailleurs à participer au réseau qui regroupe plusieurs usagers actifs dans le domaine et sur lequel vous trouverez liens et réflexions pertinentes. Même si nous ne sommes pas tous d’accord, la discussion reste courtoise, ce qui peut faire progresser le débat. Je vous invite également à lire la réflexion de Mario Asselin sur le sujet.
Je ne peux souscrire donc aux notions d’apprentinuité, ni de méta-élève pour la simple raison que cela entraine non pas une métastabilité telle que la voit Simondon mais une déstabilisation permanente. Une nouvelle fois, il s’agit d’être proactif comme le propose le finlandais Teemu Arina et pas seulement réactif. Je comprends malgré tout la volonté de prôner un enseignement qui ne soit pas en décalage, mais je rejoints Teemu sur la nécessité d’échapper à l’âge de la vitesse.

Dès lors, l’éducation demeure l’éducation et les apprenants demeure des apprenants et non des apprentinuants, barbarisme linguistique avec lequel j’ai beaucoup de mal puisqu’il s’agit d’un pléonasme, apprenant comportant déjà cette permanence d’apprentissage. Il ne s’agit donc pas de déstabiliser un peu plus des concepts et des institutions déjà en grande difficulté mais de permettre la transindividualisation notamment des élèves voire des enseignants grâce aux nouvelles technologies devenues hypomnemata des milieux éducatifs associés. Il s’agit d’adopter plutôt que de s’adapter.
Je pense pourtant que Florence partage les mêmes objectifs que moi, mais il faut être prudent et surtout efficace. L’institution scolaire doit se transformer et progresser à la fois dans une individualisation psychique et collective mais également afin que l’élève puisse se ré-approprier les moyens d’accès au savoir face aux tentatives de court-circuitage entropique des industries de service. (cf Stiegler)
Or, il faut être clairvoyant car les outils du web 2.0 peuvent également constituer des techniques dissociatives qui peuvent encore plus priver les usagers notamment de leur anonymat. Je songe ici au phénomène de l’Arcadie, prolongement du web 2.0, qui nous enferme dans un panoptique foucaldien permanent où nous sommes autant que voyeurs qu’observés. Je renvoie ici à mes articles sur urfist info et sur le site spokéo.
Par conséquent pour créer ces milieux associés, il faut prendre en compte la technique et notamment la culture technique qui implique que nous devenions majeurs au sens de Simondon et pas seulement mineur, c’est à dire qu’il nous faut comprendre le fonctionnement et la philosophie de ces outils qui n’ont probablement pas encore atteints leur concrétisation ultime.
Je rejoints néanmoins Florence sur le fait que nous non plus, apprenants et enseignants n’avons sans doute pas encore complèté notre transindividuation, mais il ne s’agit nullement d’augmenter l’entropie informationnelle et bien au contraire de construire la néguentropie des savoirs. Cela implique de l’association mais aussi de la distinction.
Par conséquent, ce n’est pas les concepts qu’il faut faire évoluer mais bel et bien le système. Il nous faut ainsi devenir des individus purs au sens de Simondon « médiateur entre la communauté et l’objet caché ou inaccessible »

Pascal Duplessis : le didacticien de l’information.

Je vous invite à découvrir le blog de Pascal Duplessis qui promet d’être un lieu intéressant notamment pour ceux qui s’intéressent à la didactique de l’information mais pas seulement comme vous pourrez le découvrir sur son site.
C’est l’occasion également en présentant le travail de Pascal de découvrir ou de redécouvrir quelques uns de ses articles notamment l’interview de savoirCdi, les travaux réalisés dans le cadre d’un groupe de travail de l’Académie de Nantes, et bien d’autres encore.
Les amateurs de mythologie et de cmaptools seront également servis.

Didactique 2.0 : la pédagogie documentaire en action.

Je viens de lancer il y a une semaine un projet avec un groupe de troisièmes pas spécialement motivés initialement.
Il s’agit de les former à la culture de l’information et de la communication à partir d’un blog : historiae : les troisièmes mènent l’enquête.
Il s’agit aussi d’un pari car j’espère que les élèves se montreront capables de produire du contenu. Il conviendra néanmoins d’être modeste car les thèmes donnés sont volontairement complexes.
Je reproduis ici l’à Propos qui définit les objectifs :

Bienvenue sur le blog expérimental des troisièmes du collège de Ceaucé-Passais. (orne 61)

12 élèves sont chargés de mener l’enquête sur des mystères ou des questions historiques. Le but est de reproduire l’état de doute perpétuel qui existe face à l’information avec des thématiques où tous types de ressources existent sur Internet. Le travail d’évaluation de l’information est par conséquent primordial. Les élèves bénéficieront d’aides notamment sous la forme de cartes heuristiques (mind-mapping) qui les guideront dans leur méthodologie de recherche. Le but n’est pas de s’inscrire dans une démarche procédurale mais de culture de l’information et de la communication. Par conséquent le choix a été fait d’associer le travail de recherche d’informations à sa communication au sens le plus large.
Le travail s’effectue dans la cadre d’un projet sous la direction des enseignants-documentalistes Olivier Le Deuff et Yves Ghis.
J’ai volontairement intégré au blog un cours en ligne qui se trouve dans une rubrique méthodologie, ce qui permet aux élèves de s’y référer facilement. Ce cours peut-être facilement intégrer à d’autres blogs ou à tout type de projet car il n’est pas fait sous forme d’articles de blogs mais avec des cartes interactives via le logiciel mind manager. Je suis donc preneur de toutes critiques et je suis prêt à ouvrir un wiki s’il le faut pour apporter des améliorations. Comme d’habitude ce cours est mise à disposition de tous. En voici donc les trois parties :
La première partie concerne les premières démarches.
La seconde porte sur l’évaluation de l’information
La troisième sur la communication.
Les premiers billets des élèves devraient apparaitre bientôt et seront donc ouverts aux commentaires.
Affaire à suivre donc…