Pourquoi le droit de vote à 16 ans me semble une erreur ?

Par défaut

Quelques députés plutôt sympathiques mènent une campagne en faveur du vote à 16 ans. On y retrouve notamment Paula Forteza dont j’apprécie le travail et qui présente clairement des atouts appréciables et une réflexion qui mériteraient de la voir mener une équipe ministérielle voire un gouvernement (on a le droit de rêver !).

Mais j’admets avoir un gros désaccord sur sa proposition de loi.
L’idée repose sur le fait de pouvoir donner une majorité civique de façon précoce pour offrir ainsi des moyens à nos adolescents de prendre part à l’action publique et aux choix de société qui vont concerner effectivement les jeunes citoyens et leur avenir. Il s’agit aussi de les inciter plus simplement à aller dans les urnes. Sur ce plan, on ne peut qu’acquiescer, surtout du fait que des décisions politiques impactent la jeunesse d’aujourd’hui et qu’il n’est pas idiot qu’elle puisse avoir son mot à dire.
Sauf que c’est valable aussi pour les générations qui ne sont pas encore nées et qu’il est bien difficile de leur donner un quelconque poids électoral pour le moment.

Plusieurs aspects me gênent dans cette initiative car j’y vois plusieurs erreurs à la fois en matière de connaissance du terrain (notamment des jeunes générations), mais également en ce qui concerne les conséquences directes et indirectes qui sont des revers de la médaille de la proposition.
Je ne comprends toujours par comment les politiques ne saisissent pas ou font semblant de ne pas saisir qu’une décision n’est jamais isolée et qu’elle produit des effets systémiques dont on perd souvent le contrôle. Il est vrai que la politique est surtout devenu un art de la rustine, art itératif et communicationnel qui peine à se projeter sereinement. Mais je ne peux m’empêcher de faire quelques remarques.

Première remarque. L’éducation civique n’existe plus ou presque. Je sais bien qu’il y aura quelque enseignants qui vont me rétorquer l’inverse, mais prenez les cahiers de vos adolescents et vous verrez qu’on fait surtout de la pseudo éducation morale et civique, qui s’avère de toute manière inefficiente au vu du succès grandissant des positionnements extrémistes et simplistes chez le jeune public. Je ne disserterai pas sur le manque d’ambition en matière de formation sur ces questions. Hier, durant mon cours, avec des étudiants de première année de DUT, (ils ont 18 ou 19 ans)… aucun n’a été capable de me dire ce qu’était une collectivité territoriale. C’est étonnant, car je me souviens encore l’avoir appris en cours d’éducation civique en cinquième. Le département communiquait pas mal là dessus. Premier constat, la compréhension des principes civiques et des institutions est faible. Vous me direz, ça ne change rien après chez les plus anciens des votants qui n’y entravent rien non plus… Certes, mais c’est quand même un argument à prendre en compte. En tout cas, un tel défi implique un gros chantier de formation. Je trouve ici un peu dommage de ne pas consulter les enseignants et universitaires sur ces aspects.

Deuxième remarque : ce chantier, il n’est pas nouveau. On le connaît depuis fort longtemps et il fait pleinement partie du chantier originel de la culture de l’information. Je renvoie ici à plusieurs travaux dont certains que j’ai pu mener en faveur de privilégier la voie citoyenne de la culture de l’information. C’est Owens qui en tant que représentant au congrès et ancien bibliothécaire va militer pour une formation qui permette au citoyen de pouvoir effectuer des choix en comprenant notamment les propositions électorales. Il s’agit aussi pour lui en tant que représentant noir américain de défendre les populations qui ont eu un accès limité aux études. Ce chantier demeure essentiel… sauf qu’il s’est compliqué depuis le constat d’Owens en 1976. En effet, l’information journalistique et politique est complexe à comprendre car elle est désormais entourée de logiques de désinformation tandis que les compétences digitales et informationnelles ne sont pas à la hauteur des espérances. En clair, espérer réunir ces conditions pour tous les français de 16 ans… est clairement prématuré.
Surtout que jusque là, il y avait comme une forme symbolique proche ou pas trop éloigné de la majorité, c’était l’accès à un premier diplôme, le bac général, technologique ou professionnel dans la majorité des cas ou des diplômes professionnels. Les deux années entre les 16 ans et les 18 ans me semblent essentiel pour atteindre un début de majorité… de l’entendement. Je ne détaille pas ici, mais j’avais axé l’intérêt de repenser l’état de majorité à la fois dans la lignée de Kant et dans la lignée de Simondon sur des aspects techniques.
Le but n’est pas d’avoir une maîtrise parfaite des questions civiques, mais d’exprimer la capacité à construire une réflexion qui soit basée sur un minimum d’éléments rationnels. Là aussi, vous me direz que les adultes ne sont pas toujours au niveau. C’est vrai, mais autant justement reposer les conditions de la formation à la citoyenneté d’une manière ambitieuse plutôt que de la brader en considérant que finalement vu que tout le monde est idiot, autant que tous les idiots puissent voter quel que soit leur âge. Or, il me semble qu’il faut surtout d’abord réinstituer (j’en parle également dans Riposte Digitale). J’ai peur que la mesure ne vienne court-circuiter encore plus une institution scolaire qui prend déjà l’eau de toutes parts.

Troisième remarque, il me semble qu’on oublie trop vite qu’accéder à des droits implique des responsabilités. Or ce n’est pas rien de voter, et je ne suis pas sûr qu’il faille banaliser trop vite ce geste politique. Est-on certain que les jeunes le veulent vraiment d’ailleurs ? Je suis tenté de dire que le droit de vote se mérite… et qu’il est la conséquence d’un processus institutionnel qui vise justement à instituer le citoyen. Le citoyenneté mérite mieux que cette simple ouverture de droits.
Au niveau responsabilité et systémique… comment ne pas voir qu’une majorité civique ne va pas pouvoir être décorrélée des autres majorités : les sexuelles et pénales.
Et là, je trouve qu’il y a également des risques. J’entends déjà les arguments : « s’ils sont en âge de voter, ils sont en âge de savoir faire des choix sur leur sexualité. ».. cadeau potentiel à tous les prédateurs sexuels. Là aussi, je crains donc une confusion inquiétante.

Quatrième remarque dans la suite de la précédente… il apparaît clairement évident qu’une majorité civique va impacter la justice des mineurs. On va se retrouver avec une idée qui vient plutôt de la gauche et qui va ouvrir à droite un vieux fantasme bien connu… celui de l’abaissement en matière de responsabilité devant la loi. On risque de devenir majeur à 16 ans sur tous les plans. Je pense qu’il faut vraiment à ce niveau mesurer les conséquences qui vont en résulter. Généralement, les peines sont diminuées de moitié pour les mineurs au moment des faits… ce ne sera plus le cas pour les mineurs de plus de 16 ans. On peut me dire qu’il faut distinguer les deux types de majorité… Or, il me semble que non, parce que le gain de droits implique des responsabilités. Les deux marchent de pair. J’ai le sentiment au final d’une déresponsabilisation des autorités autant parentales qu’institutionnelles qui pourraient au final résulter d’une telle démarche. On se retrouverait avec des droits en apparence, mais un régime de sanction croissant.

Cinquième remarque : l’argument présenté est que les jeunes peuvent créer leur entreprise à 16 ans mais qu’ils ne peuvent voter. C’est bien gentil, mais c’est d’une part fort rare, et d’autre part, c’est un argument un peu faible car il met sur les mêmes plans une construction civique et une logique entrepreneuriale. Je le précise aussi car l’argument de base plutôt à gauche devient comme très souvent un argument cadeau en faveur des mouvements les plus durs du libéralisme et de l’utra-libéralisme. Il n’est pas très compliqué pour un jeune de 16 ans de créer techniquement une entreprise… J’avais déjà dénoncé ce discours qui fait croire que les jeunes veulent devenir tous leur propre patron. Mais on peut craindre quelque part que le fait de devenir autoentrepreneur à 16 ans casse également la protection des mineurs en matière d’emploi pour les faire devenir des travailleurs de petit boulot. Je ne suis pas contre le fait que des adolescents puissent avoir des expériences d’emploi avant 18 ans, mais je crains surtout que ce ne soit pas du tout un choix, mais une contrainte voire une obligation économique. Le droit de vote serait une contrepartie relativement faible dans ce cadre.

L’enjeu plus important n’est pas celui du vote précoce mais de la représentation dans les assemblées des plus jeunes. Et il y a des pistes institutionnelles à creuser en militant plutôt pour un changement parlementaire (donc constitutionnel) qui obligerait à avoir des listes électorales avec un meilleur équilibre en âge… ce qui implique de supprimer le sénat et de le remplacer par une autre assemblée élue à la proportionnelle avec des listes qui permettent vraiment d’obtenir plus de diversité, plus de parité, plus de jeunes, plus de représentants de professions sous-représentées. Je crois que c’est quelque chose qui pourrait mobiliser et rassembler plus largement au-delà de clivages politiques.

Je reste ouvert au débat. Ma position n’étant que ma propre opinion.

La méthode Guy Roux, ou devenir l’AJA de la recherche

Guy roux, faut pas gâcher
Par défaut

« Faut pas gâcher »… tel semble désormais être le slogan inéluctable du chercheur français et notamment du petit chercheur en sciences humaines et sociales.
Le slogan déjà appliqué par beaucoup d’entre nous depuis des années est en train de devenir un programme, voire une idéologie.
En tout cas pour moi.
Je développe ici quelques aspects de la recherche « pour pas que ça coûte »

  1. Le contexte. La Logique de la Pire Patate Pour la Recherche
    Face aux incertitudes perpétuelles d’un ministère de la Recherche qui n’existe pas vraiment, coincé entre un Ministère de l’Éducation Nationale omnipotent qui peine à recruter désormais des enseignants et qui finalement considère la recherche comme un sous-domaine, et Bercy qui y voit un lieu d’arbitrage stratégique entre ajustements budgétaires et politique fiscale, le chercheur ne sait plus trop finalement quels sont ses marges de manœuvre notamment financières.
    Et ce d’autant que les universités sont théoriquement autonomes sans pouvoir l’être dans les faits. Les marges budgétaires sont faibles voire nulles et l’idée d’augmenter les frais d’inscription apparaît un risque idéologique trop important pour tenter l’expérience.
    Il reste alors aux chercheurs pas grand chose à espérer, si ce n’est décrocher quelques appels à projet pour tenter de monter quelque chose de plus ambitieux.
    La difficulté désormais est double, celle de recrutements raréfiés, ce qui a pour conséquence à la fois de freiner les carrières (ce qui occasionne de belles réductions budgétaires avec des maîtres de conférences guère mieux payés que leurs homologues du secondaire et moins bien rémunérés en tout cas que des agrégés au même âge bien souvent), mais aussi de placer une angoisse dans la procédure de recrutement de futurs collègues. L’erreur n’est plus possible dans les faits car il faut s’assurer que le collègue sera performant. Mais l’angoisse renforce les effets corporatistes et locaux. Plus le nombre de postes ouverts sera à la baisse, plus le risque d’un recrutement endémique et local va étrangement augmenter.
    Actuellement, plus ça avance, plus on a l’impression d’avoir les deux revers de la médaille du faible salaire et du nombre de postes en baisse. On pourrait éventuellement tolérer un salaire faible si la charge de travail était bien répartie et que les conditions s’avéraient propices pour recruter en nombre suffisant. Mais désormais, il faut accepter le salaire démotivant, et les charges qui ne cessent de s’accroître car le nombre de personnes recrutées diminue ce qui oblige alors en faire plus. Travailler plus pour gagner moins, et espérer être payé en reconnaissance, ou en je ne sais pas trop quoi. Il reste bien sûr l’espoir d’obtenir des charges spécifiques, des vice-présidences, la PEDR (bien utile il est vrai, mais qui nous transforme en VRP publiant ses performances de vente), mais on fait mieux mentalement.
    Contrairement à ce qu’on entend parfois, je ne crois pas pour autant que c’était mieux avant. Pour les conditions financières et la reconnaissance, c’est évident, pour la qualité de la recherche… c’est une autre histoire. Et je ne parle pas des comportements et des dérives liés aux abus de position d’autorité.

Mais là n’est désormais plus le sujet car il faut essayer de s’en sortir comme on peut.

  1. La méthode Guy Roux

Au sein d’une université modeste, le petit chercheur n’est pas totalement hors jeu mais il ne peut prétendre à des budgets conséquents, faciles à obtenir, ou à une force de frappe et de légitimité associée qui lui permet de rapidement déployer des financements.
En clair, il faut bien comprendre qu’il ne faut pas songer travailler avec des moyens dignes du Paris Sorbonne Galactique, ou de tout autre université-club prestigieux qui aurait recu une bénédiction Idex et Orbi.
Non, le modèle c’est l’AJ Auxerre désormais qu’il faut suivre désormais.
Pas de quoi tenir le haut du pavé et des célébrations, mais qu’importe. C’est la possibilité de faire des coups, de réaliser des progrès évidents et de partager ses réussites.
La recette est celle de la détection des talents et de la capacité à faire travailler ensemble des collègues différents.
Évidemment, tout repose sur la formation et la détection. Les AJA de la recherche ne peuvent fonctionner autrement, ce qui oblige du coup le chercheur à être aussi enseignant. Mais c’est là également que se joue l’avantage d’être « un petit club », c’est que c’est au sein de cette double identité qu’il est possible de repérer les bons éléments qui viendront prendre part aux projets de recherche. C’est aussi la possibilité parfois d’expérimenter à la marge avec ses propres outils et des timings où on peut prendre le risque de faire perdre un peu de temps plutôt que de suivre des protocoles ou des développements web déjà standardisés.
Cela suppose aussi un coaching relativement serré… Je ne dis pas qu’il faille fliquer les stagiaires, les doctorants ou mastérants au point de savoir s’ils sortent trop souvent le soir… Mais il s’agit bien de veiller sur eux, cela implique donc qu’il ne s’agit pas de faire des usines à doctorants, ou d’avoir pleins de doctorants sous son aile en envoyant dans le mur les trois quarts.
Mais il faut les soutenir, les conseiller et on ne peut le faire que si et seulement si on a fait des erreurs avant. Le plus mauvais professeur est celui qui a tout réussi.
Parmi les ingrédients qui peuvent permettre aux AJA de la recherche de résister est finalement l’idée de pouvoir perdre du temps… à chercher, tester, expérimenter. Actuellement, c’est ce luxe qu’on a pu accorder à notre stagiaire sur le projet HyperOtlet. Pour innover, pas de miracle…

Pour affronter le gel des postes, le Guy Roux de la recherche se doit toujours d’être prudent et quelque peu équipé...

Évidemment, parfois, pour notre Guy Roux, chercheur, c’est un sacerdoce… La crise cardiaque sur le terrain de jeu reste hélas probable.

Je reviendrai sans doute aussi que parfois une bonne idée, elle nécessite un peu d’argent (la recherche, ça coûte, ma pauv dame), d’un peu de temps et de quelques énergies mises ensemble à bon escient. Le projet bottom-up peut alors être plus efficace que le gros top-down trop calibré. A ce stade, mieux vaut finalement gérer une petite équipe qu’un gros regroupement d’égos sous peine d’aboutir à une situation digne de Knysna.
Clairement, il faut penser petit pour voir grand dans la mesure où il est préférable de développer d’abord une petite brique plutôt que de prétendre vouloir tout révolutionner d’un coup. Et c’est parfois la petite brique qui peut avoir un énorme impact, alors pourquoi se priver.

Sinon, faut être lucide, devenir l’AJA, c’est accepter le départ des meilleurs éléments qui auront été formés au bout d’un certain temps. Et on ne peut que le souhaiter vu les perspectives peu réjouissantes bien souvent en local.
Il faut être aussi lucide qu’au moment de passer les tours successifs de la ligue des champions de la recherche ou toute autre compétition, il y aura toujours un arbitre pour vous dire que votre procédé, votre projet, votre logiciel n’est pas conforme ou suffisamment orthodoxe… même si vous pensiez justement avoir changé de perspective à un problème. Remember le retourné de Lilian Laslande…

Au final, il faut aussi accepter d’être un peu chiant du coup, en allant mettre la pression quand il y a des inégalités évidentes, et de rappeler que les arbitres doivent aussi nous respecter autant que les gros…
Bon, allez, c’est vrai, ça va nous coûter un peu de « chablis » mais l’enjeu est de parvenir à se faire plaisir sans trop se prendre au sérieux. On n’a pas envie de faire « un Raoult » d’enfer!

Ps : Ce texte n’est pas non plus un plaidoyer pour aller faire des publicités pour arrondir nos fins de mois…

La question de l’anonymat et la crise de l’autorité.

Par défaut

J’avais dit que je ne réagirais pas sur l’actualité, mais je le fais aujourd’hui de manière distancée sur une question récurrente en ce qui concerne l’anonymat sur les réseaux.

Cette question est trop souvent mal posée, sur un angle parfois simpliste qui consiste à considérer que l’anonyme est celui qui commente sans s’engager personnellement, et qui profite de son anonymat (relatif) pour écrire les pires horreurs en se pensant à l’abri d’une action en diffamation.

Il est alors tentant d’envisager une plus grande régulation… qui passerait par des vérifications d’identité ou des obligations de déclaration d’identité.

Je suis plutôt pour conserver les possibilités multi-identitaires du web comme principe de base. La transparence totale me paraît très problématique et peu propice à générer une diversité d’usages. Elle apparaît aussi risquée à plus d’un titre. J’avais déjà montré par le passé que même au sein de l’Education Nationale, on n’osait plus rien dire, notamment du temps où sévissait un directeur omnipotent à la Dgesco.

D’autre part, il me semble que l’anonymat de base ne signifie pas qu’il soit impossible d’échapper à la loi. On peut porter plainte contre un anonyme ou un pseudonyme. L’enquête de la justice parviendra peut-être à condamner l’intéressé si besoin est, et si elle parvient à retrouver l’identité principale. Ici, restent en suspens les possibilités techniques, éthiques et législatives de ce type d’action. 

Mais le problème principal vient selon moi d’une poursuite de la crise de l’autorité qui s’est développée rapidement sur le web, mais qui est en fait une circonstance assez logique de la démocratisation de nos sociétés et de nos interfaces. J’en avais parlé en 2006 en montrant que la crise allait s’accentuer avec les nouveaux usages sur le web. J’étais reparti des travaux d’Hannah Arendt notamment ainsi que de sa définition :

«Le mot auctoritas dérive du verbe augere, «augmenter», et ce que l’autorité ou ceux qui commandent augmentent constamment, c’est la fondation. Les hommes dotés d’autorité étaient les anciens, le Sénat ou les patres, qui l’avaient obtenue par héritage et par transmission de ceux qui avaient posé les fondations pour toutes les choses à venir, les ancêtres, que les Romains appelaient pour cette raison les majores». (Arendt, la crise de la culture, 1989)

L’autorité permet justement d’asseoir une légitimité décisionnelle sans avoir recours à l’autoritarisme. Elle ne souffre pas de contestation.

Notre période politique montre bien cette volonté de contester les autorités même démocratiquement élues. On néglige à mon sens trop souvent que certains contestataires souhaiteraient substituer aux élus, une autorité différente. La référence au pouvoir militaire est souvent présente dans les discours, comme s’il fallait mettre en place une nouvelle autorité possédant une force armée pour ne plus être contestée. C’est malgré tout, un classique en démocratie, lorsque sa remise en cause aboutit à un totalitarisme dont les sources et l’énergie motrice sont clairement la haine des autres et leur désignation comme boucs émissaires.

Désormais, la question de l’autorité auctoriale est également en déclin. La plupart des messages sur les réseaux sociaux ne sont pas nécessairement produits sous une identité reconnue, on oscille plutôt entre pseudonymat et anonymat. On est clairement dans une logique distincte de l’autorité d’auteur au sens de celui fait œuvre.

Cette volonté régulière de dénoncer l’absence d’auteur renvoie au fait que cela détériore quelque peu la qualité de la source du message puisqu’il ne s’agit que d’une opinion qui repose a priori sur un pedigree difficile à évaluer.

Si régulièrement journaliste, politique ou intellectuel en vient à dénoncer cette logique d’un anonymat sans contrôle pour de plus ou moins bonnes raisons, cette question est évidemment la base du travail des services de renseignements, et ce depuis fort longtemps, et ce parce qu’avant les réseaux sociaux les publications sous pseudonymes ont toujours été monnaie courante, particulièrement sous des périodes difficiles, voire hostiles. Sur ce point, je renvoie à ce fameux ouvrage d’Adrien Baillet… qu’il signe sous le nom d’A.B…

Mais ce retour à la nécessité de l’autorité est un exercice sur lequel travaillent avec une certaine assiduité les leaders du web que sont Google ou Facebook notamment en ayant cherché à plusieurs reprises à limiter les identités annexes ou dissimulées, et ainsi pouvoir rattacher à des productions des identités dans un processus classique d’attribution de métadonnées à une ressource. Le réseau Google + visait à reproduire le modèle Google Scholar des profils de chercheurs à une échelle plus grande.

Les logiques de centralisation cherchent à garder non seulement un contrôle sur le contenu diffusé par des logiques de plateformes, mais également à veiller à ce que ces contenus puissent être rattachés à des « autorités » qui sont en fait ici des profils, mais qui correspondent aux « autorités » ou notices d’autorités telles qu’on les utilise dans nos systèmes documentaires.

Ce qui fait donc fantasmer les différentes instances (institutions traditionnelles et grandes plateformes décisionnelles de nos existences), c’est justement de pouvoir réaliser une identification fine de nos activités et productions, voire de pouvoir rassembler nos différentes identités. Pour cela la recherche de l’identifiant unique reste le Graal absolu. Élément pratique en apparence puisqu’il évite les multiconnexions, il peut s’avérer aussi un instrument de suivi. Un pharmakon en quelque sorte. Une nouvelle fois, ces questions ont déjà été envisagées au niveau scientifique. J’étais très favorable à un identifiant unique des chercheurs. Il existe désormais avec Orcid, mais d’autres tentatives ont été également amorcées et il n’est pas vain de se demander si le profil Google Scholar ne peut pas également en constituer un.

Nos adresses mail et IP font partie de ces données personnelles qui peuvent constituer des formes d’identifiant majeur. Désormais, le numéro de téléphone portable apparaît comme de plus en plus clef sur ces aspects.

Cela nous oblige à repenser nos existences au travers de nouvelles « propriétés » au sens de possessions, mais surtout au sens de qualités (eigenschaften) pour mieux nous définir et nous projeter dans les espaces semi-publics du web.

Je précise également, mais je le disais déjà dans du Tag au Like, que les instances de contrôle de nos existences comme Google et Facebook fonctionnent sur la popularité et qu’ils cherchent à renforcer leurs mécanismes de productions d’autorités avec des profils optimisés… ce qui suppose parfois aussi des classements voire des hiérarchies.

Au final, la situation est clairement celle d’une crise des autorités dans tous les sens du terme. Mais elle était totalement prévisible, et ce d’autant que la différence ancienne et déjà discutable entre réel et virtuel n’existe plus.

Nous sommes donc en déficit d’autorités sur plusieurs plans :

– au niveau institutionnel, notamment parce que depuis les premiers mythes du web, nous ne sommes pas parvenus à développer une démocratie participative efficace. Le reproche en est fait actuellement à la classe politique au pouvoir.

– au niveau des expertises. Sur ce point, règne une grande confusion, avec des tribuns médiatiques qui sont parfois des médiocres scientifiquement, voire purement et simplement des escrocs. S’en suit un mélange des genres entre opinions et analyses qu’il est souvent difficile de départager. La critique des médias se nourrit de ces dysfonctionnements, tout en produisant des visions encore plus idéologiques et doctrinaires que les médias qu’elle critique.

Une des critiques classiques du web et des interfaces numériques est qu’ils ont tendance à tout aplanir et à donner l’impression que tout se vaut.

C’est ici que se situe probablement cette tension entre popularité et autorité, et qui marque le triomphe de l’influence sur la pertinence.

Le plus légitime devient celui qui obtient le plus de viralité.

C’est le troisième passage que je n’avais pas pleinement su décrire, même si j’avais commencé à travailler sur les théories du complot depuis bien longtemps, d’un point de vue historique initialement, puis au niveau informationnel par la suite.

La crise de l’autorité est  aujourd’hui celle de l’affrontement entre viralité et véracité avec la confusion qui peut se produire avec la reprise d’éléments complètement erronés de façon plus nombreuse sur le web que celle qui contient pourtant la position la plus rationnelle scientifiquement.

Il est vrai que même l’histoire du web n’est pas épargnée avec la théorie d’une création militaire qui demeure encore trop fréquente… même chez les Dernier point sur lequel il me semble qu’il va falloir être très attentif : celui d’une remise en cause totale des institutions de savoir que sont les lieux d’enseignement et notamment les universités. J’ai toujours plaidé pour une position professorale qui puisse être discutée et corrigée par les étudiants durant les cours notamment lorsqu’il y a des critiques, des erreurs et des approximations -chercheurs. Toutefois, au sein de ces remises en cause drastiques de toutes les autorités, il n’y a aucune raison que l’université soit épargnée. Mais c’est sans doute le propos d’un autre billet.

autorité versus popularité
Les tensions entre autorité et popularité

L’année des 20 ans pour le Guide des Egarés

couverture documentation dans le numérique
Par défaut

Pour cette année 2019, l’année des 20 ans du Guide des Egarés, je vais m’en tenir à un rythme d’écriture sur le blog aussi faible que les années précédentes. J’ai tenté de coupler les billets avec du podcast en septembre, mais très vite le rythme a repris le dessus. Il y aura sans doute quelques autres tentatives mais de façon plus ponctuelle.

De la même manière, je continuerai à commenter de manière distante l’actualité. Mon but n’est pas de faire le buzz sur les évènements. Si cela a pu parfois être tentant par le passé, la ligne du Guide des égarés n’est pas celle de l’indignation permanente. Je serai sans doute plus incisif sur twitter à ce niveau.

Comme souvent, pleins d’autres projets éditoriaux et de recherche. Le blog n’étant plus qu’un élément à la marge dans tous ces différents projets, il est bien difficile de publier ici de façon très régulière. Je ne crois pas à la centralité en matière éditoriale, et encore moins en matière de publication personnelle.

Au menu, je peux vous annoncer que je reviendrai sur Publienet mais ce ne sera pas avec une nouvelle ou un roman. Sur les aspects fictionnels, je ne parviens pas à finaliser aucun de mes projets depuis quelques années. Et pourtant, j’ai quelques éléments en stock dont une série de courtes histoires à destination des collégiens qui pourrait également bien plaire aux professeurs-documentalistes. Je suis toujours à la recherche d’un éditeur pour ce projet d’ailleurs.

Sinon pour évoquer un des projets auxquels je souhaite faire participer les acteurs de la documentation et tous ceux qui me suivent voire qui seraient intéressés par le Capes de documentation, mon livre « la documentation dans le numérique » paru aux excellentes Presses de l’Enssib est désormais disponible sur OpenEdition, donc en accès libre et gratuit.

Mais il y a mieux, une version annotable et expérimentale va être mise en place avec l’outil hypothes.is.

Je vais donc me transformer en auteur-animateur de communautés autour de cet ouvrage d’ici quelques semaines. Je ferai donc des retours réguliers de l’expérience sur le blog à cet effet. Je souhaite en profiter pour développer une communauté que je solliciterai pour d’autres expériences notamment autour du futur dispositif HyperOtlet. Cela rappellera aux plus anciens que déjà du temps du RTP-DOC, Jean-Michel Salaün

s’était montré efficace pour animer une communauté scientifique avec des outils de commentaires et d’annotations. A ce propos, le temps est probablement venu pour réinterroger le concept de document d’une façon similaire à celle de Roger Pédauque.
Jean-Michel Salaün s’était montré efficace pour animer une communauté scientifique avec des outils de commentaires et d’annotations. d de

Je vous tiendrai au courant quant au début de l’expérience.

Voilà donc pas mal de choses à partager sur le Guide des Egarés qui fêtera ses 20 ans fin octobre, début novembre dans un contexte de frondes diverses et variées que n’auraient pas renié Dumas. On essaiera donc d’apporter une touche romanesque dans cette période à notre façon.

Chronique n°2. « Ce qu’on apprend ajourd’hui sera inutile en 2050 ». ?

Par défaut

La version audio à podcaster.

 

« Ce qu’on apprend ajourd’hui sera inutile en 2050 ». La formule a été reprise à partir des propos de Yuval Harari.

Et bien je pense que c’est l’inverse. Il est probable alors qu’on s’interroge sur les programmes et les savoirs du lycée, qu’un lycéen du siècle dernier et peut-être même du siècle encore d’avant, était mieux armé que ceux actuellement.

Le lettré du digital, ainsi l’appellerons-nous, ne vit pas dans un monde totalement en rupture avec les anciennes pratiques.

Nous ne vivons pas non plus dans une révolution permanente faite de tabula rasa, et qu’il faudrait tout réapprendre et tout recommencer.

Ce n’est donc pas à mon avis que ce qu’on apprend aujourd’hui sera inutile en 2050, mais plutôt ce qu’on apprend actuellement est insuffisant et pas du tout au niveau. Pire que cela, ce n’est pas cohérent et cela témoigne d’une absence de vision à long terme.

Photo Alejandro Camilla. unsplash.

Je serai même tenté de dire que vouloir se mettre sans cesse au goût du jour a conduit à un saupoudrage avec le développement d’éducation à, certes nécessaire, mais trop souvent marginalisée, car il faudrait mieux intégrer leurs contenus.

Pire encore, les effets de modernité et d’égalitarisme conduisent à supprimer ou à négliger certains contenus du fait de programmes élargis, mais aussi parce que ses contenus nécessitent des formes attentionnelles longues et des répétitions.

On a trop laissé à l’industrie des jeux vidéo le droit de nous faire refaire pendant des heures des actions similaires dans des environnements sympathiques au point que les exercices, les dictées, les résumés de texte deviennent des instruments peu prisés désormais… notamment parce qu’ils révèlent les difficultés et qu’ils opèrent aussi des logiques de hiérarchie entre élèves. Il est vrai une nouvelle fois qu’il est préférable d’annoncer son niveau dans un jeu vidéo plutôt que de dire son classement dans une matière.

 

Le paradoxe vient du fait que le temps scolaire est trop court. J’entends par temps scolaire, à la fois le temps institutionnel, mais aussi tout le temps nécessaire à la formation de l’esprit, mais aussi des corps, ce qui implique donc tout autant des compétences intellectuelles que techniques, que des compétences physiques que spirituelles.

Le temps passé devant des activités ludiques devant les écrans, ou tout au moins le temps d’attention sur ces dispositifs finit par dépasser sur une année le temps scolaire, et parfois de façon très nette.

Cela ne signifie pas qu’on n’apprend pas devant les écrans. Cela signifie que le pouvoir des industries des loisirs est écrasant sur ces dispositifs et qu’on peine à trouver les moyens d’en faire des instruments de formation. Trop souvent, on ne parvient guère à dépasser le cadre de la formation aux usages, alors qu’il faudrait former à une meilleure intégration culturelle.

Cela implique donc de travailler les passerelles entre les disciplines, mais aussi entre les exercices.

L’enjeu est de développer de nouvelles formes de production à évaluer. Cela peut être la réalisation de vidéos par exemple. Mais sur ce point, il faut rappeler qu’il ne s’agit pas seulement de savoir filmer et de savoir monter, mais aussi de produire un scénario, de faire œuvre d’imagination, mais aussi de démontrer une capacité à structurer l’information.

Or, cela ne peut se faire qu’à condition de s’exercer, de recommencer, d’améliorer, etc.

Igor ovsyannykov. Unsplash.

Je note que la plupart de mes étudiants ne savent pas faire de résumés et encore moins de dissertation avec des plans qui tiennent la route. Je ne parle même pas des commentaires de textes. Or pourtant, beaucoup ont obtenu des mentions au baccalauréat.

Autre point, ces aptitudes supposent de s’exercer, mais d’avoir les moyens de pouvoir comparer, c’est-à-dire d’avoir à disposition des références qui ne soient pas uniquement disponibles en ligne… c’est-à-dire d’avoir une culture, ce qui suppose d’avoir un langage qui permette d’exprimer des nuances et donc d’utiliser des synonymes, mais aussi d’avoir un minimum de références en littérature, cinéma, arts pour pouvoir mieux utiliser des exemples pour asseoir des raisonnements.

L’enjeu n’est donc pas uniquement celui de savoir coder. Il sera clairement nécessaire de développer un programme de formation au code pour mieux comprendre les logiques algorithmiques de base, mais aussi pour savoir mieux utiliser des outils statistiques.

Mais il faut conférer surtout les moyens de savoir décoder… tout autant les textes, les images, les vidéos, les sets de données et tout autre visualisation et tableau statistique.

L’art de la critique, de la mise à distance, suppose surtout des rapprochements, notamment entre littératie et numéracie. Il y a de la joie à lier, disait Giordano Bruno, et c’est bien l’enjeu, lier sans emmêler, lier sans être poings et mains liées. En ce sens, écrire les programmes sous l’influence des industries et thématiques dominantes du moment en matière de digital serait une grave erreur. Pire encore, serait de placer la donnée comme centrale en matière de formation au numérique, car justement l’enjeu n’est pas de placer la donnée comme centrale au niveau du système scolaire, ce qui serait un renversement inquiétant par rapport à  la loi Jospin de 1989.

L’avenir de l’éducation s’inscrit donc dans un rapport entre tradition scolaire et anticipation, entre les travaux des prédécesseurs et ceux à venir. L’avenir de l’éducation est assurément steampunk plutôt que transhumaniste.

 

Pour finir sur une note poétique, on pourrait dire que l’enjeu est de former des citoyens qui s’inscrivent dans une lignée qui mêle poésie et code, métries et métriques en se souvenant que le premier code informatique a été écrit Ada Lovelace, fille du poète Lord Byron.

 

Source :

Les images sont issues du site unsplash.com .

Image mise en avant : Kevin Ku

Sur le lettré du digital, voir notamment cet article écrit avec Franck Cormerais.

Voir aussi cet article collectif.

Quelques idées sont  développées dans la formation aux cultures numériques.

L’ère des guérillas informationnelles

Par défaut

Ma présence sur les médias sociaux me permet d’être embarqué dans des flux et des discussions qui sont autant des pertes de temps que des enseignements indispensables.

Cette présence au sein de la mêlée est essentielle sous peine de ne pouvoir réellement comprendre ce qui s’y trame, les modes de fonctionnements, les évolutions techniques, informationnelles et communicationnelles qui se produisent depuis une dizaine d’années. Je suis sur Twitter depuis 2007. Ce n’est plus le même réseau qu’en 2007. Le réseau était alors relativement pacifié, je dis bien, relativement, car c’était une cour de récré ce qui n’excluait pas les bagarres, les discussions un peu lourdes, les blagues de potache et autres subtilités.

En 2007, Twitter était majoritairement anti-sarkozyste, on accueillait Frédéric Lefebvre comme il se doit (voir aussi en 2011°), et tout était assez drolatique finalement. Le côté sérieux venait des blogosphères notamment politiques qui se retrouvaient sur Twitter. J’ai envie de dire, que cela s’est quelque peu inversé. On avait besoin du blog pour avoir un positionnement sur Twitter, c’est désormais l’inverse.

L’extrême-droite était peu présente, la droite essentiellement pro-Sarko avec quelques idolâtres, phénomène classique lors de l’arrivée d’un nouveau président.

La cour de récré s’est transformée en gigantesque champ de bataille permanent où la moindre personne sensée peut se transformer en gladiateur de l’information. Si Bruno Gaccio affirme que les guignols ne sont plus nécessaires désormais, car il y a suffisamment de vannes sur Twitter, ce serait effectivement plutôt sympathique. Mais ce n’est hélas pas que cela. Le côté autodérision et dégonflage d’égo des premiers temps sur twitter – on se faisait toujours gentiment remettre en place, car cela faisait partie du jeu – a glissé vers une forme de méchanceté. On est passé clairement de la remarque bienveillante à de la malveillance exacerbée.

L’extrême droite avait saisi rapidement l’intérêt de se positionner en jouant sur les registres de l’émotion, de la vérité potentielle (« cela semble plausible, cela correspond à mes représentations, donc c’est tout à fait possible ») et donc de la désinformation.

La blogosphère et twittosphère majoritairement à gauche avec quelques éléments qu’on pourrait qualifier de centriste (même si je maintiens que ce concept de centre est une erreur autant intellectuelle que politique, ce que j’avais pu exprimer lors de mon bref passage en blogueur politique sous le nom de Pharmakon durant la période Modem) dans les années 2007-2009 se sont vus concurrencées par une fachosphère montante, décomplexée et débridée. Ce positionnement a fait exploser le consensus antisarkoziste qui existait en 2007 et a abouti à un éclatement des positionnements qui frisent la caricature et la radicalisation de toute part.

À titre personnel, il est souvent bien difficile de résister aux réactions puériles et partisanes. Seule solution : conserver une time-line la plus ouverte possible. Je dois admettre que j’évite de suivre sur Twitter les positions nationalistes néanmoins.

La montée en puissance de la stratégie de l’extrême-droite a conduit, à mon avis, a une volonté de réaction similaire de l’extrême-gauche avec un hyperactivisme et la mise en circulation d’informations tout aussi douteuses, ou de mauvaise foi la plus totale, et ce depuis une bonne année.

On peut constater que l’électorat de centre-gauche, centre-droit est parfois tenté désormais de réagir de même en amplifiant la moindre information contre les concurrents. Le phénomène est plus récent, mais ne peut qu’inquiéter à l’approche des prochaines élections européennes.

Nous sommes entrés en guérilla informationnelle tous azimuts avec tout un écosystème informationnel bordélisé, avec des remises en cause permanente des uns et des autres ; avec les journalistes au centre, qui sont tantôt encensés, tantôt critiqués selon les circonstances.

On retrouve une offre informationnelle élargie mais dont on ne possède pas les codes. C’est plutôt bien d’avoir finalement l’émergence de nouveaux médias même s’ils sont clairement politisés. Ce n’est pas foncièrement nouveau. Ce qui est gênant, c’est qu’on entre dans un système médiatique qui cherche surtout à dénoncer plutôt qu’à analyser, car il faut faire du buzz plutôt que de produire une information de qualité. Je ne suis donc pas si certain effectivement que ce soit toujours la vérité qui soit véritablement recherchée, mais il me semble que c’est surtout  l’erreur qui devient l’objet principal de la recherche. C’est un passage très classique dans la tension entre indexation des connaissances et indexation des existences. Je me demande si la presse n’est pas tentée d’y céder à son tour.

On va passer un temps infini sur la moindre petite affaire désormais et paradoxalement s’éloigner de la piste du journalisme de données qui semblait pouvoir émerger. Visiblement, nous ne sommes pas assez mûrs pour ce genre de perspective, car cela nécessite de nouvelles compétences chez les journalistes, mais surtout de nouvelles chez le lectorat.

Pour l’instant, on voit surtout des graphiques souvent biaisés pour tenter d’expliquer un phénomène économique. À ce niveau-là, certains économistes français peuvent continuer à vendre des bouquins prétendument hérétiques.

On avait déjà observé lors du referendum sur le traité européen une influence du web sur le résultat avec pas mal de désinformations et la découverte que l’Union Européenne s’était fondée sur des principes libéraux.

Il faut désormais s’attendre au pire dans les prochains mois.

Sur ce point effectivement, nul besoin d’avoir le soutien de bots russes pour que l’on continue à nourrir le populisme le plus total aux bénéfices des autres grandes puissances qui n’attendent que cela.

On peut donc s’attendre à des attaques ad hominem, à ce que l’on cherche la moindre bévue chez les politiques en place dans les gouvernements, mais par ricochet chez les députés et membres de l’opposition… mais encore sur le moindre journaliste suspecté d’être partisan.

Alors que faire ?

Si la loi dite « fake news » semble avoir du plomb dans l’aile, je reste persuadé qu’il faut légiférer sur la question notamment pour respecter la dimension citoyenne de la culture de l’information, décrite en 1976 par Major R Owens avec la nécessité que l’information literacy permette à l’électeur de pouvoir faire un choix politique en ayant tous les éléments à sa disposition.

Je sais que ma position est minoritaire à ce niveau parmi les universitaires, mais je crois travailler depuis suffisamment longtemps sur ces questions pour dire que la formation n’est pas suffisante pour éviter la désinformation. Même en renforçant l’EMI, on n’ y arrivera pas, car il faudrait vraiment un programme sérieux, ambitieux et sur de longues durées pour y parvenir. Pire, à mon avis, un saupoudrage EMI peut augmenter le risque complotiste (voir dans l’article pour mediadoc mon tableau sur les proximités qu’il peut y avoir parfois).

Autre point, je vois beaucoup de professionnels de l’information et des universitaires relayer des informations fausses ou bidons. J’ai moi-même retweeté (non sans avoir hésité) la fausse mort de journaliste ukrainien qui n’était en fait qu’une mise en scène.

image d'une activiste avec fumigène

pas de fumée sans feu ?

Alors que faire ? ou plutôt qui doit le faire ? Qui doit vérifier l’information ?

Les index n’appartiennent plus aux sphères bibliothéconomiques et documentaires, mais de plus en plus aux acteurs comme Google et Facebook qui s’appuient parfois sur des équipes de journalistes décodeurs pour tenter de vérifier l’information.

Les pistes algorithmiques et d’intelligence artificielle voir de deep learning sont également évoquées, mais bien souvent il s’agit d’extrapoler à partir de travaux humains qui fournissent des index.

Cette multiplication des guérillas informationnelles ne peut que désarçonner de plus en plus les autorités traditionnelles et notamment gouvernementales qui ne savent plus comment réagir et qui multiplient ainsi les erreurs dans le genre «  à toucher le fond, mais creuse encore ».

Voilà, pour cette réaction un peu rapide, à plusieurs éléments que je tente d’analyser depuis quelques années et qui devraient trouver suite dans le prochain ouvrage (un essai) que je suis en train de rédiger et pour lequel je cherche d’ailleurs un éditeur.

Je reviendrai ici sur des pistes potentielles face à l’infocalypse…

 

credit photo :

Photo by Warren Wong on Unsplash

Humanités numériques scientifiques?

Par défaut

L’expression  d’humanités numériques ou digitales est désormais à la mode dans une nouvelle acception. Si le territoire scientifique est sujet à débats, voire à controverses, on peut néanmoins considérer qu’il existe une forme de visions partagées entre les différents acteurs (voir aussi le manifeste du ThatCamp). Peu importe, qu’on les appelle Humanités digitales ou Humanités numériques.

Il y avait déjà le fait que depuis quelque temps, le terme d’humanités digitales ne renvoie pas seulement aux sciences humaines et sociales reliées aux outils informatiques ou du web, mais à la transformation opérée par ces technologies sur l’humain lui-même. Ce qui bien sûr concerne les questionnements et les avancées technologiques autour des NBIC, des théories de l’Homme augmenté, et du transhumanisme.

Depuis quelques années de façon assez logique, les humanités digitales se posent en matière de formation et notamment de façon plus précoce. Comment former à ces aspects au sein des cursus universitaires, mais de plus en plus au sein des cursus du secondaire. Quels outils peut-on utiliser et introduire ? Qu’est-ce qu’on fait déjà qui pourrait s’inscrire dans cette logique ? Comment mieux former de façon à ce qu’on puisse opérer une progression qui évite de devoir tout répéter une nouvelle fois à l’université ?  (voir aussi ici, le colloque sur le sujet de 2016) Bref, comment faire mieux que l’affreux B2I?

J’avais esquissé par le passé l’hypothèse d’un BAC H notamment pour renouveler la filière L. L’idée avait été reprise d’une manière différente du côté du Conseil national du numérique. Il avait été envisagé fut un temps qu’une mention soit créée de façon expérimentale autour d’un MOOC. Désormais, l’idée ressurgit avec un étrange attelage. Humanités numériques et scientifiques. C’est justement sur ces aspects que je compte précisément revenir. Pourquoi accoler numérique et scientifique ? De prime abord, cela semble renforcer une vision particulière du numérique, à savoir que l’angle choisi sera scientifique plutôt que la logique des usages voire des bons usages qui a prévalu jusque-là en dehors de la réintroduction des cours d’informatique. Cela donne aussi surtout l’impression qu’il faut comprendre le numérique de façon scientifique…sous-entendue, sciences dites dures ou exactes…ce qui vient de fait tisser une opposition au premier terme. Alors qu’on pouvait imaginer une alliance, il pourrait s’agir au contraire d’une mise sous contrôle des humanités. Je ne m’attarderai pas ici sur le terme d’Humanités qui a toujours posé quelques questions depuis le début, notamment parce qu’il est peu usité si ce n’est justement dans la traduction de digital humanities. On a fait le choix notamment dans la francophonie de considérer qu’il fallait prendre en compte le concept de manière large et non pas dans son sens ancien, en élargissant le concept aux sciences humaines et sociales. Il reste cependant qu’on pourrait aussi se demander si le concept d’Études digitales (digital studies) ne serait pas plus approprié, car il passe justement outre les anciennes divisions entre sciences dites molles et sciences dites dures, car l’enjeu est justement le rapprochement plutôt que l’opposition. Plus inquiétant à mon sens est donc ce choix de scientifique qui semble finalement ouvrir la brèche comme quoi il y aurait des humanités…non scientifiques. Cela signifierait que les lettres, l’histoire, la géographie seraient peut-être dans grand nombre de cas des disciplines non scientifiques. Or, c’est ici non seulement dangereux, mais clairement scandaleux. De plus, c’est historiquement faux. Pire, cela revient à considérer le numérique comme un territoire appartenant aux sciences exactes, sous-entendu à l’informatique (computer sciences). Du coup, l’expression ne réalise par un élargissement de perspective, mais bel et bien une réduction et une prise de contrôle de l’informatique sur les humanités…et sur le concept de numérique. Je l’ai déjà expliqué à plusieurs reprises, pourquoi ce concept de numérique me paraît désormais sous l’emprise d’un enjeu de pouvoir de la part des informaticiens au niveau scientifique et pédagogique, et des industries informatiques au niveau des actions de lobbying. J’ai tenté de montrer en quoi Digital me semble meilleur. Il est vrai que ceux qui l’utilisent le plus sont des acteurs du marketing qui tentent de reprendre le pouvoir sur les mots par ce biais. Dans tous les cas, les autres acteurs notamment ceux issus des sciences humaines et sociales sont rétrogradés au second plan. Or, l’enjeu est plus celui d’une alliance voire d’une recomposition. Cédric Villani a évoqué le fait qu’il fallait sans doute dans cet enseignement expliquer davantage l’algorithme. Je suis tout à fait d’accord, à condition justement de montrer qu’il ne s’agit pas que d’une logique mathématique ou informatique, mais bien de stratégies marketing et qu’il convient d’y répondre par des logiques politiques, citoyennes et informationnelles. Il me semble que l’idée est bonne, mais que sa mise en œuvre pourrait être un échec s’il n’y avait pas une discussion équilibrée sur ces aspects. Il reste bien d’autres points obscurs sur ces questions. Quels seront les enseignants ? Si c’est pour réduire le cours à de l’informatique et du code, c’est l’échec assuré compte tenu de l’ambition qui semble être tracée. Si on envisage au contraire, différents apports disciplinaires et des projets qui les mêlent, on sera davantage dans l’esprit. Il ne faut pas réduire la formation au code, sans pour autant l’exclure. Je l’ai déjà montré, il faut autant coder, qu’encoder et décoder. C’est le leitmotiv d’une formation réussie. Avant d’esquisser un quelconque plan de formation, il faut faire des humanités numériques comme le dit Aurélien Berra, c’est-à-dire qu’il faut envisager une logique qui mêle réalisations et réflexions, savoirs et savoir-faire.