Ni Saint Bernard Ni Sans Bernard…

Merci Bernard.
Merci Bernard pour avoir éclairé le débat et mes réflexions personnelles et théoriques plus d’une fois.
Merci aussi à Alexandre Serres pour m’en avoir parlé . Cela m’avait permis de découvrir ses travaux pionniers sur la technique et le temps.
Puis j’avais poursuivi l’aventure notamment durant ma thèse où les réflexions sur les enjeux de formation des nouvelles générations (notamment avec l’ouvrage Prendre soin), la question de l’attention (question essentielle encore et toujours plus actuellement) et bien sûr les enjeux de majorité de l’entendement et de majorité technique, rentraient pile dans mes réflexions du moment.
J’avais même osé il y a quelques années produire une carte mentale des idées de Stiegler, notamment son livre « réenchanter le monde ». J’avais fait cela en 2007 durant ma thèse, il y a fort longtemps désormais.
La lecture de Stiegler m’avait bien aidé aussi pour la réalisation de mes cours. Cela conférait de suite une puissance supplémentaire pour prendre un peu de hauteur sur des problématiques techniques, systémiques et informationnelles. Je peux aussi avouer que c’est en exposant des éléments liés à sa pensée que j’ai pris le plus de plaisir à enseigner. De cela, je me sens fortement redevable.

Bien sûr, on pouvait avoir des désaccords avec certains de ses points de vue, mais il ne laissait pas indifférent.
Et surtout, il était parvenu à plusieurs reprises à stimuler non seulement la réflexion, mais à impulser l’idée qu’il fallait innover et donc intégrer la technique au dispositif de réflexion, mais aussi aux dispositifs d’expérimentation.
La philosophie se trouvait étroitement mêlée à l’ingénierie, et c’était assurément un point fort autour d’ars industrialis et de l’équipe de l’Institut de Recherche et d’Innovation de Georges Pompidou.

Désormais, il faut poursuivre dans cette logique expérimentale et d’innovation plutôt que dans l’approche uniquement critique qui me semble dominante dans les SHS à l’heure actuelle. L’heure n’est donc pas aux épigones et encore moins dans les héritages directs.
Je crois que Bernard Stiegler aurait plutôt aimé l’idée que sa pensée subisse des transformations, des bifurcations, des sauts réticulaires plutôt que des lignes directes.
Stiegler a tracé un nouvelle « ligne de temps » propre à lui-même. A nous maintenant de transformer la ligne en des milliers d’autres pistes.
« Saint Bernard » est l’expression qu’emploie Jean-Max Noyer parfois tant l’influence de la pensée du philosophe était trop grande chez beaucoup d’entre nous, notamment dans l’axe E3D du Mica avec Franck Cormerais.
Il ne s’agit donc pas de le sanctifier, mais de veiller à la dynamique qu’il a cherchée à impulser depuis plusieurs décennies. Le bonhomme est parti, mais son œuvre reste.

Pensées et amitié à ses proches et à tous ceux qui lui doivent quelque chose, comme un début de réflexion, un début d’éclaircissement voire l’envie d’expérimenter quelque chose de nouveau en dehors des évidences.

La méthode Guy Roux, ou devenir l’AJA de la recherche

« Faut pas gâcher »… tel semble désormais être le slogan inéluctable du chercheur français et notamment du petit chercheur en sciences humaines et sociales.
Le slogan déjà appliqué par beaucoup d’entre nous depuis des années est en train de devenir un programme, voire une idéologie.
En tout cas pour moi.
Je développe ici quelques aspects de la recherche « pour pas que ça coûte »

  1. Le contexte. La Logique de la Pire Patate Pour la Recherche
    Face aux incertitudes perpétuelles d’un ministère de la Recherche qui n’existe pas vraiment, coincé entre un Ministère de l’Éducation Nationale omnipotent qui peine à recruter désormais des enseignants et qui finalement considère la recherche comme un sous-domaine, et Bercy qui y voit un lieu d’arbitrage stratégique entre ajustements budgétaires et politique fiscale, le chercheur ne sait plus trop finalement quels sont ses marges de manœuvre notamment financières.
    Et ce d’autant que les universités sont théoriquement autonomes sans pouvoir l’être dans les faits. Les marges budgétaires sont faibles voire nulles et l’idée d’augmenter les frais d’inscription apparaît un risque idéologique trop important pour tenter l’expérience.
    Il reste alors aux chercheurs pas grand chose à espérer, si ce n’est décrocher quelques appels à projet pour tenter de monter quelque chose de plus ambitieux.
    La difficulté désormais est double, celle de recrutements raréfiés, ce qui a pour conséquence à la fois de freiner les carrières (ce qui occasionne de belles réductions budgétaires avec des maîtres de conférences guère mieux payés que leurs homologues du secondaire et moins bien rémunérés en tout cas que des agrégés au même âge bien souvent), mais aussi de placer une angoisse dans la procédure de recrutement de futurs collègues. L’erreur n’est plus possible dans les faits car il faut s’assurer que le collègue sera performant. Mais l’angoisse renforce les effets corporatistes et locaux. Plus le nombre de postes ouverts sera à la baisse, plus le risque d’un recrutement endémique et local va étrangement augmenter.
    Actuellement, plus ça avance, plus on a l’impression d’avoir les deux revers de la médaille du faible salaire et du nombre de postes en baisse. On pourrait éventuellement tolérer un salaire faible si la charge de travail était bien répartie et que les conditions s’avéraient propices pour recruter en nombre suffisant. Mais désormais, il faut accepter le salaire démotivant, et les charges qui ne cessent de s’accroître car le nombre de personnes recrutées diminue ce qui oblige alors en faire plus. Travailler plus pour gagner moins, et espérer être payé en reconnaissance, ou en je ne sais pas trop quoi. Il reste bien sûr l’espoir d’obtenir des charges spécifiques, des vice-présidences, la PEDR (bien utile il est vrai, mais qui nous transforme en VRP publiant ses performances de vente), mais on fait mieux mentalement.
    Contrairement à ce qu’on entend parfois, je ne crois pas pour autant que c’était mieux avant. Pour les conditions financières et la reconnaissance, c’est évident, pour la qualité de la recherche… c’est une autre histoire. Et je ne parle pas des comportements et des dérives liés aux abus de position d’autorité.

Mais là n’est désormais plus le sujet car il faut essayer de s’en sortir comme on peut.

  1. La méthode Guy Roux

Au sein d’une université modeste, le petit chercheur n’est pas totalement hors jeu mais il ne peut prétendre à des budgets conséquents, faciles à obtenir, ou à une force de frappe et de légitimité associée qui lui permet de rapidement déployer des financements.
En clair, il faut bien comprendre qu’il ne faut pas songer travailler avec des moyens dignes du Paris Sorbonne Galactique, ou de tout autre université-club prestigieux qui aurait recu une bénédiction Idex et Orbi.
Non, le modèle c’est l’AJ Auxerre désormais qu’il faut suivre désormais.
Pas de quoi tenir le haut du pavé et des célébrations, mais qu’importe. C’est la possibilité de faire des coups, de réaliser des progrès évidents et de partager ses réussites.
La recette est celle de la détection des talents et de la capacité à faire travailler ensemble des collègues différents.
Évidemment, tout repose sur la formation et la détection. Les AJA de la recherche ne peuvent fonctionner autrement, ce qui oblige du coup le chercheur à être aussi enseignant. Mais c’est là également que se joue l’avantage d’être « un petit club », c’est que c’est au sein de cette double identité qu’il est possible de repérer les bons éléments qui viendront prendre part aux projets de recherche. C’est aussi la possibilité parfois d’expérimenter à la marge avec ses propres outils et des timings où on peut prendre le risque de faire perdre un peu de temps plutôt que de suivre des protocoles ou des développements web déjà standardisés.
Cela suppose aussi un coaching relativement serré… Je ne dis pas qu’il faille fliquer les stagiaires, les doctorants ou mastérants au point de savoir s’ils sortent trop souvent le soir… Mais il s’agit bien de veiller sur eux, cela implique donc qu’il ne s’agit pas de faire des usines à doctorants, ou d’avoir pleins de doctorants sous son aile en envoyant dans le mur les trois quarts.
Mais il faut les soutenir, les conseiller et on ne peut le faire que si et seulement si on a fait des erreurs avant. Le plus mauvais professeur est celui qui a tout réussi.
Parmi les ingrédients qui peuvent permettre aux AJA de la recherche de résister est finalement l’idée de pouvoir perdre du temps… à chercher, tester, expérimenter. Actuellement, c’est ce luxe qu’on a pu accorder à notre stagiaire sur le projet HyperOtlet. Pour innover, pas de miracle…

Pour affronter le gel des postes, le Guy Roux de la recherche se doit toujours d’être prudent et quelque peu équipé...

Évidemment, parfois, pour notre Guy Roux, chercheur, c’est un sacerdoce… La crise cardiaque sur le terrain de jeu reste hélas probable.

Je reviendrai sans doute aussi que parfois une bonne idée, elle nécessite un peu d’argent (la recherche, ça coûte, ma pauv dame), d’un peu de temps et de quelques énergies mises ensemble à bon escient. Le projet bottom-up peut alors être plus efficace que le gros top-down trop calibré. A ce stade, mieux vaut finalement gérer une petite équipe qu’un gros regroupement d’égos sous peine d’aboutir à une situation digne de Knysna.
Clairement, il faut penser petit pour voir grand dans la mesure où il est préférable de développer d’abord une petite brique plutôt que de prétendre vouloir tout révolutionner d’un coup. Et c’est parfois la petite brique qui peut avoir un énorme impact, alors pourquoi se priver.

Sinon, faut être lucide, devenir l’AJA, c’est accepter le départ des meilleurs éléments qui auront été formés au bout d’un certain temps. Et on ne peut que le souhaiter vu les perspectives peu réjouissantes bien souvent en local.
Il faut être aussi lucide qu’au moment de passer les tours successifs de la ligue des champions de la recherche ou toute autre compétition, il y aura toujours un arbitre pour vous dire que votre procédé, votre projet, votre logiciel n’est pas conforme ou suffisamment orthodoxe… même si vous pensiez justement avoir changé de perspective à un problème. Remember le retourné de Lilian Laslande…

Au final, il faut aussi accepter d’être un peu chiant du coup, en allant mettre la pression quand il y a des inégalités évidentes, et de rappeler que les arbitres doivent aussi nous respecter autant que les gros…
Bon, allez, c’est vrai, ça va nous coûter un peu de « chablis » mais l’enjeu est de parvenir à se faire plaisir sans trop se prendre au sérieux. On n’a pas envie de faire « un Raoult » d’enfer!

Ps : Ce texte n’est pas non plus un plaidoyer pour aller faire des publicités pour arrondir nos fins de mois…

La question de l’anonymat et la crise de l’autorité.

J’avais dit que je ne réagirais pas sur l’actualité, mais je le fais aujourd’hui de manière distancée sur une question récurrente en ce qui concerne l’anonymat sur les réseaux.

Cette question est trop souvent mal posée, sur un angle parfois simpliste qui consiste à considérer que l’anonyme est celui qui commente sans s’engager personnellement, et qui profite de son anonymat (relatif) pour écrire les pires horreurs en se pensant à l’abri d’une action en diffamation.

Il est alors tentant d’envisager une plus grande régulation… qui passerait par des vérifications d’identité ou des obligations de déclaration d’identité.

Je suis plutôt pour conserver les possibilités multi-identitaires du web comme principe de base. La transparence totale me paraît très problématique et peu propice à générer une diversité d’usages. Elle apparaît aussi risquée à plus d’un titre. J’avais déjà montré par le passé que même au sein de l’Education Nationale, on n’osait plus rien dire, notamment du temps où sévissait un directeur omnipotent à la Dgesco.

D’autre part, il me semble que l’anonymat de base ne signifie pas qu’il soit impossible d’échapper à la loi. On peut porter plainte contre un anonyme ou un pseudonyme. L’enquête de la justice parviendra peut-être à condamner l’intéressé si besoin est, et si elle parvient à retrouver l’identité principale. Ici, restent en suspens les possibilités techniques, éthiques et législatives de ce type d’action. 

Mais le problème principal vient selon moi d’une poursuite de la crise de l’autorité qui s’est développée rapidement sur le web, mais qui est en fait une circonstance assez logique de la démocratisation de nos sociétés et de nos interfaces. J’en avais parlé en 2006 en montrant que la crise allait s’accentuer avec les nouveaux usages sur le web. J’étais reparti des travaux d’Hannah Arendt notamment ainsi que de sa définition :

«Le mot auctoritas dérive du verbe augere, «augmenter», et ce que l’autorité ou ceux qui commandent augmentent constamment, c’est la fondation. Les hommes dotés d’autorité étaient les anciens, le Sénat ou les patres, qui l’avaient obtenue par héritage et par transmission de ceux qui avaient posé les fondations pour toutes les choses à venir, les ancêtres, que les Romains appelaient pour cette raison les majores». (Arendt, la crise de la culture, 1989)

L’autorité permet justement d’asseoir une légitimité décisionnelle sans avoir recours à l’autoritarisme. Elle ne souffre pas de contestation.

Notre période politique montre bien cette volonté de contester les autorités même démocratiquement élues. On néglige à mon sens trop souvent que certains contestataires souhaiteraient substituer aux élus, une autorité différente. La référence au pouvoir militaire est souvent présente dans les discours, comme s’il fallait mettre en place une nouvelle autorité possédant une force armée pour ne plus être contestée. C’est malgré tout, un classique en démocratie, lorsque sa remise en cause aboutit à un totalitarisme dont les sources et l’énergie motrice sont clairement la haine des autres et leur désignation comme boucs émissaires.

Désormais, la question de l’autorité auctoriale est également en déclin. La plupart des messages sur les réseaux sociaux ne sont pas nécessairement produits sous une identité reconnue, on oscille plutôt entre pseudonymat et anonymat. On est clairement dans une logique distincte de l’autorité d’auteur au sens de celui fait œuvre.

Cette volonté régulière de dénoncer l’absence d’auteur renvoie au fait que cela détériore quelque peu la qualité de la source du message puisqu’il ne s’agit que d’une opinion qui repose a priori sur un pedigree difficile à évaluer.

Si régulièrement journaliste, politique ou intellectuel en vient à dénoncer cette logique d’un anonymat sans contrôle pour de plus ou moins bonnes raisons, cette question est évidemment la base du travail des services de renseignements, et ce depuis fort longtemps, et ce parce qu’avant les réseaux sociaux les publications sous pseudonymes ont toujours été monnaie courante, particulièrement sous des périodes difficiles, voire hostiles. Sur ce point, je renvoie à ce fameux ouvrage d’Adrien Baillet… qu’il signe sous le nom d’A.B…

Mais ce retour à la nécessité de l’autorité est un exercice sur lequel travaillent avec une certaine assiduité les leaders du web que sont Google ou Facebook notamment en ayant cherché à plusieurs reprises à limiter les identités annexes ou dissimulées, et ainsi pouvoir rattacher à des productions des identités dans un processus classique d’attribution de métadonnées à une ressource. Le réseau Google + visait à reproduire le modèle Google Scholar des profils de chercheurs à une échelle plus grande.

Les logiques de centralisation cherchent à garder non seulement un contrôle sur le contenu diffusé par des logiques de plateformes, mais également à veiller à ce que ces contenus puissent être rattachés à des « autorités » qui sont en fait ici des profils, mais qui correspondent aux « autorités » ou notices d’autorités telles qu’on les utilise dans nos systèmes documentaires.

Ce qui fait donc fantasmer les différentes instances (institutions traditionnelles et grandes plateformes décisionnelles de nos existences), c’est justement de pouvoir réaliser une identification fine de nos activités et productions, voire de pouvoir rassembler nos différentes identités. Pour cela la recherche de l’identifiant unique reste le Graal absolu. Élément pratique en apparence puisqu’il évite les multiconnexions, il peut s’avérer aussi un instrument de suivi. Un pharmakon en quelque sorte. Une nouvelle fois, ces questions ont déjà été envisagées au niveau scientifique. J’étais très favorable à un identifiant unique des chercheurs. Il existe désormais avec Orcid, mais d’autres tentatives ont été également amorcées et il n’est pas vain de se demander si le profil Google Scholar ne peut pas également en constituer un.

Nos adresses mail et IP font partie de ces données personnelles qui peuvent constituer des formes d’identifiant majeur. Désormais, le numéro de téléphone portable apparaît comme de plus en plus clef sur ces aspects.

Cela nous oblige à repenser nos existences au travers de nouvelles « propriétés » au sens de possessions, mais surtout au sens de qualités (eigenschaften) pour mieux nous définir et nous projeter dans les espaces semi-publics du web.

Je précise également, mais je le disais déjà dans du Tag au Like, que les instances de contrôle de nos existences comme Google et Facebook fonctionnent sur la popularité et qu’ils cherchent à renforcer leurs mécanismes de productions d’autorités avec des profils optimisés… ce qui suppose parfois aussi des classements voire des hiérarchies.

Au final, la situation est clairement celle d’une crise des autorités dans tous les sens du terme. Mais elle était totalement prévisible, et ce d’autant que la différence ancienne et déjà discutable entre réel et virtuel n’existe plus.

Nous sommes donc en déficit d’autorités sur plusieurs plans :

– au niveau institutionnel, notamment parce que depuis les premiers mythes du web, nous ne sommes pas parvenus à développer une démocratie participative efficace. Le reproche en est fait actuellement à la classe politique au pouvoir.

– au niveau des expertises. Sur ce point, règne une grande confusion, avec des tribuns médiatiques qui sont parfois des médiocres scientifiquement, voire purement et simplement des escrocs. S’en suit un mélange des genres entre opinions et analyses qu’il est souvent difficile de départager. La critique des médias se nourrit de ces dysfonctionnements, tout en produisant des visions encore plus idéologiques et doctrinaires que les médias qu’elle critique.

Une des critiques classiques du web et des interfaces numériques est qu’ils ont tendance à tout aplanir et à donner l’impression que tout se vaut.

C’est ici que se situe probablement cette tension entre popularité et autorité, et qui marque le triomphe de l’influence sur la pertinence.

Le plus légitime devient celui qui obtient le plus de viralité.

C’est le troisième passage que je n’avais pas pleinement su décrire, même si j’avais commencé à travailler sur les théories du complot depuis bien longtemps, d’un point de vue historique initialement, puis au niveau informationnel par la suite.

La crise de l’autorité est  aujourd’hui celle de l’affrontement entre viralité et véracité avec la confusion qui peut se produire avec la reprise d’éléments complètement erronés de façon plus nombreuse sur le web que celle qui contient pourtant la position la plus rationnelle scientifiquement.

Il est vrai que même l’histoire du web n’est pas épargnée avec la théorie d’une création militaire qui demeure encore trop fréquente… même chez les Dernier point sur lequel il me semble qu’il va falloir être très attentif : celui d’une remise en cause totale des institutions de savoir que sont les lieux d’enseignement et notamment les universités. J’ai toujours plaidé pour une position professorale qui puisse être discutée et corrigée par les étudiants durant les cours notamment lorsqu’il y a des critiques, des erreurs et des approximations -chercheurs. Toutefois, au sein de ces remises en cause drastiques de toutes les autorités, il n’y a aucune raison que l’université soit épargnée. Mais c’est sans doute le propos d’un autre billet.

autorité versus popularité
Les tensions entre autorité et popularité

Recrutement d’un doctorant pour projet ANR HyperOTLET

Thèse en sciences de l’information et de la communication pour le projet ANR HYPEROTLET
Thèse financée pour trois ans au sein du laboratoire MICA, équipe E3D, Université Bordeaux Montaigne.
La thèse s’inscrit dans le programme de recherche ANR HyperOTlet qui vise à travailler sur l’œuvre de Paul Otlet et à proposer une version augmentée du Traité de documentation, ouvrage cardinal qu’il publie en 1934. Le projet HyperOtlet associe plusieurs équipes et laboratoires pluridisciplinaires et articule des recherches historiques et documentaires à un dispositif numérique collaboratif en élaborant un écosystème numérique autour de quatre axes :

  • la (re)contextualisation (Centre Maurice Halbwachs, CMH) de la culture numérique ;
  • une réflexion sur les problématiques actuelles de la documentation dans les humanités numériques (Laboratoire MICA (Médiations, Informations, Communication, Arts), de la « documentarité » et de la « documentalité » ;
  • l’élaboration de nouveaux instruments de lecture, de consultation, de circulation dans les œuvres (Ecole Nationale Supérieure des Sciences de l’Information et des Bibliothèques, Enssib), Maison des sciences de l’homme Paris Nord, Msh-PN).
  • l’animation d’une communauté épistémique qui pourra porter une tradition documentaire européenne (MICA, Enssib, Mundaneum);

 
Le travail du doctorant consiste dans la réalisation d’un travail de recherche à la fois au niveau de l’épistémologie des sciences de l’information et de la communication ainsi que sur l’évolution de la tradition documentaire impulsée par Otlet au travers des dispositifs documentaires actuels avec un focus sur l’innovation documentaire apportée par l’écosystème HyperOtlet et HyperOtlet1.0.
 
Compétences souhaitées
Bonne connaissance de l’information-documentation, de son histoire et de ses concepts
Intérêt pour l’histoire et l’évolution des systèmes d’information et d’organisation des connaissances
Intérêt pour les travaux sur archives
Connaissances en architecture de l’information
Connaissance du mouvement des humanités digitales
Capacité à traiter des corpus importants
Intérêt pour les logiciels de cartographie du web et des outils de traitement automatique
 
Diplômes : Master en sciences de l’information et communication, Sciences de l’information et des bibliothèques, Humanités numériques ou équivalent.
 
Début : 1er octobre 2017.
Engagement : 3 ans
Dépôt des candidatures : 10 septembre 2017.
 
Conditions :
Le poste requiert une présence très régulière sur Bordeaux avec inscription à la formation doctorale de l’Université Bordeaux Montaigne.
Des déplacements sont à prévoir (Paris, Lyon, Mons)
 
Renseignements et contact :Olivier Le Deuff. oledeuff@gmail.com +33 6 87 65 31 27Bertrand Müller bertrand.muller@ens.fr  + 33 6 51 49 23 56

Qu’est-ce que le digital labor, par Dominique Cardon et Antonio Casilli

Voici un livre court et synthétique et peu onéreux qui prend naissance dans le cadre des ateliers de l’INA animée pendant plusieurs années par Louise Merzeau qui  signe d’ailleurs la préface de cette édition.

Il faut reconnaître l’efficacité de l’ouvrage qui juxtapose deux interventions, la première d’Antonio Casilli, la seconde de Dominique Cardon. Les deux conférences se suivent et se répondent ce qui forme un objet éditorial opportun.
L’ouvrage répond à pleins de questions actuelles et correspond à mon avis à beaucoup de cursus qui évoquent les questions numériques et notamment mon cours d’intelligence collective où je vais le faire figurer au programme, car il éclaire de façon intéressante les tensions actuelles avec la mise en avant des concepts autour du travail et du digital labor, qu’on peine finalement à traduire en français. Pour 6 euros, il y a de quoi faire travailler les étudiants autour de ces questions, car cela donne un cadre de réflexion pour toute analyse de dispositifs et de plateformes qui pourraient être étudiés.
Antonio Casili resitue la question du digital labor et l’évolution du concept ces dernières années. Il évoque également les données afin de savoir si elles doivent être l’enjeu d’intérêts privés ou bien s’ils peuvent être considérés comme une forme nouvelle de biens communs. Son intervention permet de retrouver de nombreuses références bibliographiques en note de bas de page. Il faudrait presque d’ailleurs une bibliographie numérique pour retrouver les liens directement en ligne. Le Mechanical türk d’amazon y est expliqué notamment dans cette première partie, et Casilli y revient fort justement également dans le débat.  Casilli insiste bien que le travail désigne également un ensemble de relations sociales, susceptibles d’être source d’antagonisme. De même, il évoque la question des frontières peu claires parfois entre travail et loisir, avec le néologisme de Weisure.
Dominique Cardon insiste beaucoup sur la transformation de l’idéal du web au fil du temps avec un élargissement des publics qui s’éloignent des logiques des pionniers, avec une démocratisation des accès, des contenus et des publications qui aboutissent à des formes de tension, entre des logiques initiales qui ne recherchaient pas nécessairement la marchandisation, et des intérêts actuels qui au contraire revendiquent des formes de contribution davantage rémunérées, car le web est en fait devenu un espace professionnalisé. Si je rejoins globalement Dominique Cardon sur cette transformation progressive que j’ai vécue en partie également, je pense qu’il faut nuancer cette vision d’un web initial idéal, basé surtout sur le partage de la connaissance et un web actuellement d’essence marchande.
D’une part, parce que le web a très vite été vu comme un espace commercial potentiel, et ce dès l’arrivée des navigateurs comme Mosaic. Dale Dougherty remporte  en 1994 une récompense pour la meilleure application commerciale du web. D’autre part, le web est également très vite associé à des aspects de chat, de rencontres et des sites pornographiques dans les années 90. Il ne fait d’ailleurs que poursuivre des aspects déjà présents dans les communautés en ligne de l’Internet, et en France des logiques importées du minitel se retrouvent dans les nouveaux réseaux.
Je crois qu’il y a ici une sorte de vision idéale des pionniers, défendus parfois par certains geeks, mais qui ne correspond qu’à une réalité partielle. Je pense également que la vision d’un web influencé par l’imaginaire des communautés à la Steward Brand est fortement exagérée. Si je repense à certains créateurs d’Arpanet, je crois que la réalité est différente, de même avec Berners-Lee. La lignée principale reste celle des technologies de l’information et de l’hypertexte.
Intéressantes également les remarques sur les risques d’une perturbation par une logique de rétribution qui pourraient tarir la source du crowdssourcing, avec le risque final d’une rémunération pour ceux qui disposent des codes culturels ou qui sont capables de générer de l’attention, et les autres à qui on accordera une propriété ou une co-propriété sur leurs données personnelles, mais qui seront dès lors exclues des biens communs. Situation qui aboutirait à un résultat décevant.
Cardon soulève alors la question de l’exploitation, et notamment le fait qu’il y aurait production d’un travail inconscient dont les bénéfices seraient acquis par d’autres, notamment les plateformes. Si le sociologue reconnaît ici qu’il y a sans doute des enjeux d’aliénation basée sur une mécanique des égos, il incite à la plus grande prudence théorique, tant les affirmations péremptoires qui décrivent Facebook comme un camp de concentration sont réductrices. Il en appelle ici à davantage d’enquêtes sérieuses sur le terrain pour mieux mesurer le phénomène. Cardon souhaite par conséquent sans doute plus de modestie intellectuelle en la matière, et on perçoit plusieurs critiques sous-jacentes à certains travaux dans la lignée de Stiegler, critique que la référence à Rancière dans le débat ne fait que confirmer. On ne peut ici que le rejoindre dans le besoin de s’appuyer davantage sur des études empiriques. On peut néanmoins se demander si demeurer sur les seuls usages n’est pas le meilleur moyen de botter en touche, en restant un simple observateur. Une position qui nous semble de moins en moins souhaitable dans le cas des humanités digitales.
La dernière partie du livre fait place au débat, notamment entre nos deux précédents auteurs. La forme est étonnante, mais néanmoins intéressante. Les réactions d’Antonio Casilli apparaissent importantes, car elles nuancent la vision libérale d’une alliance entre le marché et les usagers du web, et le fait que les externalités positives seraient telles que le digital labor ne serait qu’un objet trivial, d’une importance moindre. Antonio montre en citant des exemples précédents, notamment le fait que Perry Barlow ait été critiqué vers 1996 pour ses positions favorables à l’entreprise, que le débat n’est pas si récent et que la question de la critique des industries du numérique existe donc depuis au moins 20 ans. Casilli propose non pas une économie de la contribution basée sur des micropaiements qui casserait toute dynamique collective et réellement contributive, mais une logique qui serait celle de participation aux biens communs via le développement du revenu de base universel.
Casilli souligne également qu’il importe de prendre en compte un changement de paradigme du web qui pourrait être celui d’un web de publications intentionnelles à un web d’émissions de données non intentionnelles, et que l’enjeu autour de ces questions apparaît peu appréhendé.
Le débat se termine par la position de Cardon qui plaide pour une place du chercheur et de l’intellectuel qui soit davantage placé au milieu (il serait tentant de développer ce point d’ailleurs) et moins comme au-dessus, en tant que celui qui sait et qui observe les autres qui ne savent pas.
En tout cas, tout lecteur de cet ouvrage en saura un peu plus et aura fait avancer sa propre réflexion sur les phénomènes autour du digital labor qui concerne tous les s usagers du web y compris les plus grands esprits de ce temps.
 Le modèle éditorial est intéressant. Un livre court, rythmé et riche en références.  On retrouve d’ailleurs l’article de Casili sur Hal-Shs, ce qui ne nuit pas au fait de produire un objet éditorial intéressant. A l’avenir, je suis tenté pour produire des ouvrages du même type, avec version papier et version numérique (enfin digitale).
digitallabor
Un lien vers amazon est-il une forme de digital labor?

L’indexation des désirs

Je me fais de plus en plus rare sur le blog, mais ce n’est finalement pas nouveau, puisque c’est le rythme que j’ai adopté depuis quelques années. Pour suivre mon actualité, le plus simple est de vous abonner à mon compte twitter, car je n’ai pas toujours le temps de bloguer toutes mes interventions ou dernières publications.
Je vous propose néanmoins de retrouver mon intervention sur l’indexation des désirs pour le séminaire international « écritures numériques et éditorialisation ». J’étais intervenu avec mon collègue David Pucheu sur le sujet Désir de profilage et profilage du désir : L’intention catégorisée. Le résumé est ici.
Vous pouvez retrouver l’intervention ici  et le support de mon intervention est disponible sous slideshare. (attention quelques visuels sympathiques s’y trouvent !)

L’intervention constituait un prolongement de mon article sur les tags dans la pornosphère.  C’était l’occasion de rappeler les enjeux d’importance qu’il y a derrière ces questions, tant au niveau des recherches dans le domaine des pornstudies qu’en ce qui concerne finalement les enjeux économiques et stratégiques autour de nos données personnelles et nos représentations.
Cette étude avait commencé par ce qui était surtout un pari perdu sur twitter, mais qui finalement allait se révéler bien plus intéressante que je ne l’avais envisagé initialement.
J’y reviendrai prochainement, notamment pour mieux définir ce que pourraient être ces humanités digitales d’un genre particulier, les humanités numérotiques comme les nomment Yves Citton.
Si vous voulez vous détendre pour un prix peu élevé, mon roman Hot&Steam est désormais à 0,99 euros.
 
L’esprit de Norman encombré par une représentation par tags.
norman et les tags
 

Le légiste du digital

Il y a quelque temps, j’avais écrit avec Franck Cormerais un petit texte sur le lettré du numérique pour digital intelligence 2014. On s’était déjà interrogé s’il ne fallait pas mieux le considérer comme un lettré du digital (choix qui paraît désormais évident), et on s’était également interrogé s’il fallait conserver le mot lettré, s’il était encore approprié.
J’ai à nouveau poussé la réflexion un peu plus loin en m’interrogeant sur la question de l’édition ouverte pour un numéro de la revue de la société française des sciences de l’information et de la communication, numéro dans lequel je publie avec mes camarades du MICA de Bordeaux un autre article programmatique sur les humanités digitales et les SIC.
Je prône une évolution qui opère une transformation de notre lecteur studieux ou écrit-lecteur en un véritable légiste, à la fois en tant que :

  • Lecteur, du fait de legere qui est dans légiste.
  • Mais aussi lecteur et vérificateur des différentes lois scientifiques
  • Légiste en tant qu’anatomiste de l’œuvre, du document qu’il faut examiner et analyser.

Cette transformation du lecteur en légiste implique des outils pour disséquer nos différents corpus (corpses ?) et ne peut que nous inciter à veiller à ce que les possibilités de fouille de texte (text-mining) soient facilitées par la loi Lemaire sur le numérique.
En effet, l’accès ouvert est celui qui nous pousse à mettre nos doigts dans les entrailles :
« Du coup, ce ne sont pas des cimetières d’articles bien rangés dont nous avons besoin, mais de lieux de dissection pour mieux analyser les différents corpus avec l’ensemble des outils qui accompagnent notamment le mouvement des humanités digitales (Le Deuff, 2014). La logique de l’édition ouverte est donc d’imaginer et de développer une interopérabilité avec les divers outils de la pratique de recherche. Le temps passé à chercher pour ne pas dire déterrer un article doit être réduit au profit de son examen. »
 
À vos commentaires…

L’impératif digital ?

Mon dernier billet sur les avantages du digital par rapport à numérique a suscité quelques intérêts et réactions notamment sur twitter. En dehors de réactions épidermiques, de quelques références au dictionnaire wikipédia, qui est en fait une charge contre digital, et à l’avis l’Académie française, j’ai vu peu d’arguments contre émerger.

Le billet s’inscrit finalement en parallèle avec le dernier article d’Alexandre Moatti dans la revue Le Débat. Sans prendre parti, il montre la montée en puissance du mot digital vis-à-vis de numérique, et pointe quelques éléments de langage qui méritent un examen plus poussé.

Il montre que l’expression cache parfois une volonté d’aller plus loin que le numérique et que cela suppose de passer à une nouvelle transformation et révolution digitale. J’avais précisé en effet que digital devenait de plus en plus employé dans les milieux du marketing, ce qui a fait dire à certains que justement c’était un mauvais argument pour l’utiliser. Ils oublient sans doute que numérique a été utilisé abusivement par les mêmes milieux.

On a l’habitude de ces évolutions dans les discours marketing et médiatiques, car ils sont porteurs de stratégie qui s’impose sans réel débat et opposition, car ils veulent s’appuyer sur des évidences qui visent à faire des nouveaux environnements technologiques des éléments naturels. L’objectif est celui de démontrer qu’il n’y a pas d’autre voie possible, et en cela les tenants de «  l’impératif digital » ne font que prolonger les discours de la société de l’information, des autoroutes de l’information, du web 2.0 décliné à toutes les sauces et des diverses déclinaisons du numérique.

Ces discours sont sans cesse portés par les lobbies industriels qui ont des marchés à conquérir et tentent d’immiscer partout et notamment au sein des institutions publiques. Le but est de développer des mécanismes de transformation qui peut-être produiront des effets opportuns pour ces institutions, mais qui surtout permettront des effets d’aubaine pour les industriels du domaine. Évidemment, il s’agit aussi d’imposer de nouveaux modes de management et sous couvert de coolitude (voir ce que dénonçait déjà Alan Liu en 2004) et  de nous démontrer que les changements à venir sont pour notre bien à tous et notre épanouissement, ce que j’ai tenté de montrer dans l’analyse d’une conférence.

Pour autant, faut-il se priver de digital ? Non, car je l’avais rappelé, digital est justement un pharmakon, ce qui montre bien la complexité à l’œuvre et les enjeux de pouvoir. En ce sens, il reflète mieux les tensions à l’œuvre et montre une fois de plus que cette histoire n’est pas qu’une affaire d’informatique… terme qui mériterait d’ailleurs d’être réinterrogé parfois.

Évoquer un impératif digital est intéressant à plus d’un titre, car cela exprime bien la tentation de désigner la voie à suivre et montrer le chemin… sans qu’on puisse le contester. C’est le côté obscur de l’indexation qui fixe la norme et désigne les hérétiques. Mais l’indexation a aussi un côté positif qui recherche la collaboration, le partage et l’organisation des connaissances. L’impératif digital ne peut s’imposer que s’il n’y a pas de contestation, et que les acteurs de la formation sont peu valorisés ou mis sous l’éteignoir.

À ce titre, on ne peut que s’inquiéter de l’évolution annoncée du Conseil National du Numérique, gadget prévu pour être un énième conseil théodule, mais qui a fait son travail bien au-delà des attendus ministériels, car on y trouvait une équipe investie et qui osait s’exprimer et surtout exprimer des avis contradictoires à ceux de la politique menée.

Une équipe d’emmerdeurs en quelque sorte qui n’ont pas compris que pour les gouvernants, ils ne sont là que pour conforter leurs dires et apporter un semblant d’expertise. Le Conseil national du numérique est trop résistant face à l’impératif digital, il faut donc le changer. Au menu, on nous annonce des copains et des lobbies, c’est plus conforme à la politique traditionnelle. Les chercheurs y seront moins présents. Mais ce n’est guère une surprise, ils cherchent des explications, alors qu’on leur demande de se conformer au dogme.

Par conséquent, il est probablement temps de continuer à se mettre à l’écart des instances pour continuer de porter l’esprit de la République digitale (sans doute un autre billet à venir…)

 

10 raisons de préférer digital à numérique

Ceux qui suivent le blog, mais aussi mes aventures dans les humanités digitales savent que j’ai fait le choix de privilégier l’adjectif digital à numérique depuis quelques années. Le titre de l’ouvrage chez Fyp marquant délibérément ce choix sans pour autant revenir en détail sur cette position puisque le but était différent et qu’il s’agissait de montrer plusieurs points de vue, méthodes et concrétisations.

J’avais alors exposé ce choix ici dans un billet sur les humanités digitales et j’ai prolongé cette réflexion dans plusieurs articles de recherche notamment celui sur l’histoire longue des humanités digitales.

Je tente donc de rassembler tous les arguments pour dans ce nouveau billet pour un plus large public, tant on remarque la montée en puissance du mot digital notamment dans les sphères du marketing. À noter aussi que ce choix est depuis longtemps celui de Bordeaux et sa région notamment avec la semaine digitale. J’y serai d’ailleurs présent avec mes étudiants du DUT Infonum de Bordeaux.

Voici les 10 raisons principales que j’expose ici brièvement.

  1. Ce n’est pas un anglicisme, mais un latinisme. Contrairement à l’argument comme quoi digital serait une mauvaise transposition de l’anglais, il faut rappeler que le mot est bien initialement d’origine latine. Certes en français, il est souvent adjectivé sous sa référence aux doigts, mais il n’est donc pas totalement un anglicisme pour autant.
  2. De plus numeric existe en anglais… et justement se rapporte au nombre, à ce qui peut être calculé et dénombré. Par conséquent, si la langue anglaise a privilégié digital à numeric, c’est que sa portée est bien plus importante que cette mise en calcul.
  3. Cela réintroduit le doigt (n’y voir aucun mauvais jeu de mot !) et donc le corps. L’avantage est donc qu’on sort des logiques d’opposition entre réel et virtuel, entre une pensée ou une information qui serait l’essence des nouvelles interfaces et un corps qui serait d’importance moindre. On ne retrouve donc pas cette opposition entre le corps et l’esprit, mais au contraire une forme de symbiose proche du concept d’énaction.
  4. On comptait d’abord sur ses doigts (le digit)… Le corps est aussi un instrument et les doigts sont des moyens de pouvoir compter. Par conséquent, l’argument qui affirme que numérique est plus intéressant, car il retraduit mieux les logiques de calcul permises par l’informatique négligent le fait que digital prend également en compte cet aspect, si ce n’est qu’une nouvelle fois il rappelle de façon efficace l’historicité du phénomène.
  5. Cela prend mieux en compte les espaces tactiles qui se sont développés ces dernières années avec nos smartphones et tablettes, et les futures interfaces en construction. Digital permet de mieux exprimer le sens du toucher et d’autres sensibilités. Toutefois, il ne s’agit pour autant de rester dans l’imaginaire du monde des petites poucettes de Michel Serres.
  6. Finalement, les empreintes digitales ont évolué en étant initialement des prises d’empreintes pour la constitution de fichiers, notamment ceux de la police pour glisser dans la question de la présence en ligne et de la production des traces et des métadonnées que réalisent plus ou moins consciemment les internautes. On retrouve donc une tension intéressante qui montre la complexité du terme et le fait que digital s’inscrit dans une histoire passionnante…
  7. Cela replace la question dans une histoire longue : celle de l’indexation. L’indexation a deux visages. D’un côté, celui d’une volonté d’améliorer l’organisation des connaissances et de l’information avec des outils dédiés dont font partie les fameux index. De l’autre, ces méthodes ont permis la constitution de fichiers de surveillance, d’index de livres interdits. Cette histoire est aussi celle d’une dégradation et de changements de doigts : entre l’index qui désigne ce qui est important ou ce qui devrait être interdit, nous sommes en train de glisser sur la logique du pouce et donc du like. J’ai consacré plusieurs travaux à cette question dont notamment un ouvrage (Du tag au like)
  8. L’hypertexte est digital. L’histoire de l’hypertexte est bien plus riche et plus longue qu’on ne le croit. Elle précède de beaucoup l’informatique, comme tout ce qui se rapporte au digital finalement. Le symbole de l’hypertexte est en fait initialement une manicule, ce symbole qui désignait le passage à lire dans les manuscrits et qu’on retrouve aussi dans quelques imprimés. Une de mes étudiantes vient d’écrire un article à ce sujet.
  9. Numérique entretient une confusion avec informatique, si bien que certains acteurs de l’informatique se sentent légitimes pour la totalité des questions qui tournent autour des usages et des pratiques. Au final, tout le volet de formation risque de se résumer à une formation au code. Pourtant, les enjeux sont multidisciplinaires et méritent de plus amples enseignements.
  10. Le digital est un pharmakon comme la digitale, cette plante qui fournit un cardiotonique, qui peut être en excès un poison comme le savent tous les lecteurs d’Agatha Christie. Le pharmakon, tantôt potion, tantôt poison, renvoie à la position des objets techniques dans nos cultures qui sont parfois jugés moins légitimes que d’autres aspects culturels. Ce pharmakon est aussi le bouc émissaire, le coupable désigné par les médias et les politiques parfois. Mais il est vrai qu’au discours technophobe s’oppose le discours technophile, qui voit dans la technique la panacée. On comprend de ce fait, que digital retraduit mieux ses tensions et oppositions et le besoin de trouver une position mesurée…Ce moment où la question du digital ne se posera plus.

Entre hyperstimulation et évanescence

Mes activités de blogging se font plus rares. Je n’ai guère le temps de développer des réflexions longues car elles s’opèrent de plus en plus ailleurs sur des formats plus longs. Le blog ou carnet de recherche s’inscrit dans une logique de teaser, d’alerte, de digest, de brouillon de réflexion. Il n’est pas une fin en soi car il appartient à un écosystème beaucoup plus vaste. Ce billet amorcé ne dérogera pas à la règle, en constituant une projection qui mérite de plus amples développements, mais qui ne doit sa source qu’à une envie d’écrire et de concrétiser un maelstrom d’idées fugaces.
Evidemment, il y a cet étrange manque de temps perpétuel qui ne cesse de croître au fur et à mesure des dynamiques de projet (c’est le plus stimulant), mais aussi en fonction des impératifs administratifs et  pédagogiques (la joie de faire des emplois du temps et autres évènements réguliers à l’IUT qui vous empêchent de déconnecter vraiment de votre lieu de travail).
Je crois d’ailleurs que l’erreur est de croire que ce sont les objets numériques qui sont les seuls coupables de notre relation à un travail qu’il devient difficile de déconnecter. C’est bien l’esprit qui ne peut plus faire autrement au point qu’une idée ou qu’un élément important peut surgir à tout moment, y compris en plein sommeil. Cela peut produire une forme d’épuisement et de limitation quand l’esprit n’est plus qu’un instrument d’une logique organisationnelle et institutionnelle. Alors, il convient d’aérer la machine avec d’autres velléités.
On peut certes s’éloigner du dispositif, une partie de votre cerveau travaille en arrière-plan au point de vous faire songer à tout élément clef à ne pas oublier, ce qui suppose au minimum que vous le mettiez dans la longue To Do list, tonneau des danaïdes, ou bien bien que vous tentiez de le réaliser dans la foulée.
Le paradoxe de cette stimulation permanente, qui est d’ailleurs une forme accompagnant la transattention que j’évoque ici et dont je parle également dans cet entretien, est que même si vous pensez être en train de déconnecter en lisant un bon roman… il n’est pas rare que l’envie de noter et d’annoter vous vienne et que vous continuez de tisser des liens avec d’autres activités.  Le web ne fait que mettre en avant cette activité réticulaire. Il n’est qu’un révélateur de notre envie de lier.
L’hyperstimulation dopée à la transattention devient une capacité de réaction réfléchie qui consiste à tisser des liens, à collecter, à faire des relations enrichies.  Le spider ou le bot, c’est nous, ce n’est pas celui de Google qui n’est qu’une puce qui saute de liens en liens sans que ces liens soient clairement qualifiés, mais davantage quantifiés. Voilà pourquoi j’avais évoqué l’idée d’être des ichnologues de filagrammes numériques.
On ne cesse de vouloir porter nos espoirs sur d’hypothétiques intelligences artificielles et algorithmes miraculeux. Mais tout cela est vain sans une expansion de l’esprit humain qui puisse s’exprimer et donc rêver aux possibles mais aussi à l’improbable. Je rejoins Stiegler (dans son ouvrage la société automatique) en ce qui concerne l’importance du rêve et le fait que l’idée de pouvoir quelque part indexer nos activités cérébrales (on s’approche de la dystopie de Print Brain technology) ne peut que constituer un appauvrissement du rêve :
Et, en effet, un article de Science décrivait en mai 2013 sous le titre « Neural Decoding of Visual Imagery During Sleep » une technologie de traçabilité des rêves, qui repose là encore sur un machine-learning prédictif dont il y a tout lieu de penser qu’il vide le rêve de ce qui constitue son pouvoir même : ce qui est prédictible d’un rêve dans de telles conditions (si cela l’est en effet) ne peut être que ce qui en constitue l’étoffe automatique.
Or, ce en quoi consiste le rêve, ce par quoi il peut nourrir la projection à venir d’une quelconque consistance par où ce rêve pourrait œuvrer, c’est-à-dire penser, c’est précisément ce qui en est non seulement imprédictible, mais tout à fait improbable, et en cela rigoureusement le fruit d’une désautomatisation – dont le nom est aussi, en grec, épokhè.
Méditer sans traces devient évanescent, disait Mallarmé, montrant ainsi que sans transformation documentaire, il n’y a rien de vraiment probant. Pour autant, il faut accepter pleinement cette évanescence, ce terreau de l’homme aux mille visages, cette fiction potentielle et quantique qui  est celle de nos désirs, du moteur de nos vies. Il faut donc plaider pour le maintien de cette évanescence sous peine d’opérer une réduction de nos vies intérieures et de produire une documentalité sans intention, c’est-à-dire la mise à jour et sous forme de traces et de données de notre intime sous peine de placer notre désir de vivre et de réfléchir en détention. Car l’intentionnalité doit être exprimée, elle ne peut être envisagée par probabilité, sous peine de commettre une forme de viol spirituel. Le probable n’est pas le probant. C’est pourquoi une des pistes d’échappatoire est aussi celle du hors-sujet.
Or, c’est bien cette mise en suspension de l’épokhè qu’il s’agit de défendre, notre faculté de jugement mais aussi notre folie qui est justement la source de notre capacité à raisonner. (à suivre …)