Quels tératologues documentaires ?

Par défaut

De plus en plus les documents que nous consultons sont aussi consultés par des robots, non pas au sens d’Asimov, mais davantage en tant que bots qui collectent, cumulent et indexent l’information. Cette présence des machines dans les circuits documentaires est peu prise en compte au final par les disciplines du document, d’autant que les robots et les systèmes automatisés permettent également la création de documents. On oublie également que la structuration des documents numériques et des bases de données permet de générer de nouveaux documents par le biais de requêtes à partir d’autres données structurées. Mais il s’agit de plus en plus d’aller plus loin. Si les premiers textes du web sémantique nous plaçaient dans le développement potentiel des agents intelligents,  ces derniers s’avéraient à la fin du siècle précédent des sortes de gadgets bien loin du Jarvis d’Iron Man. Vous savez que de tels dispositifs reviennent à l’ordre du jour, que ce soit dans nos environnements ou dans une science-fiction qui nous place dans des évolutions prochaines. Cependant, on reste bien souvent au niveau du fantasme et de la dystopie, alors qu’il devrait dorénavant s’agit d’études bien plus concrètes.

Ce que je veux défendre ici, c’est que la tradition conceptuelle documentaire a souvent considéré que le document n’existait que dans une relation qui mettait en scène deux acteurs humains. La tradition notamment depuis Meyriat est d’insister sur le fait que le document ne peut exister que dans le cadre d’un récepteur interprète. La théorie de la documentalité de Ferraris qui renouvelle la réflexion reste inscrite également dans cette mise en relation d’au moins deux personnes. À mon sens, cette situation ne change pas véritablement actuellement, si ce n’est qu’il faille élargir nos représentations en considérant que l’interprète des éléments microdocumentaires et macro-documentaire peuvent être également des robots et des agents intelligents. Ces agents peuvent également interpréter l’information pour prendre une décision. C’était déjà le point de vue exposé par Berners-Lee qui envisageait d’ailleurs des médiations réalisées entre des agents intelligents pour prendre les meilleures décisions après la consultation d’informations. Cela signifie que les robots ne sont pas seulement des collecteurs d’information et de données,  et qu’ils vont de plus en plus produire des éléments documentaires.  Cela signifie aussi qu’ils vont de plus en plus devenir des objets d’évaluation informationnelle avec des indices de crédibilité et de confiance.

Par conséquent, le processus documentaire classique pourrait de plus en plus mettre en scène des entités nouvelles issues des développements des différents types d’intelligence artificielle dont le but n’est pas de raisonner strictement comme des humains ou de s’apparenter à eux, mais davantage d’opérer des échanges d’informations et de données sans avoir à passer par la communication humaine.

Cela signifie que le test de Turing n’a au final aucune importance, et ce d’autant que les intelligences artificielles ont beau pouvoir essayer d’imiter la conversation humaine, nos capacités de détection du fake et du bot se sont également accrues. Dès lors, l’enjeu du test de Turing n’est pas uniquement la capacité de la machine à se faire passer pour un humain, mais davantage la compétence de l’humain à détecter s’il converse ou pas avec une machine, et s’il peut au final lui faire accorder une certaine crédibilité. Seulement, il ne s’agit pas de traquer des Nexus comme dans la nouvelle de Phillipe K Dick, mais de comprendre le rôle des bots dans ces processus.

À mon sens, c’est ici qu’il apparaît important pour les sciences de l’information et notamment la documentation d’amorcer une nouvelle réflexion qui fasse suite à Roger Pédauque, car les mutations du digital se poursuivent.  J’avais plaidé il y a près de 10 ans pour une réflexion en ce qui concerne la tératogenèse documentaire qui faisait que le document sur le web s’avérait monstrueux à double titre:

– Il ne correspond pas pleinement aux traditions du papier en étant souvent hors-norme et évolutif, ce qui remet en cause la vision du document comme anti-évènement d’Escarpit avec le développement d’un document-flux peut aisé à saisir.

– Il est devenu monstrueux, car il n’est pas véritablement un instrument de connaissance, mais davantage un document à montrer et donc qu’il faut avoir vu. Cette logique de monstration se complexifie et embrasse dorénavant l’extension de la documentalité qui oblige sans cesse à la production de documents qui fasse preuve. Phénomène qui ne cesse de prendre de l’ampleur dans les sphères bureaucratiques et notamment universitaires.

Parmi cette tératogenèse figurent désormais les robots, si ce n’est qu’ils  opèrent de façon finalement plus discrète et qu’ils ne sont donc pas si simples à voir… sans mettre un minimum les mains et doigts dans la technique. Ce sont davantage des instruments de démonstration que de monstration. Les acteurs des humanités digitales ont déjà depuis longtemps pris conscience de l’outillage machine qui leur permet de collecter et de traiter différents types d’éléments microdocumentaires ou macro-documentaires.

C’est dans ce cadre qu’il me semble essentiel d’envisager une tératologie documentaire d’une nouvelle ampleur qui implique d’examiner les mécanismes des nouveaux modes d’existence documentaires dans une lecture moins sentimentale et bien plus scientifique.

A propos de la trilogie d’Antoine Bello : le storytelling et la vérité

Par défaut
Je suis en train d’achever avec plaisir la trilogie d’Antoine Bello avec les producteurs qui fait suite aux  falsificateurs et aux éclaireurs. (les liens vont vers Amazon, mais vous les trouverez chez votre libraire ou bibliothécaire préféré)
L’histoire est bien menée, difficile de décrocher et cela fait écho en plus à certains faits du passé, et cela ne peut que nous faire réfléchir.
Cette trilogie me semble incontournable pour ceux qui s’intéressent à la question du storytelling et sans doute également du transmédia, mais aussi à tous ceux qui s’intéressent à la fabrique du faux ou tout au moins du plausible.
L’ouvrage nous interroge sur notre rapport à la vérité.
Antoine Bello décrit une organisation dont le but est de travestir la réalité  que nous connaissons, pour nous proposer des alternatives que nous prenons d’ailleurs pour des vérités dans des buts qui sont en général plutôt progressistes et pacifiques, même si l’organisation secrète s’avère plus complexe.
Des documentalistes travaillent dans cette organisation, et on se demande au final s’ils sont vraiment au service de la vérité, car l’organisation repose sur plusieurs types de hiérarchies et différents personnels.
Mais les principaux emplois concernent finalement les scénaristes, ceux qui inventent des histoires, et les falsificateurs, ceux qui produisent, transforment des documents pour les rendre crédibles.
Le personnage principal est justement un scénariste islandais  Sliv Dartunghuver qui arrive au sommet de l’organisation. Un nom étrange qui résonne comme un dark hangover, une mauvaise gueule de bois.
Cette capacité à raconter des histoires et finalement parvenir à les diffuser via les médias et bien sûr de plus en plus de façon transmédia est pasionnante à découvrir dans l’ouvrage, car cela pose la question des régimes de vérité qui nous gouvernent. Or, il semble que ce soit clairement une lutte, à l’instar de celle déjà décrite par Bruno Latour dans les milieux scientifiques, si ce n’est que c’est également le cas pour à peu près tout ce qui nous entoure. Le CFR ( Consortium de falsification du réel ) fonctionne finalement comme un gigantesque système de lobby supranational. Les méthodes sont finalement assez similaires au point d’ailleurs qu’on se demande si l’auteur n’a pas travaillé dans ces milieux.  En tout cas, Antoine Bello est un écrivain hors-norme, pas si éloigné du héros principal finalement, en étant également un homme d’affaires qui vit aux États-Unis d’après cet article de Télérama.  L’auteur a fondé une société Ubiqus qui s’inspire d’un de ses romans . On note qu’en tant que descendant de Marcel Aymé, cette histoire d’ubiquité me fait penser à la nouvelle « les sabines ».
Mais finalement, est-ce que tout cela est vrai ? D’ailleurs, on se demande à la fin si l’auteur ne finit pas par se perdre lui-même dans la dernière partie de sa trilogie avec cette histoire de tribus maya qui peine à nous convaincre… sans doute avons-nous été dès lors à bonne école avec les deux tomes précédents. Mais bon, la morale de l’histoire est sans doute quand le dernier tome nous place dans une situation qui consiste à  nous faire regarder dans la profondeur de la mer avec cette histoire d’épave près des côtes mexicaines,  alors qu’il serait sans doute plus opportun de  regarder en l’air peut-être. On se demande parfois, s’il ne peut pas y avoir une autre lecture de la triologie, avec un sens caché qui nous aurait échappé. L’appendice final n’y répond que de façon partielle.  D’ailleurs est-ce vraiment la fin de la trilogie ?
Bello nous montre que les ressors de la falsification reposent sur les mécaniques du storytelling couplées aux logiques de la captation de l’attention. On notera d’ailleurs les nombreuses références aux stratégies de manipulation des réseaux sociaux qui sont déployées par les protagonistes notamment dans ce dernier tome. Par endroit, on est tenté de dire que ça sent le vécu…
Bref, une bonne trilogie intéressante à lire pour passer un bon moment et pour ouvrir également sa réflexion quant à la fabrique de la réalité et de la vérité.
À la lecture de la trilogie, il devient également difficile d’en vouloir aux conspirationnistes , car la production massive d’histoire qu’on nous sert au quotidien ne peut que semer le doute en chacun de nous. J’avais déjà remarqué lors de ma thèse que la pire situation serait celle d’un doute qui empêcherait finalement toute position vis-à-vis de la vérité. Une vérité qui ne deviendrait qu’une illusion, un idéal absurde. Telle est d’ailleurs la conclusion du dernier roman d’Umberto Eco.
Ce rapport à la vérité est pourtant essentiel à plusieurs titres :
– Il fait partie des prérogatives de nombreux professionnels de l’information, comme les journalistes et les documentalistes. C’est également une des missions de la science, même si l’erreur est possible et que la science doit permettre la contradiction.
– Il constitue finalement un objectif ou idéal de l’humanité ou en tout cas de l’esprit humain. Comment envisager un humanisme si on considère que la vérité n’est que relative, et que tous les discours se valent finalement?
– cela pose également la question : qui sont les détenteurs et autorités de la vérité ? Les travaux notamment dans la lignée de Foucault montrent que les institutions se sont souvent construites dans un rapport d’une détention du savoir et de la vérité qui est légitime ? Mais qu’en est-il actuellement, à l’heure où les plus grandes démocraties de l’histoire font le choix de l’extrémisme (imaginons qu’après le Brexit britannique, les États-Unis choisissent Trump et la France Marine Le Pen ?) notamment parce que le pouvoir politique est devenu inconsistant (c’est le cas du hollandisme qui n’est pas un consensus mou, mais une mollesse sans consensus et un daladiérisme inconscient). Le pouvoir a basculé sur d’autres institutions que sont les industries, notamment les industries de programmes et de services.
Ce sont les GAFA qui désormais écrivent l’histoire supranationale, mais également nos petites histoires du quotidien qui tout en nous offrant une liberté apparente d’action, nous contraignent dans des formes pré-écrites, des architextes. Il ne s’agit pas de fantasmer sur les big data et les algorithmes, ce sont simplement des logiques de petites histoires qui sont ainsi constituées.
Il reste à savoir si dans ces écritures pro-grammées, il y a véritablement un idéal, un objectif ultime, question qui taraude les membres du CFR dans la trilogie d’Antoine Bello. S’il semblait y avoir quelques idées dans les organismes de paix internationaux à leur début, on ne peut qu’en douter depuis. Dès lors, y a-t-il un ghost in the machine chez Google, Facebook et consorts où faut-il n’y voir que la main invisible du marché qui doit souffrir d’arthrite aiguë, car elle ne semble faire que le même mouvement pour remplir la même poche.
J’y reviendrai certainement, mais actuellement cela ne peut qu’interroger les professionnels de l’information. Paul Otlet considérait que l’information devait être vraie comme base de la documentation. De plus, cet accès devait au final permettre l’amélioration du niveau intellectuel de la population mondiale afin de pouvoir espérer une paix universelle. Qu’en est-il actuellement ?
Quand des professionnels de l’information d’un grand groupe français me disaient il y a quelques années, qu’ils procédaient beaucoup à de la destruction de documents trop sensibles et donc pas nécessairement pour conserver pour les archives, cela ne peut que nous interroger.
Complexe également est la formation dont je m’occupe qui oblige à multiplier les compétences et à savoir les utiliser au bon moment à bon escient. Tantôt, il faut faire preuve de proximité avec le document original lorsqu’il s’agit de réaliser une analyse documentaire qui ne doit souffrir d’aucune déformation, interprétation et critique, tantôt il faut développer  des qualités communicationnelles qui impliquent à l’inverse d’imaginer et de produire du nouveau.
Les professionnels de l’information ne sont pas nécessairement au service de la vérité. Ils font parfois oeuvre de fiction. Reste à savoir quelle est la recette du bon équilibre.
D’ici quelque temps, je vous reparlerai d’Antoine Bello avec son dernier ouvrage Ada, autour de l’intelligence artificielle.

Shell and data : le risque de l’obsession du « tout est donnée »

Par défaut

L’article de Danah Boyd traduit sur internetactu a éclairé quelques une de mes préoccupations du moment. Je dois notamment écrire un article introspectif sur mon blog et je m’interroge sur comment étudier les blogs scientifiques dans la durée du fait de leur évolution et des systèmes d’archivage qui ont tendance à privilégier que des données brutes et peu éditorialisées. Supercomputing
Creative Commons License photo credit: Idaho National Laboratory

Boyd note que l’obsession de cumuler des données présente en effet un important problème : celui de les considérer comme étant toutes d’un poids équivalent. Effectivement, les grandes données offrent des perspectives parfois colossales avec le risque de déformations tout aussi conséquentes.

Mais placer les données au centre de l’étude scientifique et même toute stratégie d’organisation de l’information (avec le web de données par exemple) pose un problème épistémologique de taille : l’oubli de la question de la coquille, c’est-à-dire du support mais aussi des techniques utilisées.

Boyd montre qu’il y a un effet à risque à privilégier des approches informatiques au point de tomber dans le travers de Chris Anderson qui considère que les chiffres sont le reflet de la réalité, qu’ils parlent d’eux-mêmes, qu’ils sont automatiquement compréhensibles, et que par conséquent plusieurs sciences- sous entendues sociales et humaines- sont vouées à disparaître.

Clairement, c’est à nouveau l’idéologie du calcul, du ratio, de la société de l’information qui est en train de nous bouffer face au bon usage de la raison. Une nouvelle fois, ce n’est pas l’homme qui crée le cyborg, mais bien l’inverse. Une idéologie du tout calculable tente de nous « cyborguiser » dans la moindre de nos actions et activités. Ce serait quand même fortement inquiétant si cette idéologie devait définitivement emporter les débats en matière scientifique.  Même les humanités numériques (digital humanities) ne semblent pas à l’abri de cette tentation. La position de Milad Doueihi , qui préfère le terme d’humanisme numérique, permet de sortir de l’idée que tout n’est que data.  Humanisme car c’est la robotique qui prend le dessus de manière inattendue. On est pas si loin de l’idée de Hans Moravec de l’uploading, que notre cerveau pour être téléchargé. Un risque que j’ai décrit dans Print Brain technology.

Jean Michel Salaün a donc bien raison de répéter depuis quelques temps que les archivistes ont beaucoup à nous apporter et je crois que cela ne concerne pas que les sciences de l’information. Le support est clairement un élément à ne pas négliger. Etrangement, il semble qu’on oublie totalement la coquille (the shell) qui entoure les data.  Si on devait examiner ce blog et seulement son contenu depuis ces 12 dernières années, on ne pourrait pas clairement percevoir son évolution.  Le site n’a eu de cesse d’avoir des évolutions éditoriales, des mises en forme différentes, des langages et des codes également divers. Pour un archiviste, la reliure, le papier utilisé sont déjà pleinement des documents et des éléments riche en informations notamment en matière d’évaluation. La vision du «  tout data » conduit à négliger l’éditorialité.

Peut-on imaginer traiter des archives des siècles précédents avec seulement les retranscriptions sous un traitement de texte ? Insipide n’est-ce pas ? On se retrouve dans une division assez proche de la dichotomie corps et esprit.  On a à nouveau l’impression que la matérialité est négligeable, en tout cas pas noble, pas digne d’intérêt. Pourtant, Yves Jeanneret nous avait déjà alertés sur ce risque  dans son fameux « Y-a-t-il vraiment des nouvelles technologies de l’information ».  Le document a toujours partie liée avec des supports et des formes éditoriales, des architextes et il lui faut un interprète comme révélateur d’une relation sociale. Négliger, la coquille, c’est sans doute aussi négliger l’esprit.

Du data à la cata, il n’y a qu’un pas.
Creative Commons License photo credit: Idaho National Laboratory