Pour une critique phénoménologique de la raison computationnelle

Par Bruno Bachimont, conseiller scientifique d’Ina Expert, enseignant-chercheur à l’UTC (Université technologique de Compiègne)

smallI

Ingénieur civil des Mines de Nancy en 1985, docteur en Informatique de l’Université Paris 6 en 1990, docteur en épistémologie de l’École Polytechnique en 1996, Bruno Bachimont, après des recherches dans le domaine de l’intelligence artificielle en milieu médical (Inserm), rejoint en 1998 l’Ina où il dirige la recherche. Il devient en 2001 enseignant-chercheur à l’Université de technologie de Compiègne (UTC), où il assume la direction à la recherche depuis 2006. Il est également conseiller scientifique du pôle Enseignement et Recherche de l’Ina (Ina Expert). Ses recherches portent sur trois objets : une philosophie de la technique et du numérique ; une approche du document et de la mémoire, pour articuler les possibles de la technique (ingénierie documentaire, préservation numérique) avec une phénoménologie de la mémoire et du passé ; et enfin les ontologies formelles, pour comprendre comment expliciter et formaliser les cadres conceptuels de notre pensée. 

________________________________

Le numérique est un nouveau support d’inscription qui a révolutionné nos sociétés en permettant d’aborder et de traiter tous les types de contenus. La massification et la spatialisation des contenus ouvrent de nouvelles possibilités analytiques et de nouveaux objets de recherche et de connaissance. Pour discerner plusieurs registres de possibilités, il faut distinguer deux niveaux dans notre rapport au numérique : le computationnel (l’information abstraite et son calcul) et le numérique proprement dit (la diversité de ses réalisations effectives). Comment penser cette tension entre l’universalité du computationnel et la contingence de ses réalisations ? C’est l’enjeu d’une articulation entre une « raison computationnelle », notion qui permet de caractériser le mode de pensée associé aux possibilités du calcul, et une « phénoménologie du numérique » qui aborde ses concrétisations effectives. Rendre les données comparables et manipulables nécessite des débats épistémologiques et méthodologiques interdisciplinaires, et l’ouverture de nouveaux champs disciplinaires.
________________________________

Si, désormais, le constat de l’importance du numérique dans la mutation de nos rapports à l’information, la communication, la connaissance et l’organisation du travail et des procédés est une banalité, il faut bien reconnaître que la mesure des conséquences de la révolution numérique, leur compréhension et leur assimilation restent encore des défis pour la recherche et des enjeux pour nos pratiques. Les nouvelles possibilités ouvertes par ces technologies entraînent de multiples propositions, essais, expérimentations dont on saisit mal la portée et qui restent difficiles à interpréter, la nouveauté invoquée n’étant pas toujours celle qui est réellement en œuvre. 

Dans cette perspective, nous aimerions aborder ici deux caractéristiques importantes des technologies numériques qui tendent à modifier nos conceptions de la connaissance scientifique et de notre rapport au réel. La première consiste dans le fait que le matériau numérique est par essence manipulable et, donc, disponible pour une expérimentation et investigation. La seconde consiste dans le fait que le matériau peut s’interroger dans sa globalité et pas seulement comme la somme de ses composants : on peut étudier les propriétés du tout, de la totalité comme telle, qui ne sont des propriétés d’aucune de ses parties en particulier. De ce fait, le numérique apporte des possibilités analytiques nouvelles, l’investigation pouvant se concentrer sur l’intégralité des données numériques, et des perspectives synthétiques inédites portant sur la globalité des données considérée comme un tout. 

Ainsi, le numérique permet de connaître mieux ce que l’on posait comme objectif à la recherche et comme objet à la connaissance, mais également d’envisager de nouveaux objets de recherche et de connaissances. Si le numérique permet d’approfondir nos paradigmes habituels de recherche, il permet également d’en établir de nouveaux. Ces derniers comportent leur promesse de nouveaux savoirs, mais qui, dans leur émergence, passent par de nombreux sophismes qu’il convient de dénoncer, non pour récuser les promesses du numérique mais pour mieux les cerner et les expliciter.

LES DEUX NIVEAUX DU NUMÉRIQUE : L’IDÉALITÉ COMPUTATIONNELLE ET L’EFFECTIVITÉ NUMÉRIQUE

On l’a assez dit, le numérique est un nouveau support d’inscription qui apporte, par sa dynamicité et ses capacités calculatoires, des perspectives nouvelles pour aborder les inscriptions auxquelles il prête sa matérialité. Mais justement, il convient de discerner plusieurs registres de possibilités. Pour cela, nous proposons de distinguer l’informatique et le numérique, ou encore le computationnel et le numérique, le premier portant sur l’idéalité du calcul et ses possibilités algorithmiques, le second portant sur sa mise en pratique matérielle effective, dans son implémentation d’une part et son interfaçage d’autre part.

•    Le niveau computationnel ou l’idéalité du numérique

Le numérique se construit sur une double idéalité qui, par essence, doit être dépassée pour devenir réalité. Cette double idéalité est celle de l’indépendance vis-à-vis du substrat matériel, d’une part, et de la formalité, d’autre part. L’indépendance matérielle est cette propriété bien connue que la même information peut être matérialisée sur des supports matériels distincts, tout en gardant ses propriétés informationnelles intactes. Le fichier binaire, qu’il soit réalisé sur un DVD (support optique) ou sur un disque dur (support magnétique) reste le même, même si ses réalisations matérielles sont physiquement très différentes. La formalité renvoie au fait que les contenus binaires ne possèdent aucune signification intrinsèque : ce sont des signes « aveugles » qui se laissent manipuler uniquement selon leur forme syntaxique, c’est-à-dire en tant que signes formellement distinguables les uns des autres selon des règles elles-mêmes formelles ; « formel » veut donc dire ici syntaxique, mécanique, manipulable par une machine. Les symboles binaires sont distinguables de manière non ambiguë par des procédés physiques ou mécaniques, et la seule chose qu’on demande vraiment au 0 du formalisme binaire, c’est d’être distinct du 1, et réciproquement. Peu importe la manière de la faire, on retrouve ici l’indépendance vis-à-vis du substrat, il faut simplement se donner un moyen de le faire concrètement : par exemple, les trous et les bosses d’un support optique, les tensions hautes ou basses d’un support magnétique, etc. De même, on les manipule selon des règles applicables mécaniquement, sans ambiguïté, selon un procédé également effectif et réalisable par une machine. Leur utilisation ne peut alors venir que de conventions de lecture externes, les formats, qui indiquent comment lire les données binaires pour en faire quelque chose et leur donner ainsi une signification qu’ils ne peuvent posséder par eux-mêmes. Ainsi, un même fichier binaire peut être lu par un player audio ou vidéo, et l’on verra ou entendra quelque chose, même si c’est quelque chose d’inouï ou d’improbable. Le numérique est donc cet art de l’ascèse du signe, qui consiste à dé-sémantiser ce dont on parle pour le réduire à des symboles formels et aveugles, gagnant ainsi la capacité de les manipuler via une machine. Mais pour que ces calculs puissent présenter un intérêt quelconque, il faut alors conférer aux signes un sens selon une convention externe et arbitraire, totalement immotivée par les signes eux-mêmes. 

Le numérique est donc, sur le plan théorique, coupé de la matière et du sens, il ne veut rien dire mais peut revêtir de ce fait de multiples significations, il n’est nulle part mais peut se réaliser librement dans différentes matières. Mais justement, pour l’utiliser, il faut bien le réaliser physiquement et l’interpréter conventionnellement. Les historiens de l’informatique nous apprennent comment les langages de l’informatique, qui devraient renvoyer à cette idéalité intrinsèque au calcul et au formalisme, reflètent en fait dans leurs structures de programmation l’architecture des machines et les choix matériels de leur réalisation. De même, le format permettant d’interpréter les données est là pour indiquer comment coder efficacement tel ou tel aspect que l’on voudra retrouver dans les interfaces nous donnant à voir, percevoir les données et les résultats des calculs.

Cette réduction de l’idéalité du calcul se traduit par les faits bien connus de la variété des langages et de la prolifération des formats. Alors qu’on devrait pouvoir se cantonner à ne deviser que d’algorithmes envisagés dans la pureté des langages formels permettant de les expliciter et étudier, on se retrouve en pratique à devoir gérer des langages plus ou moins exotiques et des formats obsolètes. Ce n’est pas seulement au niveau théorique et formel qu’il faut considérer le supplément numérique, mais donc au niveau concret et pratique des interfaces et des implémentations. 

On opposera donc le niveau idéal du calcul, où par principe on trouvera les propriétés mathématiques du calcul, à un niveau « phénoménologique » où l’on considérera d’une part l’implémentation matérielle, donnant une consistance physique au calcul, et d’autre part une incarnation phénoménologique donnant une perceptibilité et une interactivité possible à travers nos sens et notre corps.

•    Le niveau phénoménologique ou le numérique comme incarnation et matérialisation du computationnel

Le numérique n’est une réalité effective qui peut affecter nos sens et nos connaissances que s’il prend une consistance physique pour devenir un processus réel et s’il prend également une dimension corporelle qui puisse nous permettre d’interagir avec ses processus et ses résultats.

Dans cette perspective, le calcul et le computationnel ne sont pas en propre un nouveau support d’inscription pour nos connaissances ou contenus. Ils ne sont que le principe abstrait d’une classe de supports matériels qui se trouvent en pratique être très variés dans leur diversité et leur déclinaison matérielle. C’est la raison pour laquelle le computationnel est à la fois une continuité et une rupture : dégager le principe du calcul et l’information pour y voir des propriétés et caractéristiques intrinsèques invariantes sous la diversité des réalisations effectives fait rupture ; mais ces propriétés ne peuvent se réaliser qu’à travers des dispositifs qui sont en continuité avec ceux que nous connaissons déjà, puisqu’ils doivent s’appuyer sur ce principe stable à travers toutes ces évolutions, notre corps percevant et sentant. Ainsi, malgré la nouveauté du calcul et des algorithmes mis en œuvre, abordons-nous toujours des espaces à lire, des sons à entendre, des images ou représentations à voir, des gestes à effectuer, des retours d’effort à sentir, etc. 

Si le computationnel est le virtuel, selon une présence idéale qui ne peut rien par lui-même, il faut l’incarner pour le rendre réel et affronter ses multiples modalités qui doivent in fine en passer par notre couplage perception/action avec le monde. Si le computationnel est le virtuel, le numérique le convertit en potentiel, traduisant son idéalité en potentialités matérielles effectives que nous mobilisons dans nos projets à travers notre couplage homme-technique.

LES STRUCTURES DU NUMÉRIQUE, COMME IDÉALITÉ ET INCARNATION/IMPLÉMENTATION

Il y a donc une tension entre l’universalité du computationnel, portant sur l’information abstraite et son calcul, et la diversité et la contingence de ses réalisations. C’est le principe même de l’unité du numérique qui est ici en question, et de savoir sous quelles conditions on peut dégager des principes communs qui seraient caractéristiques des systèmes numériques et de leur impact sur nous, notre manière de sentir et de penser.
On sait, en effet, que, dans le cadre de nos outils intellectuels, les « technologies de l’intelligence » – pour reprendre l’expression de Pierre Lévy et de Bernard Stiegler –, on peut dégager des corrélations entre des structures types d’inscriptions matérielles et des catégories conceptuelles. Concernant l’inscription scripturaire, l’écriture donc, Jack Goody a argumenté que trois grandes structures conceptuelles caractérisaient la pensée munie de l’écriture, et n’étaient explicables que de par le fait de disposer d’une technique comme l’écriture : ce sont la liste, le tableau et la formule. Pour faire bonne mesure, il faudrait ajouter le schéma, ce dernier complétant au niveau graphique ce que l’écriture de la langue apporte en propre. 

L’écriture permet en effet la synthèse spatiale, le fait de poser (-thèse) ensemble (syn-) des unités sinon dispersées et de les unifier dans une même structure ou catégorie. En spatialisant la parole, l’écriture maintient présents les éléments qui la composent. Par la transcription symbolique (par exemple alphabétique), elle sélectionne ce qui est donné dans la perception sonore pour ne retenir que les phonèmes, indépendamment de la prosodie par exemple. Ainsi, dans ce cas particulier de l’écriture phonétique, le phonème est le concept permettant la transcription qui assure, dans l’espace de l’écriture, la permanence du donné phonétique. À ce moment, une autre perception est possible : pour reprendre l’exemple introduit plus haut, grâce au concept de « même forme lexicale », je peux rassembler dans l’espace de ma feuille les mots dispersés dans la transcription, mais accessibles simultanément, manifestant une même structure, par exemple « rosa », et « rosae », me permettant ainsi de dégager un paradigme de déclinaison.

On a donc une « raison graphique » caractérisant au niveau conceptuel et cognitif ce que nous fait l’écriture quand on l’adopte. La question se pose alors de savoir si le numérique comme support d’inscription donne lieu à une raison computationnelle, le calcul apportant des possibilités affectant la pensée et la cognition. Nous avons proposé naguère d’envisager la raison computationnelle à travers quatre structures fondamentales venant enrichir nos possibilités de pensée et de conception : le programme, décalque calculatoire de la liste, le réseau, décalque du tableau, la couche, décalque de la formule, et enfin, la maquette numérique qui serait au calcul ce qu’est le schéma est au graphique (Bachimont, 2010).

L’approche ici est de repartir de la raison graphique dans la mesure où l’écriture propose à nos sens une autre manière de percevoir le contenu et l’intelliger. Or, le numérique étant une pure idéalité dans son principe computationnel, il ne peut affecter notre manière de penser ou d’intelliger, il doit en passer par une matérialisation et une incarnation perceptive. Notre proposition porte en fait sur la raison computationnelle quand elle passe par le graphique, c’est-à-dire par la spatialisation.

Du coup, la raison computationnelle n’est-elle qu’un principe abstrait dont les traductions seraient contingentes à la modalité matérielle adoptée pour la concrétiser ? La raison computationnelle ne serait alors que l’énumération de ces déclinaisons, sans réelle unité ou consistance. Mais il faut se rappeler ici que le numérique est une technique, et qu’une technique est toujours une spatialisation permettant de piloter un déroulement temporel. Autrement dit, la mise en espace, la sortie du temps en quelque sorte, reste une caractéristique essentielle des techniques et la raison computationnelle doit donc s’étudier à travers ses dispositifs permettant de traduire en espace les contenus manipulés. 

C’est bien ce que l’on constate, que ce soit les contenus sonores, vidéo, textuels, où à chaque fois le numérique apporte des mises en espace inédites, spatialisant non seulement l’objet, mais aussi le processus d’interaction à travers lequel nous manipulons l’objet. En effet, le processus, programmé, peut être lui-même manipulé par le dispositif et, ainsi, évoluer dynamiquement. 

Par conséquent, c’est à travers la spatialisation qu’il faut considérer l’apport du numérique et interroger les possibilités qu’il ouvre. La raison graphique n’est pas un cas particulier, mais le principe même d’une phénoménologie à travers laquelle le numérique s’incarne et se spatialise pour offrir et ouvrir un espace d’interaction. 

Les jeux vidéo sont par exemple particulièrement féconds pour une phénoménologie du numérique, montrant comment la dynamique du jeu est elle-même grammatisée dans le programme et déploie à travers ses dispositifs une mise en espace de l’interaction dynamique et corporelle. Ainsi le geste devient-il un moyen de commande et de programmation. L’action corporelle, le comportement, s’intègrent dans le dispositif calculatoire et matériellement réalisé. On voit alors la promesse du numérique se réaliser en incarnant au niveau de nos interactions corporelles une logique de calcul qui les spatialise.

ENTRE CALCUL ET MÉTAPHORE

Cette spatialisation se traduit par deux modalités essentielles du numérique : au niveau de sa matérialisation ou implémentation, le numérique propose un espace de calcul et de traitement, ouvrant à la manipulation tout ce que nous lui donnons à travers nos interactions ; au niveau des interfaces et de l’incarnation, une perspective représentée où sont traduits, schématisés, projetés les résultats des calculs.

On a donc deux dimensions : celle du calcul permettant d’approfondir les données dans leur consistance propre (analytique du numérique) ou de les synthétiser en propriétés globales (synthétique du numérique) ; celle de la métaphore qui traduit en dimensions perceptives les résultats calculés. Or, la sortie métaphorique du numérique en interfaces donnant à voir et à percevoir introduit une tension entre la rationalité du calcul et l’arbitraire de la métaphore. Le sophisme apparaît alors quand la rationalité du premier est projetée sur la seconde, et quand la productivité sémiotique de la seconde est attribuée au premier.

•    Les possibilités analytiques et synthétiques du calcul

Le numérique a révolutionné notre civilisation en permettant d’aborder tous les types de contenus et d’en donner une contrepartie calculable. Cela s’est traduit par deux innovations majeures :
-    la possibilité d’aborder le traitement des contenus selon les différents niveaux de leur traduction numérique. Ainsi, les vidéos peuvent se traiter au niveau des pixels qui les composent, des informations lumineuses qui les composent, des formes qui se manifestent, etc. ;

-    la possibilité de considérer dans un même traitement l’ensemble des contenus. C’est la fameuse révolution des corpus numériques, où il devient possible de dégager ou d’observer (selon l’humeur positiviste ou constructiviste, ou l’inverse) des phénomènes nouveaux affectant les contenus, ou des phénomènes globaux affectant non les contenus eux-mêmes, mais leur somme ou ensemble. En effet, la présence attestée statistiquement dans le corpus d’un phénomène permet de l’objectiver, la récurrence dans la masse donnant un sens objectif à la singularité observée sur un contenu individuel. De même, la masse peut se considérer comme un objet nouveau dont on détermine les propriétés.

La massification des contenus permise par la spatialisation des contenus en espace de calcul entraîne donc une extension des capacités analytiques et synthétiques de traitement des données. 

Ces possibilités ne sont pas à sous-estimer. La linguistique de corpus, la linguistique de la parole sont directement issues du numérique comme capacité de traduire en contenus manipulables des contenus soit dispersés (corpus), soit inobservables car non répétables (parole). Ces disciplines sont nouvelles car le numérique a introduit la possibilité de voir autrement ce qui restait sinon invisible et inobjectivable : on se souvient des condamnations définitives de Saussure de la parole comme objet de la linguistique. Sans le numérique, sa systématicité reste inabordable.

Mais, de même, ce que l’on appelle désormais les « humanités numériques » (terme français devant traduire le terme anglais « digital humanities », de manière insatisfaisante d’ailleurs, les « humanities » ne s’opposant pas aux sciences sociales comme le font nos humanités), les « web sciences », et de manière générale les « e-sciences » sont issues des nouvelles capacités de synthèse du numérique, permettant d’objectiver matériellement des totalités qui ne restaient jusqu’alors que des idéalités extrapolées par la raison, pour parler selon le lexique kantien.

•    Le danger sophistique

Mais ces nouvelles sciences doivent aborder la difficulté essentielle du numérique, à savoir l’arbitraire du calcul par rapport à ce sur quoi on l’applique. On apprend à l’école qu’il ne faut pas additionner des choux et des carottes. Mais pourquoi faut-il l’apprendre ? Précisément parce que, par définition, on peut le faire : l’arithmétique permet d’additionner les nombres 2 et 3, que ces derniers représentent des choux ou des carottes. Le problème n’est donc pas au niveau arithmétique, mais au niveau du sens que l’on donne à ce calcul  et de l’interprétation que l’on fait de ses résultats.

Or, le numérique est une fantastique machine à dé-sémantiser les données pour les rendre calculables, rendant fort délicate la réappropriation sémantique des résultats. En effet, le numérique est par définition constitué de symboles arbitraires formels et vides de sens, que l’on peut manipuler mécaniquement de manière aveugle. Les 0 et les 1 de notre codage binaire ne signifient rien. Des textes, sons, mesures, enregistrements que l’on effectue, on obtient des 0 et des 1 que l’on peut manipuler de manière totalement décorrélée du fait qu’il s’agisse de sons, vidéos, mesures, etc. Si bien que l’on peut tout faire à leur endroit, mais qu’on ne sait pas très bien ce qu’on leur fait ni ce que cela veut dire.

De manière générale, on s’en sort en adoptant un cadre théorique formalisé, où les traitements appartiennent à la même perspective théorique que ceux qui ont permis de numériser les contenus considérés : on part de signaux sonores que l’on enregistre, numérise et transforme en tant que signaux sonores. Autrement dit, on impose une continuité et une cohérence sémantique aux traitements pour permettre la réappropriation finale des résultats.

C’est plus délicat quand on abordera des domaines où un tel cadre théorique fait défaut. Par exemple, quand on manipule des documents pour les transformer à l’instar des applications de ré-éditorialisation (« repurposing »), on se donne la possibilité d’obtenir n’importe quoi à partir des contenus initiaux et on exploite comme telle cette possibilité   l’art médiatique, la musique électroacoustique reposent sur ce principe. Mais, ici, la création artistique assume et exploite la rupture sémantique et l’arbitraire du traitement par rapport à la nature des données, explorant ainsi les dimensions de la signifiance et de sa matérialité. 

Dans d’autres cas, on ne comprend pas davantage la continuité sémantique, mais sans assumer cette rupture pour aborder les résultats produits auxquels on prête une rationalité qu’ils n’ont pas. On constate cette situation dans la présentation des résultats des modèles que l’on a établis pour construire et interpréter les grandes bases de données, en particulier celles issues des mesures du Web. Trop souvent, les résultats proposés informent plus sur le modèle scientifique exploré que sur les données sur lesquelles on l’a appliqué, les hypothèses permettant de constituer les données, de les formater, de les réduire à du calculable par le modèle restant en général ignoré dans l’interprétation.

Les biais introduits pour pallier ces difficultés sont de deux natures : ils concernent, d’une part, les hypothèses et transformations effectuées pour rendre les données comparables et manipulables, comme lorsque les textes sont considérés comme des suites de caractères où la typographie, la mise en page, la segmentation en textes, sections, etc., sont oubliées, et, d’autre part, les hypothèses faites pour afficher et matérialiser à l’écran les résultats. À ce niveau, on montre de manière graphique des rapports entre les données qui peuvent suggérer des interprétations gratuites, le graphique suggérant des rapports inexistants au niveau du calcul. Par exemple, l’algorithme de placement peut faire des choix d’affichage où la proximité constatée entre deux données n’a aucune signification particulière quant à leur proximité sémantique, même si notre manière spontanée d’interpréter la proximité topologique à l’écran est bien la proximité sémantique. 

Dépasser ces biais nécessite à la fois une méthodologie et un apprentissage. Une méthodologie, car il convient de savoir faire la part entre la nature des données et leurs propriétés intrinsèques et ce qu’elles deviennent à travers les réductions qu’on leur applique pour les rendre homogènes, comparables et calculables selon les algorithmes élaborés. Un apprentissage, car il faudra bien se former à ces méthodes et les enseigner pour que les nouvelles méthodologies puissent rimer avec la déontologie qu’elles exigent. L’interdisciplinarité, tant invoquée mais si peu pratiquée, peut être une solution : en effet, un sémiologue sensible à la particularité des données pourra coopérer avec le statisticien qui les réduira à un formalisme de représentation idoine pour l’application de ses outils. Mais il faudra certainement pouvoir sensibiliser les futurs concepteurs d’outils formels à la singularité des données de même que ouvrir les spécialistes des données de contenu aux réductions formelles pour ne pas tomber, comme souvent dans une sidération devant l’efficacité du formel, mais pour en avoir une pratique raisonnée. Les sciences humaines et sociales, les sciences du vivant, connaissent ces débats épistémologiques et méthodologiques depuis longtemps, et les nouvelles sciences qu’on évoque ici ne font que rendre encore plus cruciales, utiles et urgentes ces discussions.

EN GUISE DE CONCLUSION

Le numérique se manifeste par une spatialisation des contenus qui se traduit à deux niveaux : l’espace de calcul où l’on retrouve des données anonymisées en 0 et 1 se prêtant à toutes sortes de calculs indépendamment de leur signification propre ; l’espace de présentation où l’on donne à percevoir ces données, le résultat de leur traitement à notre corps percevant.

Entre les deux, l’arbitraire de la représentation graphique vis-à-vis de la représentation calculée. Si on doit remarquer une productivité sémiotique propre à ce décalage, permettant une exploration heuristique des données pour découvrir ce que notre compréhension initiale de ces dernières ne nous laissait pas présager, on doit être vigilant à une sophistique où les attributs graphiques relèvent d’un arbitraire de présentation sans pouvoir prétendre à nous renseigner sur les données présentées. L’esthétique y trouve souvent son compte, la science moins. L’ingénieur-artiste sera certainement une figure présente de ces nouvelles sciences, mais l’épistémologie de ces dernières reste à construire, le dogmatisme scientiste qui souvent le précède nous conduisant à des impasses désormais bien visibles, le traitement des données annulant les propriétés qui en font leur pertinence et leur intérêt, les résultats n’étant alors que des artefacts de la modélisation effectuée.

La représentation des données à travers les métaphores et les interfaces exige une critique des représentations, où l’on apprenne mieux à distinguer ce qui relève de la représentation proprement dite et ce qui caractérise l’objet représenté. Notre confusion généralisée actuellement entre ces deux dimensions renoue avec des dimensions insoupçonnées de la mystique des nombres, où l’on voit des rapports arbitraires surgir des réalités observées, qui nous en apprennent en fait plus sur notre manière de représenter que sur ce que nous représentons. Faut-il en déduire que les sciences du Web, les « digital humanities »  doivent relever d’une critique kantienne expérimentale à assumer, portant sur notre ingénierie de l’expérience plutôt que sur les structures de notre raison pure ? Nous serions enclin à le penser. D’où le caractère encore plus passionnant de ces nouveaux champs du savoir.

Bruno Bachimont
, conseiller scientifique d’Ina Expert, enseignant-chercheur à l’UTC (Université de technologie de Compiègne)


Mise en ligne : janvier 2012

________________________________=

RÉFÉRENCES BIBLIOGRAPHIQUES


BACHIMONT (Bruno), « L'intelligence artificielle comme écriture dynamique : de la raison graphique à la raison computationnelle », in Au nom du sens. Autour de l’œuvre d’Umberto Eco, (pp. 290-319), Actes du colloque de Cerisy, sous la direction de Jean PETITOT et Paolo FABBRI, Paris, Grasset, 2000.

BACHIMONT (Bruno), Ingénierie des connaissances et des contenus : le numérique entre ontologies et documents, Paris, Hermès Sciences Publications, collection « Science informatique et SHS », 2007.

BACHIMONT (Bruno), “Formal Signs and Numerical Computation : Between Intuitionism and Formalism. Critique of Computational Reason”, in Instruments in Art and Science. On the Architectonics of Cultural Boundaries in the 17th Century, (pp. 362-382), sous la direction de Jan LAZARDZIG, Helmar SCHRAMM et Ludger SCHWARTE, Berlin, Walter de Gruyter Verlag, collection “Theatrum Scientiarum”, 2008.

BACHIMONT (Bruno), Le Sens de la technique : le numérique et le calcul, Paris, Encres Marines / Les Belles Lettres, collection « À présent », 2010.
CHAKRABARTI (Soumen), Mining the Web : Analysis of Hypertext and Semi Structured Data, San Francisco, Morgan Kaufman Publishers, 2002.

GOODY (Jack), La Raison graphique. La domestication de la pensée sauvage, Paris, Les Éditions de Minuit, coll. « Le sens commun »,1979.

LEVY (Pierre), Les Technologies de l'intelligence. L'avenir de la pensée à l'ère informatique, Paris, La Découverte, coll. « Sciences et Société »,1990.

STIEGLER (Bernard), La Technique et le Temps, tome I : La Faute d'Épiméthée, Paris, Galilée, 1994.

BERNERS-LEE (Tim), HALL (Wendy), HENDLER (James), SHADBOLT (Nigel), WEITZNER (Daniel J.), “Creating a science of the Web”, in revue Science, 
Volume 313, no. 5788, p