Translitteraties : le big bang de la lecture en ligne

Par Alan Liu, professeur d’anglais et de Médias, Arts & Technologies, Université de Californie, Santa Barbara

small

Alan Liu est professeur au Département d’anglais de l’Université de Californie, Santa Barbara, où il enseigne depuis 1988. Il est titulaire d’un Ph.D. de l’université de Stanford 1980 et il a enseigné au Département d’anglais et au Programme des British Studies de l’université de Yale de 1979 à 1987. Il est spécialisé dans la culture de l’information, les nouveaux médias, la théorie littéraire, les cultural studies, et l’art et la littérature britannique romantique. Il a publié Wordsworth: The Sense of History (Stanford Univ. Press, 1989), The Laws of Cool: Knowledge Work and the Culture of Information (Univ. of Chicago Press, 2004), et Local Transcendence: Essays on Postmodern Historicism and the Database (Univ. of Chicago Press, 2008). Ses projets sur le Web incluent : The Voice of the ShuttlePalinurus: The Academy and the Corporation, The Romantic Chronology (en co-édition avec Laura Mandell), et The Agrippa Files. Il a forgé la notion de “Translittératie” aux Ètats-Unis, et il dirige leTransliteracies Project de l’université de Californie, un groupe de recherche multi-campus sur les pratiques et les technologies de la lecture en ligne, et il est le fondateur du projet intitulé Transcriptions: Literary History and the Culture of Information
____________________________________

Nous assistons aujourd’hui à l’explosion de la lecture en ligne, sur tous les supports offerts par les nouvelles technologies. Cet univers en développement rapide induit des pratiques technologiques, sociales et culturelles. Les études déjà menées sur ces changements, comme le Transliteracies Project de l’Université de Californie, font percevoir l’ampleur et la diversité de ce phénomène. Pour l’appréhender, les chercheurs doivent donc envisager la totalité de ces multiples « reconfigurations de littératie » : médias, matérialités, expériences sensorielles, formations sociales, opérations cognitives, caractères formels, hiérarchie des valeurs de lecture. La recherche sur la littératie en ligne doit adapter ses méthodologies à cette multiplicité, tout en s’interrogeant sur l’utilité sociale de la création d’un champ unifié de technologies.
____________________________________


« La "lecture" s’est adaptée au multimédia, à la mise en réseau, à l’informatique mobile et à l’encodage de texte, même si, à l’inverse, les nouvelles technologies rappellent activement les anciennes habitudes de lecture. L’usage d’un navigateur, d’un moteur de recherche ou d’un blog infléchit subtilement la lecture ; de même, la familiarité avec les supports historiques de lecture – des "documents", des "pages" ou des "index" – façonne l’utilisation des supports nouveaux. Malgré cette adaptation croisée, nous comprenons mal le rapport entre anciennes et nouvelles façons de lire. [...] La lecture en ligne est un thème du projet Transliteracies, parce que c’est le terrain où les spécialistes des humanités, les chercheurs en sciences sociales et les informaticiens ont une égale contribution à apporter. », Transliteracies Project, 2005. 

Cette citation est tirée de la proposition originale de financement de Transliteracies Project, un groupe de recherche multi-campus de l’Université de Californie qui a fonctionné sous ma direction de 2005 à 2010, avec l’aide du département de recherche, de postdoctorants et de chercheurs invités issus de diverses institutions 1 . Transliteracies a exploré les pratiques technologiques, sociales et culturelles de la lecture en ligne. Ses groupes de travail sur l’histoire de la lecture, les nouvelles interfaces de lecture et l’informatique sociale ont entamé leurs recherches par une vaste enquête sur ces sujets qui s’est traduite par une quantité de rapports et d’articles désormais disponibles en ligne sur le site du projet Transliteracies Research Clearinghouse 2 . Enfin, Transliteracies a exploré un domaine de recherche particulièrement mûr pour l’innovation : l’usage des « réseaux sociaux » venant appuyer les méthodes de lectures traditionnelles par des pratiques de lecture Web 2.0. Ainsi, le projet a créé RoSE (Research-oriented Social Environment), un système expérimental visant à constituer des bibliographies comme un « réseau social » d’auteurs et de documents que les usagers peuvent réviser de façon interactive, comme s’ils étaient des « amis » des auteurs disparus 3 .

L’intérêt de Transliteracies Project (ainsi que de projets du même ordre, comme Transliteracy au Royaume-Uni et Inke (Implementing New Knowledge Environments) au Canada, est de révéler toute l’importance et la diversité du phénomène de la lecture en ligne 4 . L’étude de la lecture numérique en réseau montre avant toute chose qu’il nous faut percevoir la totalité des changements intervenus dans les technologies et les pratiques de lecture pour saisir le nouvel univers en développement de la littératie. Je choisis la métaphore de l’univers (plutôt que celles, plus conventionnelles, d’ « ère », d’ « âge » ou de « révolution ») pour en tirer une analogie propre à la cosmologie : celle du Big Bang. Nous assistons aujourd’hui à un Big Bang de la lecture en ligne dont les premiers stades ressemblent aux premiers instants de l’univers tels que les théorisent les physiciens actuels : une séquence explosive d’où émerge, de façon quasiment simultanée, une multiplicité de forces, de matérialités, de formes et de dimensions 5 . Comprendre les « translittératies » comme une « idée » générale exige un horizon cosmologique de perception, où l’intérêt porte moins sur les changements particuliers que sur la totalité des changements. Vue comme un tout, cette totalité peut devenir un thème de recherche en soi, dont les implications technologiques, politico-sociales et philosophiques n’apparaissent qu’à un certain niveau d’échelle.

Mais d’abord, je voudrais commenter certains changements spécifiques à la lecture – ou reconfigurations de littératie, comme je les appellerai – suscités par les nouvelles technologies, chacun pouvant faire l’objet d’une recherche distincte. Le terme de « reconfiguration » implique que le changement essentiel survient non pas au niveau des nouveautés discrètes, mais bien des changements structurels dans un ensemble de technologies et de pratiques nouvelles remixées avec des pratiques anciennes.

RECONFIGURATION DES MÉDIAS

La lecture en ligne, à l’évidence, résulte d’une reconfiguration des médias de littératie. Mais cette affirmation seule nous en dit peu, puisque le concept de médias fonctionne actuellement comme une sorte de boîte noire désignant « quelque chose » en train de se passer dans des concepts sous-jacents tels que technologie, communication, information et langage, pour lesquels nous manquons d’une explication adéquate. 

C’est pourquoi il est actuellement impossible de prévoir si la lecture en ligne est perçue dans la littérature de recherche comme une « technologie de média », une « technologie de l’information », « un média d’information », une « technologie d’information et de communication » (une TIC, comme l’appellent les sciences sociales), etc. Autrefois, le livre codex ramassait les idées de technologie, de communication, d’information et de langage en une configuration stable – de sorte que l’on pouvait dire le simple mot « imprimerie » sans avoir besoin de spécifier « technologie d’impression servant à communiquer de l’information et du langage ». Mais les technologies actuelles ont déstabilisé cette configuration. 

Envelopper de l’adjectif « média » toutes les nouveautés survenues dans les éléments sous-jacents crée l’illusion d’une nouvelle « convergence » unifiée 6. C’est comme si les médias étaient une interface de programmation API (Application Programming Interface) nous permettant de gérer les entrées et les sorties du nouveau système sans avoir à programmer les circuits à l’intérieur de la boîte noire.

RECONFIGURATION DES MATÉRIALITÉS

La discussion actuelle sur la littératie des nouveaux médias porte notamment sur les nouvelles technologies matérielles – livres numériques, tablettes, téléphones mobiles, projecteurs miniatures, écrans flexibles et services informatiques « en nuage » (dont la base matérielle se trouve dans de grands parcs de serveurs). Le Transliteracies Project a également étudié des matérialités de littératie moins souvent discutées, comme des lecteurs pour malvoyants, des déroulants numériques, des tables basses numériques, des affichages de projection rétinienne, des systèmes de projection interactifs « FogScreen », etc., (sans compter des projets ou installations d’art numérique qui inventent d’étonnantes nouvelles matérialités de littératie, comme rouler à bicyclette pour naviguer dans le texte) 7 . Il serait vain toutefois de rester fixés sur des dispositifs matériels spécifiques, car en réalité, c’est « l’idée » de la matérialité que reconfigure le nouveau média.

Cela survient en deux étapes. D’abord vient la compréhension que le « virtuel », y compris la compétence numérique, est de fait purement matériel. L’un des développements récents des études de nouveaux médias est ainsi une approche historique-matérielle du même ordre que l’approche historique actuelle dans le domaine du livre. De même que des historiens du livre comme Peter Stallybrass ou Roger Chartier ont réalisé une étude innovante des surfaces matérielles de l’écriture à la Renaissance (notamment sur les calepins ou les tablettes effaçables), ainsi Matthew G. Kirschenbaum – spécialiste à l’origine des études textuelles et numériques – explore la matérialité des « mécanismes » d’inscription numérique 8 . Jean-François Blanchette souligne de son côté la matérialité du numérique dans des domaines qui dépassent celui de la littératie – comme la cryptographie et les logiciels modulaires modernes, où les « compromis » entre efficacité et abstraction trahissent la fatale pesanteur de la matérialité 9 . 
L’industrie informatique, par ailleurs, est de plus en plus consciente des contraintes matérielles pesant sur ce qui semblait autrefois l’infinie liberté du numérique. Non seulement la « loi de Moore » (de l’accélération constante de la puissance de calcul) va à l’encontre des limites fondamentales de la physique à l’échelle nano et atomique des transistors actuels, mais à l’échelle macro, l’accélération numérique touche aux limites de l’écosystème terrestre. Tenant compte de l’avertissement déjà ancien d’organisations militantes comme la Silicon Valley Toxics Coalition, l’industrie a développé des initiatives « vertes » et est devenue sensible à son empreinte carbone 10.

En second lieu, vient la compréhension que, si le virtuel est matériel, il modifie aussi notre compréhension et notre expérience de la matérialité. Jusqu’à l’ère des ordinateurs à serveur central, la vapeur, le gaz et l’électricité étaient associés aux effets de masse et d’énergie ; les dispositifs numériques d’aujourd’hui sont de plus en plus associés aux effets de réseau et de système, témoignant ainsi du fait qu’actuellement, notre idée de la matérialité devient une idée de la « systématicité ». Pendant des décennies, les théoriciens post-marxistes ont bien soutenu, en parallèle avec les théoriciens de la complexité, que les idées à l’ancienne du matérialisme étaient dépassées par de nouvelles géographies de compression de l’espace-temps, par des dispositifs « mille plateaux », des systèmes chaotiques, etc. 11

La matière, aujourd’hui, est un substrat différentiel (comme un semi-conducteur) sur lequel, à certains points nodaux, des intensités ou nœuds matériels spécifiques apparaissent comme un signal de bruit pour marquer – et, en un sens, pour fabriquer – la structure de la « véritable » matière, qui est un système de configurations, d’espaces, de timings, de canaux et de niveaux de débit. Par exemple, il est impossible de discuter des iPod, iPhone ou iPad d’Apple sans prendre en compte l’ensemble du système iTunes et de ses applications, qui multiplie les fonctionnalités de ces appareils. Dans le domaine de la littératie numérique, le Kindle 12 d’Amazon est lié de même à la totalité du service « en nuage » (cloud) d’Amazon.

RECONFIGURATION SENSORIELLE

L’industrie informatique continue à explorer à grande vitesse les modalités tactiles, visuelles et audio de la littératie numérique : elle invente des claviers en couleur sur les lecteurs numériques, tente de nouvelles combinaisons de multimédias dans les journaux et revues en ligne, etc. Au point, dans un proche avenir, de rendre obsolète la plainte classique des amateurs de livres qu’« on ne peut pas emporter un ordinateur au lit, dans son bain ou à la plage ». Même l’odeur des livres perdra son caractère unique, un artiste et un parfumeur ayant collaboré récemment à la création d’un parfum à l’odeur de livre ancien, Paper Passion, qui pourrait s’intégrer aux futurs livres numériques pour les lecteurs désirant une ambiance rétro 13.

Tous ces changements concernent ce que l’on peut appeler les attaches sensorielles de la littératie ou, pour prendre un terme connotant une complexité plus ouverte, la multiplicité sensorielle de la littératie. Je parle ici de la cohérence de l’expérience sensorielle de lecture comme un tout opérationnel et phénoménologique. Ainsi, tous les parents se rappellent avoir sursauté quand leur enfant a appris pour la première fois à tourner les pages d’un livre, froissant et tordant chaque page pour découvrir exactement, par un processus d’essai-erreur (et d’imitation), comment sont assemblés les tissus et les jointures étonnamment complexes du manuscrit codex. La littératie fonctionnelle commence avant même la maîtrise du langage écrit, quand on intériorise d’abord le livre comme un champ perceptif unifié, où le simple fait de voir, de toucher et de sentir le manuscrit codex convoque des programmes corporels/mentaux pour le faire « marcher » (comme l’a dit l’artiste et théoricienne du livre Johanna Drucker en termes fonctionnalistes) 14 .

La lecture en ligne est en train de reconfigurer cette multiplicité sensorielle de la littératie. Ainsi, au moment où j’écris, je suis assis dans un pub avec un livre codex ouvert à côté d’un ordinateur portable. J’ai aussi avec moi mon iPad, qui me sert à consulter des livres en ligne (connectés aux serveurs « en nuage » Google et Amazon), ainsi que des articles sous format PDF (connectés à mes autres appareils informatiques par le service de stockage en ligne Dropbox). C’est là un cocon reconfiguré d’expérience phénoménologique remixant des compétences de lecture anciennes et nouvelles. Reste à savoir si ces nouvelles attaches sensorielles en ligne feront une différence pour la lecture – et à quel niveau.

RECONFIGURATION SOCIALE

Il n’y a qu’un pas de la reconfiguration sensorielle de la lecture en ligne à la reconfiguration sociale de cette lecture. Reprenons mon exemple d’écriture dans un pub, entouré de gens et dans une ambiance de connectivité en réseau. Qu’il s’agisse de journaux, de livres, d’ordinateurs portables, de tablettes, de liseuses ou de smartphones, l’environnement sensoriel de la lecture est en effet inséparable de l’environnement social. La littératie n’est pas une expérience simplement enfermée en elle-même dans des formes solitaires ; elle est aussi étroitement modelée par des habitats spatiaux, architecturaux et sociaux. Considérons par exemple la période des Lumières au XIXe siècle, quand la correspondance manuscrite et le livre imprimé étaient à leur apogée. C’est à cette période que la littératie a acquis son caractère moderne en tant qu’acte à la fois individuel et social : on jouit d’une lettre ou d’un roman dans la solitude, mais on veut aussi bavarder autour d’un journal dans un café. 

L’identité de l’individu démocratique moderne est née d’une dialectique de retrait d’une immersion dans la socialité en conjonction avec des habitudes de littératie (comme l’a théorisé Jürgen Habermas dans sa notion de « sphère publique ») 15 . Considérons à présent notre Web 2.0 actuel, caractérisé par une socialité de littératie équivalente, mais reconfigurée. Les cybercitoyens d’aujourd’hui sont dialectiquement déchirés entre le désir de protéger leur monde privé (un individualisme voyeuriste permettant d’être en public tout en se retirant de la sphère publique) et celui de jouir de l’informatique sociale (qui revient à discuter autour d’un journal dans un café, mais sur un mode disséminé et asynchrone, à travers des blogs, des wikis, Facebook, Twitter, etc.). 

Explorer la reconfiguration de la littératie sociale à l’ère du numérique a donc été l’une des cibles de recherche de Transliteracies Project.

RECONFIGURATION COGNITIVE

Il n’y a aussi qu’un pas de l’étude de la reconfiguration sensorielle de la lecture en ligne à l’hypothèse que cette lecture conduit à une reconfiguration cognitive. Au fond, le rapport entre « percept » (objet de la perception) et « concept » en sciences cognitives est assez étroit (Douglas Hofstadter, chercheur bien connu en science cognitive et en intelligence artificielle construit ainsi des modèles de cognition fondés sur des processus sous-jacents de perception) 16 . La science cognitive et l’intelligence artificielle sont fascinées par le rapport entre événements cognitifs bas et hauts – par exemple entre l’activité neuronale d’une part, et les idées ou les sentiments de l’autre ; ou entre des automates cellulaires et des systèmes émergents plus complexes. Le balayage visuel dit « en F » qu’effectuent les lecteurs en ligne quand ils naviguent sur des pages Web est ainsi une pratique de littératie mettant en œuvre des gestes mentaux tels que l’hyper-attention de balayage ou d’écrémage, théorisés par N. Katherine Hayles dans ses articles « Hyper and Deep Attention » et « How We Read: Close, Hyper, Machine » 17 .

Au moins en ce qui concerne la pensée humaine individuelle (en laissant de côté la discussion encore largement métaphorique de la pensée sociale du Web 2.0 avec son « intelligence collective », sa « pensée en essaims », etc.), la recherche cognitive et en neurosciences sur la compétence numérique a explosé ces dernières années, non seulement dans les sciences, mais dans les humanités. Des publications récentes comme The Shallows: What the Internet is Doing to Our Brain de Nicholas Carr, et les articles de Katherine Hayles déjà mentionnés se font l’écho de nombreuses recherches sur le sujet18 . Les communautés de recherche interdisciplinaires, comme la Society for Text and Discourse, insistent sur les approches neurocognitives de l’imprimerie et de la littératie numérique 19 . Le Transliteracies Project a inclus cette approche dans son enquête en produisant des rapports sur des projets de logiciels, comme l’outil en ligne Coh-Metrix, pour mesurer la cohérence cognitive de textes en prose, en publiant l’article de Monica Bulger, « Beyond Search : A Preliminary Skill Set for Online Literacy » (qui discute notamment les approches des sciences cognitives à la lecture des nouveaux médias) et en accueillant des intervenants comme Nicholas Dames et Andrew Elfenbein, qui adoptent la même approche pour la littérature 20 .

Cette recherche neurocognitive sur la lecture en ligne nous permet de poser les questions suivantes. L’Internet nous contraint-il à une lecture « superficielle » ou « hyper » ? Ou encore, de nouvelles nuances de lecture numérique vont-elles évoluer pour montrer les limites d’une métaphore comme ce « superficiel » ? Notons que les métaphores couramment utilisées pour débattre de l’expérience mentale de la lecture numérique – « superficiel vs profond », « extensif vs intensif », « hypertextuel vs linéaire », « concentré vs distrait », ou « de près vs de loin » – sont souvent des termes sensoriels hérités des anciens âges de la lecture. Dans le passé, « superficiel vs profond » a pu être plus porteur de sens, parce que la littératie se jouait sur des pages de texte suggérant une phénoménologie de surface (ce que Platon appelait des « caractères étrangers » dans sa critique de l’invention de l’écriture) opposée à la profondeur (qu’il appelait la véritable « mémoire » et « sagesse ») 21 . Mais l’opposition binaire « superficiel vs profond » semble bien dépassée quand les écrans de lecture en ligne sont plats d’une autre manière ; ils sont de façon complexe à la fois superficiels et profonds, parce qu’ils sont en interaction avec des « piles » (stacks) de logiciels et des « nuages » qui n’ont ni fond ni plafond et renforcent la lecture humaine avec des machines intelligentes de littératie pour lesquelles nous manquons de termes descriptifs adéquats 22 . Par exemple, pourrions-nous dire qu’un écran de lecture relié à une base de données ou à Internet est profondément superficiel ? Ou qu’il est d’une superficialité totale, complexe et émergente ?

RECONFIGURATION DE LA FORME (ET DE L’ÉCHELLE)

La forme est un nouvel horizon dans la recherche sur la littératie en ligne. Une comparaison avec l’imprimerie s’impose une fois encore. Une fois la plateforme des médias imprimés standardisée dans ses caractéristiques médiales, matérielles, sensorielles, sociales et cognitives – de sorte que les livres ou les pages sortaient dans certaines tailles calibrées, circulaient en tranches sociales ou économiques connues (par exemple, publications spécialisées contre marché de masse) et posaient des conventions particulières d’usage sensoriel, social et mental – la discussion de la littérature imprimée a pu se poursuivre en termes de « forme ». Ainsi, la critique littéraire à partir des Lumières a fait un art de la critique formelle, des genres à la syntaxe ou au vocabulaire stylistique. Ce fut le cas surtout dans la première moitié du XXe siècle, quand les formalistes russes étudièrent les formes génériques et stylistiques avec une précision technique (« systèmes de genres », « dispositifs », « motifs », « rythme ») et, en parallèle avec la Nouvelle Critique américaine, élevèrent la conscience de la forme à un niveau philosophique comme la « differentia specifica », ou caractère distinctif essentiel, du langage littéraire 23 .

Dans le domaine de la littératie en ligne, en revanche, les plateformes sont encore si labiles que la pensée formelle reste concentrée sur les protocoles techniques, les modèles et les gabarits sous-jacents. Considérons par exemple un « système de gestion des contenus » open-source comme WordPress, qui est la base de nombreux sites Web reliés à des bases de données. Ces systèmes évoluent si rapidement par de multiples mises à jour que leurs « thèmes » formels (fichiers de modèles et feuilles de style CSS, augmentés de plug-ins) exigent souvent de subtils ajustements pour continuer à fonctionner 24 . Des sites WordPress ambitieusement customisés exigent des « hacks » encore plus puissants (voire des dossiers du système central de WordPress). La pensée formelle la plus prudente tourne donc encore autour de la plateforme, de sorte que la véritable discussion formelle reste rudimentaire ou, au mieux, descriptive. Sur le genre, par exemple, nous nous bornons à dire : ceci est un « Listserv », un « blog », un « tweet », un « wiki » ou un « site de réseau social ». Et sur les micro-formes numériques qui sont l’équivalent actuel des « topoi » (lieux communs) rhétoriques, nous disons de même : ceci est une bannière, un Sidebar, un post, un commentaire ou une balise. La critique formelle avancée n’apparaît que dans les domaines spécialisés des HCI (interface homme-machine), dans la conception graphique ou dans la recherche en ergonomie (par exemple, le travail de Jakob Nielsen) 25 . 

Le problème, c’est qu’il nous manque un cadre commun dans lequel aborder des questions formelles de ce type : quelle différence cela fait-il que nous choisissions la forme d’un blog, d’un tweet ou d’une revue en ligne pour narrer des événements émouvants, comiques ou tragiques ? Existe-t-il des différences formelles ou stylistiques entre les tweets sur des événements publics et privés ? Quels effets formels de type haiku ou graffiti suscite la limite de 140 caractères d’un tweet (et seraient-ils différents si chacun utilisait 247 caractères, le maximum secret autorisé au terminal de Twitter)26  ?

Le fait que mes questions formelles aboutissent à une question d’échelle (140 vs 247 caractères) est emblématique à cet égard. L’absence d’un cadre adéquat d’analyse formelle nous contraint souvent à traiter de subtils caractères formels comme s’ils n’étaient que de grossiers effets d’échelle. Ainsi, on a vu les débats se multiplier récemment sur les propriétés des formes en ligne « brèves » (posts et tweets) vs les formes « longues ». C’est comme si nous disions que la seule différence essentielle entre une épopée et un poème lyrique, entre un roman et une lettre, était leur longueur.

Mais ce glissement de l’analyse formelle à la mesure d’échelle révèle une chose fondamentale sur la nature de la forme en ligne. Pour tenter d’expliquer pourquoi, je propose la formule suivante : modularité + transmissibilité + indexabilité  = forme. Là encore, l’histoire du livre (et en général de l’écriture) est un bon outil de pensée. En Occident, l’écriture a commencé en l’absence de toute forme. La narration étant conçue pour être récitée par des locuteurs (qui lui donnaient sa forme par des pauses et des accentuations), l’écriture était un flux indifférencié de caractères alphabétiques sans espaces ni ponctuation. Peu à peu, la forme est apparue par l’invention des espaces, de la ponctuation, des capitales en tête de phrase, les paragraphes, les titres de chapitres, etc. (une animation flash de l’histoire du livre, produite par Transliteracies, simule ce processus) 27  . La leçon, c’est que l’écriture a évolué pour répondre aux demandes combinées de modularité (des unités standard comme les mots, les phrases, paragraphes et chapitres), de transmissibilité (passer d’une communication à une autre de façon modulaire, afin de distinguer une phrase, un paragraphe, une page ou un livre précis), et d’indexabilité (le répertoire des dispositifs de métadonnées et des dispositifs de gestion comme les titres de chapitres, les tables des matières, les numéros de pages ou les index qui ont fait des livres les premiers médias d’accès aléatoire avant même l’informatique). C’est tout cela qu’a produit la forme. Les structures modulaires, transmissibles et indexables sont la forme. 

Cette compréhension de la forme a d’importantes implications pour l’étude des formes en ligne. Par exemple, cela met en question les principes fondamentaux des protocoles d’encodage de texte comme la TEI (Text Encoding Inititative), qui permet d’encoder des œuvres imprimées en vue de leur manipulation sur des médias numériques (de sorte qu’une strophe d’un poème peut être notée numériquement <lg> pour « groupe de lignes »). Appliquée en XML, la TEI pratique la philosophie générale de l’encodage sémantique moderne : séparer la forme du contenu en deux composants, la structure logique et la structure de présentation (ou « formatage ») 28 . Il s’agit de permettre à un éditeur, par exemple, de marquer un ensemble de lignes du descripteur logique <lg>, en laissant l’ordinateur de l’usager décider quelle ligne et quelles marges utiliser pour présenter une strophe. Mais dans ce cas, la distinction entre structure logique et structure de présentation ne peut pas être juste tout le long, puisque l’une comme l’autre s’appuient sur les principes de modularité, de transmissibilité et d’indexabilité pour créer le plein sens de la forme. C’est particulièrement vrai à l’ère de la conception moderne graphique et typographique (après le nouveau Style Typographique International au XXe siècle), quand les concepteurs exposent dans leur style même de présentation les principes de modularité, de transmissibilité et d’indexabilité à l’aide d’éléments de design comme des grilles modulaires de mise en page, des polices sans empattement devenues iconiques pour leur efficacité en communication, des blancs et une asymétrie pour l’insistance indexicale 29 . 

En clair, au niveau le plus profond, les structures logiques et de présentation sont partie prenante de l’expérience de la forme, et toute tentative de les séparer est arbitraire. En pratique, donc, les créateurs de médias numériques ont du mal à se montrer puristes sur la séparation des métadonnées et des structures de formatage. Il semble toujours que quelque chose – imposé par une plateforme, un programme, un plug-in ou une conception particulière – nous contraigne à adopter d’autres approches qui transgressent la division entre logique et présentation (par exemple, le code de formatage « en ligne » mêlé avec le code source pour une page Web, quand tout ce formatage est censé être régulé par une feuille de style CSS dans un fichier autonome).

Nous voyons maintenant pourquoi les questions formelles sont commutables avec des questions d’échelle. C’est vrai pour tous les médias, mais surtout pour les médias informatiques où la vitesse, l’efficacité et la flexibilité dépendent de négociations entre une forme reconnaissable (un document) et une échelle (un paquet de données). Si la forme est convertible à l’échelle, c’est que la modularité, la transmissibilité et l’indexabilité portent toutes à la fois sur la forme et la dimension de l’acte de communication. Ainsi, des modules doivent être définis par des métadonnées indexicales dans un équilibre entre intégrité de la communication (par ex. un document entier) et efficacité et flexibilité de la transmission (optimisée au niveau bit). Il doit donc être possible de décomposer des expériences récentes sur l’échelle de la lecture en ligne en termes élémentaires de modularité, de transmissibilité et d’indexabilité, nous permettant de comprendre en quoi ces expériences d’échelle sont un substitut de l’expérimentation formelle. Considérons par exemple la tendance actuelle aux livres en ligne très courts, de type tract (Amazon Kindle Singles, Apple iBooks Quick Reads, TED Books, Atavist publications), une tendance dialectiquement contrebalancée par une lecture « corpora-scale » (« lecture de loin » et « culturomics », popularisées par exemple par l’application Google Books Ngram Viewer) 30 . La modularité, la transmissibilité et l’indexabilité remodèlent la littératie en ligne en une sorte de « playlist » de chansons dans un énorme iTunes de culture numérique. La menace que cela constitue pour l’« album » (dans ce cas, le livre) est une question tant d’échelle que de forme. 

RECONFIGURATION DE LA VALEUR DE LECTURE

Il existe bien d’autres reconfigurations de littératie inspirées par les médias en ligne. Mais je terminerai sur celle-ci, peut-être la plus importante de toutes : la reconfiguration de la valeur de lecture. Considérons les diverses étapes de l‘histoire des médias, où différentes valeurs de lecture coexistaient en collaboration et en concurrence. La première Bible codex acquit ainsi une très grande valeur pour des raisons religieuses, sociales et personnelles. Mais les basses classes et les classes moyennes qui furent le premier milieu de la foi chrétienne appréciaient aussi les petits calepins codex qui leur servaient pour la vie courante et les comptes. En clair, le manuscrit codex prenait le pas sur l’ancienne autorité du rouleau de parchemin romain et juif, par une heureuse collaboration de différents types de valeur de littératie 31 . Ensuite, les sermons imprimés, les ballades, les journaux, les romans, etc., se trouvèrent à leur tour dans des états de convergence ou de divergence variés, selon une dynamique complexe de valeurs sociales, économiques, esthétiques ou de divertissement. Chaque régime passé de littératie n’a jamais pleinement stabilisé ses valeurs, notamment parce que les « nouveaux médias », comme les ballades à la Renaissance, la télévision au XXe siècle, les blogs au XXIe, n’ont cessé de défier les valeurs de littératie établies par ce qui semblait tout d’abord des dévaluations « bas de gamme », « populaires » ou « partisanes » de la littératie. Pourtant, avec le temps, chaque âge a établi une hiérarchie de valeurs de littératie, ou du moins une hiérarchie porteuse de débats sur ce qui comptait le plus. Ainsi, les romans étaient autrefois jugés des lectures « bas de gamme », alors que nous nous lamentons aujourd’hui sur la perte des grands classiques au bénéfice des nouveaux médias populaires.

Aujourd’hui, la littératie en ligne altère une fois de plus la hiérarchie des valeurs de lecture, et nous ignorons quelle sera la plus haute valeur dans la société en ligne : l’information, l’opinion, le divertissement, le savoir ou l’expérience. Comme autrefois, quand des discours démotiques défiaient les discours établis, le changement se fait dans l’écart chaotique entre le savoir d’expert (les discours produits ou filtrés par les universitaires, les professionnels, les journalistes, les agences gouvernementales, etc.), et le nouveau savoir public en réseau (Wikipedia, la blogosphère, les médias viraux). Non seulement il nous manque une hiérarchie d’ensemble pour réguler cet écart, mais les outils de négociation entre savoir d’expert et savoir public en réseau – technologies, pratiques et protocoles institutionnels pour encourager les chercheurs à écrire pour Wikipedia, par exemple, ou pour l’usage de Wikipedia en classe – n’ont pas été inventés.

Voici quelques questions cruciales pour l’avenir de la littératie en ligne. Qu’apprécions-nous de la lecture en ligne ? Qui est le « nous » (expert, employeur, régulateur, consommateur, travailleur, militant), qui est derrière cette question ? Et comment la lecture en ligne va-t-elle renforcer ou saper la valeur de la lecture en général ?

RECHERCHE, MULTIPLICITÉ DES CHANGEMENTS ET THÉORIE DU TOUT

Je conclurai par un retour à une perspective cosmologique sur la multiplicité et la rapidité de toutes ces reconfigurations, qui représente ce que j’ai appelé le Big Bang de la littératie en ligne. Voir la totalité de ces changements suscite un problème de recherche en soi (le problème propre aux « translittératies »), avec d’importantes implications sur notre façon de développer les technologies, les politiques sociales et même la philosophie (notamment l’épistémologie) de la lecture en ligne.
Pour comprendre pourquoi, je veux à présent révéler la raison de cette analogie entre la lecture en ligne et le Big Bang, qui pourrait sembler une simple métaphore. Les physiciens contemporains pensent le Big Bang (à la fois l’origine et l’avenir de l’univers) dans des cadres nouveaux, comme la théorie des cordes, la théorie des branes et la théorie des univers multiples 32. Tous ces cadres compensent le fait que, si les modèles macro-cosmologiques et micro-physiques de l’univers (comme le « modèle standard » des particules et des forces) se sont révélés précisément descriptifs, ils n’expliquent pas en une image cohérente pourquoi l’univers est comme il est (pourquoi ces types de particules et de forces liées par ces constantes physiques arbitraires). 

Le plus grand obstacle reste celui qu’Einstein a passé ses dernières années à tenter de résoudre : comment réconcilier l’univers à l’échelle macro de la gravité avec l’univers à l’échelle micro de la mécanique quantique. Les deux univers semblaient théoriquement incommensurables l’un à l’autre, jusqu’à atteindre une absurdité mathématique. Les récents cadres physiques tentent cette réconciliation, en produisant des concepts comme la « supersymétrie » (unité primordiale de matière et de forces précédant la différenciation de types séparés de particules et des diverses forces nucléaires fortes, nucléaires faibles, électromagnétiques et gravitationnelles). Ils avancent donc la question métaphysique essentielle de la physique contemporaine : existe-t-il une Théorie du tout ? En d’autres termes, l’univers est-il fondamentalement une unité qui peut être expliquée par une théorie unique applicable au macro et au micro ?

La même question s’applique à la recherche sur la lecture en ligne – avec une différence conséquente. Comme les physiciens s’interrogeant sur la Théorie du tout, nous pouvons demander : existe-t-il « un » phénomène de littératie en ligne dont les médias, les matérialités, les expériences sensorielles, les formations sociales, les opérations cognitives et les caractères formels convergent pour créer un Big Bang de la littératie ? La différence, c’est que si la physique théorique vise l’élégance mathématique de l’unité (laissant à la physique expérimentale le désordre d’un univers fracturé), les méthodologies de la recherche sur la littératie en ligne – matérialisme culturel, ethnographie culturelle, études des nouveaux médias, critique en réseau, textualité poststructuraliste et théorie hypertexte – tendent au contraire à la « désunité » comme principe (sous les noms d’altérité, différence, diversité, décentralisation, démocratie, etc.). Du point de vue d’un monde culturel postmoderne, il est possible que l’explication la plus satisfaisante des multiples reconfigurations de la littératie, au lieu d’être la théorie d’une ère singulière de la lecture en ligne, soit plutôt la théorie des multiplicités émancipatrices de celle-ci.

Enfin, j’estime que nous devons mieux comprendre les prémisses sociales, culturelles, économiques et philosophiques de notre propre recherche et développement dans le domaine de la littératie en ligne. Sinon, nous ne saurons pas si la société doit, ou ne doit pas, bâtir un champ unifié de technologies. Nous ne saurons pas s’il devrait y avoir une politique sociale ou un cadre gouvernemental unique pour réguler ces technologies. Et nous ne saurons pas si la valeur de la littératie en ligne tient dans « le » savoir ou dans « les » savoirs. 

Alan Liu
, professeur d’anglais et de Médias, Arts & Technologies, University of California, Santa Barbara


Traduction : Françoise Bouillot


Mise en ligne : janvier 2012

____________________________________

1.   Transliteracies Research Project : “Research in the Technological, Social, and Cultural Practices of Online Reading”, University of California. La citation de l’exergue est tirée de la page 2 du projet de financement du projet, « Transliteracies MRG Proposal », 2 mai 2005, 
  
2. Voir le site Transliteracies Project Research Clearinghouse.
  
3. RoSE (Research-oriented Social Environment), page d’accueil, Transliteracies Project, Université de Californie, 10 décembre 2009. Le National Endowment for the Humanities a financé de nouveaux développements de RoSE en 2010-11 par une bourse Digital Humanities Start-up.

4. Voir les pages d’accueil du Transliteracy Research Group, De Montfort University, RU, http://nlabnetworks.typepad.com/transliteracy/ ; et INKE: Implementing New Knowledge Environments . Pour le rapport entre le Transliteracy Research Group en Angleterre et Transliteracies Project, voir l’article de Wikipedia sur « Transliteracy », 29 juillet 2011,
  
5. Brian Greene, L’Univers élégant, Paris, Laffont, 2000. Voir notamment la séquence d’événements à l’origine de l’univers.

6.  Pour une étude de l’usage du terme de « convergence » dans la recherche sur les nouveaux médias pour désigner une certaine combinaison d’« alignement, interfonctionnalité, optimisation, recombinaison et correspondance », voir Jan Herzhoff, « The ICT Convergence Discourse in the Information Systems Literature: A Second order Observation », article présenté à l’European Conference on Information Systems 2009, Vérone, Italie, ECIS 2009 Proceedings, 8 juin 2009, .

7. Voir le Transliteracies Research Clearinghouse. Sur la technologie FogScreen, ou écran de brouillard, qui utilise une fine couche de vapeur comme surface de projection, voir Marc Breisinger et James K. Ford, rapport de recherche sur « FogScreen », Transliteracies Project, 12 mars 2006,  .  Sur l’installation intitulée « Legible City », où un lecteur se tient sur une bicyclette réelle pour naviguer dans une architecture virtuelle composée de texte, voir Lisa Swanstrom, rapport de recherche sur « The Legible City », Transliteracies Project, 12 mars 2006.
  
8. Peter Stallybrass, Roger Chartier, John Franklin Mowery et Heather Wolfe, “Hamlet's Tables and the Technologies of Writing in Renaissance England”, Shakespeare Quarterly, 55:4, 2004, pp. 379 419.  Matthew G. Kirschenbaum, Mechanisms: New Media and the Forensic Imagination, Cambridge, MA, MIT Press, 2008.
  
9. Jean François Blanchette, “Infrastructural Thinking as Core Computing Skill”, article présenté à la conférence Digital Humanities 2011, Stanford University, 21 juin 2011 ; “A Material History of Bits”, Journal of the American Society for Information Science and Technology 62.6, 2011, pp. 1042-1057, Wiley Online Library, 20 avril 2011, abstract.

10. Sur la Silicon Valley Toxics Coalition (SVTC), voir la page d’accueil, et ma discussion in Alan Liu, The Laws of Cool: Knowledge Work and the Culture of Information, Chicago, University of Chicago Press, 2004, pp. 267-68. Sur la sensibilité de l’industrie informatique à son empreinte carbone, voir Jonathan Fahey, "Google Reveals Energy Use to Show Search is Green," Associated Press, 8 septembre 2011. Dans son article "Infrastructural Thinking as Core Computing Skill" (cité plus haut), Blanchette discute l’impact environnemental des parcs de serveurs de Google pour illustrer sa thèse sur la matérialité non reconnue de l’informatique « en nuage ».
  
11. Voir, par exemple, David Harvey, The Condition of Postmodernity: An Enquiry into the Origins of Cultural Change, Oxford, Basil Blackwell, 1989 ; Edward W. Soja, Postmodern Geographies: The Reassertion of Space in Critical Social Theory, Londres, Verso, 1989; Gilles Deleuze et Félix Guattari, Mille plateaux. Capitalisme et schizophrénie, Ed de Minuit, 1966 ; Grégoire Nicolis et Ilya Prigogine, Exploring Complexity : An Introduction, New York, W. H. Freeman, 1989.

12. Liseuse numérique.
  
13. Je veux parler du parfum créé par Karl Lagerfeld (également propriétaire d’une librairie) en collaboration avec le parfumeur Geza Schön.  Voir Cora, “The Smell of Books Inspires Karl Lagerfeld" Luxedb, 27 avril 2011,  ; Michelle Karas, "That New Book Smell Soon Available in Perfume Form”, The Mercury (Journal Register, Pennsylvania): “Balancing the Books” blog, 22 avril 2011 ; et kpriss, “Karl Lagerfeld’s New Perfume Paper Passion To Smell Like Books”, Stylefrizz, 19 avril 2011 .  Il existe aussi un parfum plus ancien appelé In the Library (voir kpriss, "How About A Library Scented Perfume?", Stylefrizz, 20 septembre 2010,  .  L’idée d’appliquer de telles senteurs aux lecteurs numériques a été parodiée dans une fausse publicité pour un produit appelé Smell of Books.  Voir la publicité du 1er avril 2009 . Sur cette parodie, voir le post [anonyme] in The Guardian's Books Blog, “Making Scents Out of Novels”, 5 juin 2009,

14. Johanna Drucker observe que la réflexion sur les livres numériques peut nous contraindre à reconceptualiser les livres « traditionnels » en des termes « fondés moins sur une saisie formelle de l’affichage, des caractères graphiques et physiques, et davantage sur une analyse de la façon dont ces caractères de format affectent la fonctionnalité [...] du livre traditionnel. En clair, « au lieu d’envisager de simuler l’aspect d’un livre, nous pourrions envisager d’étendre les façons dont un livre fonctionne à mesure que nous passons aux instruments numériques » (« The Virtual Codex from Page Space to E-space », A Companion to Digital Literary Studies, Ray Siemens et Susan Schreibman (dir), Malden, MA: Blackwell, 2007, p. 217, ; disponible en ligne sur ) .

15. Jürgen Habermas, L’Espace public, Paris, Payot, 1988.
  
16. Douglas Hofstadter et le Fluid Analogies Research Group, Fluid Concepts and Creative Analogies, New York, Basic Books, 1995, notamment 192-93 et 210-11.

17.  N. Katherine Hayles, “Hyper and Deep Attention: The Generational Divide in Cognitive Modes”, Profession, 2007, pp. 187-99; “How We Read: Close, Hyper, Machine”, ADE Bulletin, no. 150, 2010, pp. 62-79.  Hayles discute le modèle « en F » de la lecture sur le Web découvert par l’équipe de recherche sur l’usabilité de Jakob Nielsen dans ce dernier essai, p. 66.
  
18. Nicholas Carr, The Shallows: What the Internet is Doing to Our Brains, New York, W. W. Norton, 2010.
  
19. Voir les conférences annuelles de la Society for Text and Discourse, the Sixteenth Annual Meeting, Minneapolis, MN, 13-15 juillet 2006,  .
  
20. Sur le Coh-Metrix Project, voir Kim Knight, rapport de recherche sur "The Coh-Metrix Project," Transliteracies Project, 15 septembre 2006 .  “Beyond Search: A Preliminary Skill Set for Online Literacy”, par Monica Bulger, inclut une discussion du traitement cognitif de l’information en ligne (8 septembre 2006, Transliteracies Project) . Nicholas Dames, qui a participé à une conférence de Transliteracies en 2005, est l’auteur de The Physiology of the Novel: Reading, Neural Science, and the Form of Victorian Fiction, (Oxford, New York, Oxford University Press, 2007). Andrew Elfenbein a présenté une conférence intitulée “The Humanities and the Science of Comprehension” le 3 mai 2007.  Les chercheurs de Transliteracies ont aussi discuté cet essai, « Cognitive Science and the History of Reading », PMLA 121.2, 2006, pp. 484-500.

21. Tiré du mythe de l’invention de l’écriture exposé dans le Phèdre : « Mais quand on en vint à l’écriture : "L’enseignement de l’écriture, ô Roi, dit Theuth, accroîtra la science et la mémoire des Egyptiens ; car j’ai trouvé là le remède à l’oubli et à l’ignorance ". Le roi Thamous répondit : “Ingénieux Theuth, tel est capable de créer les arts, tel autre de juger dans quelle mesure ils porteront tort ou profit à ceux qui doivent les mettre en usage ; c’est ainsi que toi, le père de l’écriture, tu lui attribues bénévolement une efficacité contraire à celle dont elle est capable ; car elle produira l’oubli dans les âmes en leur faisant négliger la mémoire ; confiants dans l’écriture, c’est du dehors, par des caractères étrangers, et non plus du dedans, du fond d’eux-mêmes, qu’ils chercheront à susciter leurs souvenirs ; tu as trouvé le moyen non pas de retenir, mais de renouveler le souvenir, et ce que tu vas procurer à tes disciples, c’est la présomption qu’ils ont la science, non la science elle-même ; car, quand ils auront beaucoup lu sans apprendre, ils se croiront très savants, et ils ne seront le plus souvent que des ignorants de commerce incommode, parce qu’ils se croiront savants sans l’être." » (Phèdre, trad. Emile Chambry, Paris, Garnier-Flammarion, 1964, p. 191).
  
22. Sur la discussion de Hayles de la lecture sur machine, voir son “How We Read: Close, Hyper, Machine", 72-78.

23. Ainsi, le principe des formalistes russes de « défamiliarisation » en littérature était lié au principe de la conscience de la forme. Victor Chlovsky a écrit : « Le procédé de l’art est de rendre les objets 'non familiers', de rendre les formes difficiles » et « le discours poétique est un discours mis en forme » (« L'art comme procédé », in T. Todorov, Théorie de la littérature, Paris, Seuil, p. 76-97). L’expression « differentia specifica » a été utilisée par Roman Jakobson pour désigner la nature particulière du langage poétique dans son "Closing Statement: Linguistics and Poetics", in Semiotics: An Introductory Anthology, Robert E. Innis, dir, Bloomington, Indiana University Press, 1985, p. 147.
  
24. WordPress peut être activé localement sur des serveurs sous son propre contrôle (ou celui de son organisation) par des logiciels open-source téléchargés de WordPress.org. Exécuter les fichiers PHP et MySQL de la plateforme sur son propre serveur induit donc des problèmes de mise à jour du système et d’adjustement des thèmes au fur et à mesure.  Mais il est fréquent d’utiliser WordPress par le biais du serveur hôte WordPress.com, propriété d’Automattic, Inc.), qui fournit des mises à jour gratuites aux utilisateurs.  Ils n’ont pas alors à se soucier d’ajuster leurs fichiers, mais leur capacité à expérimenter sur la forme dépend alors de fichiers du commerce (comme des feuilles de style CSS de customisation, qui ne sont accessibles que sur un compte payant.  (“CSS” signifie Cascading Style Sheets, le langage de formatage standard et protocole de présentation de documents en ligne dont le contenu est structuré en langage HTLM.)

25.  Voir par ex. Jakob Nielsen, Designing Web Usability: The Practice of Simplicity, Indianapolis, IN, New Riders, 1999.
  
26. Sur la limite de 247 caractères qu’autorise le terminal de Twitter, voir Brian Caufiled, "The Longest Tweet in History," Forbes.com, 9 juillet 2009,

27. "In the Beginning was the Word: A Visualization of the Page as Interface," Transliteracies Project,  . L’animation a été produite par le Transliteracies History of Reading group sous la direction de William Warner (introduction de Warner et animation Flash de Kimberly Knight).

28. Voir, sur le site Web du Text Encoding Initiative, Michael Sperberg-McQueen et Lou Burnard, « A Gentle Introduction to XML », où les auteurs déclarent que « XML se concentre sur le sens des données, pas sur leur présentation ».  ; in TEI ConsortiumTEI P4: Guidelines for Electronic Text Encoding and Interchange, XML compatible edition, C. M. Sperberg McQueen et Lou Burnard (dir), Text Encoding Initiative Consortium, 2004, .   

29. Pour ma discussion de ces questions de design, voir le chapitre intitulé "Information is Style", dans mon livre Laws of Cool, p. 195-230.

30. Voir Amazon Kindle Singles,  ; iBooks Quick Reads,  ; TED Books, ;Atavist, . La « lecture de loin » est un terme pour l’interprétation corpora-scale de textes littéraires introduit par Franco Moretti (voir son Graphes, cartes et arbres. Modèles abstraits pour une autre histoire de la littérature, Les prairies ordinaires, Paris, 2008).  "Culturomics" est le terme pour l’analyse « corpora-scale » de Google Books introduite par Jean Baptiste Michel, Erez Lieberman Aiden et leurs collaborateurs dans leur article sur Google Books (accompagnant la création par Google de son Ngram Viewer). Voir Michel, Aiden, et al., “Quantitative Analysis of Culture Using Millions of Digitized Books”, Science 331, no 6014, pp. 176 82, 14 janvier 2011.

31. Pour une discussion des explications proposées de la montée du codex dans la dominance culturelle, voir Stuart G. Hall, “In the Beginning Was the Codex: The Early Church and Its Revolutionary Books”, The Church and the Book: Papers Read at the 2000 Summer Meeting and the 2001 Winter Meeting of the Ecclesiastical History Society, R. N. Swanson, dir, Woodbridge, Angleterre, Boydell & Brewer, 2004, pp. 1-10.  Hall discute pp. 7-8 l’argument de Guilielmo Cavallo que les premiers chrétiens des basses et moyennes classes se sont accoutumés au codex en utilisant des calepins pour les affaires quotidiennes et commerciales.

32. Je tiens à préciser que ma connaissance de la physique contemporaine et de la théorie cosmologique est celle d’un amateur informé par les ouvrages de vulgarisation qui tentent d’expliquer cette théorie en termes non-mathématiques. Mon résumé (limité par ma compréhension et sans doute mes erreurs) s’appuie sur les livres suivants : Brian Greene, L’univers élegant, op. cit., et La magie du Cosmos : L'espace, le temps, la réalité : tout est à repenser, Paris, Gallimard 2007 ; Stephen Hawking, Une brève histoire du temps, du Big Bang aux trous noirs, Paris, Flammarion, 2008 ; Nick Herbert, Quantum Reality: Beyond the New Physics, New York, Anchor Books, 1985; Michio Kaku, Hyperspace: A Scientific Odyssey Through Parallel Universes, Time Warps, and the Tenth Dimension, New York, Doubleday, 1994, et Parallel Worlds: A Journey Through Creation, Higher Dimensions, and the Future of the Cosmos, New York, Anchor Books, 2006 ; Michio Kaku et Jennifer Thompson, Beyond Einstein: The Cosmic Quest for the Theory of the Universe, New York, Anchor Books, 1995.