Lire-écrire-computer : émanciper les humains, contrôler les machines / E-dossier de l'audiovisuel : L'éducation aux cultures de l'information / E-dossiers de l'audiovisuel / Publications / INA Expert - Accueil - Ina

Lire-écrire-computer : émanciper les humains, contrôler les machines

Par Éric Bruillard, professeur à l’ENS Cachan, directeur du laboratoire Stef

small

Éric Bruillard est professeur des universités en informatique à l’École normale supérieure de Cachan. Il dirige le laboratoire Stef(Sciences, Techniques, Éducation et Formation) qui dépend de l’ENS Cachan et de l’IFé (Institut français d’éducation), composante de l’ENS Lyon. Il travaille depuis trente ans sur les questions de conception et d’usage des technologies informatiques dans l’éducation, ainsi que sur la didactique de l’informatique et la didactique des progiciels. Il a publié un grand nombre d’articles et est à l’origine, avec Georges-Louis Baron, des colloques Didapro (didactique des progiciels) et Jocair (Journée communication et apprentissage instrumentés en réseau) avec Mohamed Sidir. Il a également travaillé sur les manuels scolaires et est membre du bureau de l’Iartem (International Association for Research on Textbooks and Educational Medias) et d’un groupe de travail sur l’éducation de l’Ifip(International Federation for Information Processing). 
Il est rédacteur en chef de la revue Sticef (www.sticef.org ), journal scientifique francophone de référence dans le domaine des EIAH (environnements informatisés et apprentissage humain).

___________________________

Depuis 40 ans, travaux et réflexions abondent sur l’utilisation de l’informatique dans l’enseignement. Une trilogie en particulier proposait une alternative à trois branches : l’ordinateur vu comme un outil, un enseignant ou un élève. Si l’outil semble avoir triomphé, on s’est aperçu au fur et à mesure de la grande complexité de la gestion des processus automatisés d’apprentissage et de la nécessité d’apprendre aussi aux humains à maîtriser les machines. Les technologies informatiques ne sont pas seulement des aides à l’action, mais aussi des instruments, qui nous donnent à voir le monde et participent à notre construction de ce monde. D’où l’importance d’en comprendre certains déterminants, en développant une culture informatique. Autant de questions en lien avec celles de la culture informationnelle, et avec les évolutions de la trilogie classique « lire-écrire-compter », qui a pris en compte ces technologies, à tel point qu’on pourrait remplacer « compter » par « computer ».

___________________________

En 1972, lors d’une conférence à Boston, Arthur Luehrmann présenta une parabole. Imaginant un pays dans lequel l’écriture et la lecture n’avaient pas encore été inventées, il exposa les transformations associées à leur découverte, d’abord dans les activités administratives et commerciales, mais surtout dans l’éducation, jusqu’alors entièrement basée sur l’oral. Fut ainsi créé un nouveau type de fonctionnaire d’éducation, le lecteur, dont le rôle consistait à lire les cours préparés par des enseignants chevronnés (ne sachant pas forcément lire et écrire) avec des experts en écriture et en lecture ; une nouvelle méthode, l’éducation assistée par l’écriture, la WAI (« Writing Assisted Instruction »), naquit. Cette méthode fut discutée au début, voire décriée, et on chercha à prouver son efficacité. Différents projets furent développés et, après plusieurs études, le service des tests du système éducatif conclut à l’intérêt de cette nouvelle méthode, attestant de son efficacité. Cela conduisit au recrutement d’un grand nombre de lecteurs permettant d’éduquer une masse de personnes qui ne pouvaient l’être auparavant, amenant une ère de développement et de prospérité pour la nation [Luehrmann, 1972]. 

Fin heureuse ? Luehrmann la considérait comme plutôt triste. Il en préférait une autre. Prenant peu à peu conscience de l’intérêt de la lecture et de l’écriture, dans leurs disciplines respectives, des enseignants commencèrent à défendre l’idée d’en assurer un enseignement pour tous. Il fallut alors simplifier le système d’écriture. Les tenants de la WAI (éducation assistée par l’écriture) ne voyaient pas l’intérêt d’introduire dans les écoles un tel apprentissage, long et difficile, et considéraient que ces compétences pouvaient être réservées à une élite. Cependant, se posa peu à peu la question de savoir jusqu’à quand quelqu’un ne connaissant rien à la lecture et à l’écriture pourrait encore être considéré comme étant éduqué. Ainsi, cette seconde fin voit le développement de l’apprentissage de la lecture et de l’écriture pour tous, conduisant également à une nation prospère.

À l’époque, Luehrmann plaidait pour l’apprentissage de l’informatique, de la programmation, vis-à-vis de l’utilisation de logiciels d’EAO (enseignement assisté par ordinateur), c’est-à-dire l’idée de programmer la machine au lieu d’être programmé par elle, propos également soutenu par Seymour Papert [Papert, 1970]. Combien de temps encore quelqu'un qui ne connaît rien à l'ordinateur pourra-t-il être considéré comme instruit, se demande ainsi Luehrmann ? En effet, si « l'ordinateur se révèle si efficace qu'il peut être programmé pour simuler le processus d'enseignement, ne devrions-nous pas apprendre aux élèves à maîtriser ce puissant outil intellectuel ? » [Luehrmann, 1972].

Cette parabole fut publiée huit ans plus tard dans le livre coordonné par Robert Taylor, autour non pas de l’opposition précédente, mais d’une alternative à trois branches : « tool », « tutor », « tutee », l’ordinateur vu comme un outil, un enseignant ou un élève [Taylor, 1980].

Commentant son texte 30 ans plus tard, Luehrmann concédait que, dans la trichotomie exposée par Taylor, c’est seulement l’utilisation comme outil qui a eu véritablement un impact dans les écoles [Luehrmann, 2002]. Il en était désolé et voyait deux raisons principales au fait que l’apprentissage de la programmation ne se soit pas étendu : le développement des progiciels et, surtout, du tableur ; celui des enseignements de la programmation qui ont concerné des élèves se destinant à des carrières d’informaticien. D’un côté, une facilitation rendant moins utile l’apprentissage de la programmation et d’un autre, des filières d’excellence, qui ont éloigné une majorité d’élèves. Il concluait en regrettant le monopole de l’école sur l’éducation, qui empêche les innovations, et en prônant le développement des cours sur Internet, rejoignant ainsi le point de vue d’auteurs tels Clayton Christensen, Michael Horn et Curtis Johnson [Christensen et al, 2008] ou Allan Collins et Richard Halverson qui, pensant que les systèmes éducatifs actuels ne peuvent pas sérieusement intégrer les technologies informatiques, prévoient des changements très profonds des modes de scolarisation [Collins et Halverson, 2009].

En gros, pour Arthur Luehrmann, l’alternative consistait soit à donner le pouvoir aux gens sur les machines, soit à laisser le pouvoir aux machines (en fait aux organisations) sur les gens. L’idée de pouvoir a été évacuée, diluée sous la notion d’outil dans une vision assez largement de consommation. Mais n’est-on pas passé un peu vite à côté d’un choix plus complexe qu’il n’y paraît ?

INFORMATIQUE : UN OUTIL SIMPLE ET UN SIMPLE OUTIL !

Est-ce vraiment l’« outil » qui a triomphé ? Sans doute et avant tout en dehors de l’école, mais ne serait-ce pas aussi le fait que les deux autres branches de l’alternative se soient peu à peu atrophiées ?

Ainsi, dans les années 1980, comme le rappelle Georges-Louis Baron (dans ce e-Dossiers de l’audiovisuel 1 ), période où l’EAO (enseignement assisté par ordinateur) est relativement florissant, en France, l’opposition en éducation concerne l’informatique comme outil ou comme objet (c’est-à-dire outil d’enseignement ou objet d’enseignement). La trichotomie est redevenue une dichotomie. S’agissant de l’utilisation des machines informatiques pour faire apprendre, les travaux conduits en intelligence artificielle pour l’éducation, dans les années 1970 et 1980, ont montré la grande complexité de la gestion des processus d’enseignement et d’apprentissage, révélant des obstacles profonds au pilotage par les machines [Bruillard, 1997]. D’ailleurs, outre d’importantes difficultés conceptuelles dans la gestion automatisée des apprentissages, l’obstacle le plus sérieux est purement pragmatique. Pour qu’elles puissent enseigner, les machines doivent être capables d’effectuer les tâches qu’elles sont censées faire apprendre ou de résoudre les problèmes qu’elles posent et cela, de manière assez voisine de ce qui est attendu des humains. Mais si les machines savent parfaitement réaliser ces tâches, quel intérêt y a-t-il à ce que les humains apprennent également à les maîtriser ? Pourquoi apprendre ce que les machines font parfaitement ? Ne faut-il pas plutôt apprendre à faire non pas seul, mais avec les machines, développer des activités instrumentées informatiquement, interagir pour réaliser des tâches complexes ? 

Les promesses de l’intelligence artificielle ont dominé les recherches sur l’apprentissage humain et l’informatique, mais ce sont les travaux sur l’hypertexte et sur l’interaction humain-machine qui ont modelé l’environnement informatisé qui s’est considérablement répandu à la fin du XXe siècle. Des précurseurs tels Douglas Engelbart et Alan Kay ont imaginé des machines susceptibles d’étendre les capacités humaines, les assistant dans toutes sortes d’activités (de travail, de jeu…), machines qui sont maintenant devenues banales, surtout pour les jeunes générations des pays développés. Mais quel contrôle exercent-elles sur ces machines ?

Selon le discours ambiant, pour les jeunes générations, il est inutile d’apprendre à commander les machines, ces dernières répondant directement à leurs besoins, exauçant immédiatement leurs vœux. Nul besoin d’apprentissage long et complexe, l’immersion dans le monde dit numérique s’avère suffisante pour piloter toutes les machines qui le composent. Le discours, essentiellement marketing, se clôt avec la croyance que si certaines machines sont difficiles à commander, c’est qu’elles ne sont pas conçues convenablement et que de toutes les manières, il n’y aura plus de souci avec les machines suivantes, qui seront encore plus simples. 

Mais les utilisateurs, notamment les jeunes, sont-ils aussi compétents qu’on le dit ? De nombreuses études indiquent que leurs compétences sont souvent limitées, avec un manque de compréhension et une faible conceptualisation [voir par exemple Baron et Bruillard, 2009]. D’ailleurs, si les jeunes générations sont très utilisatrices des technologies informatiques ou numériques qui leur sont proposées, elles s’en servent assez peu à des fins d’apprentissage. De plus, leur maîtrise des progiciels, comme on l’a montré à la fois pour le traitement de texte [André, 2006] ou le tableur (dans le cadre du projet Didatab 2 ), est très faible. 

Ainsi, dans le cas du traitement de texte, les fonctionnalités qu’il serait utile de connaître afin de structurer les textes (essentiellement la notion de style de paragraphe avec éventuellement la déclaration d’un niveau hiérarchique) ne sont plus directement accessibles dans la dernière version du logiciel le plus vendu en France [André, 2006]. Elles sont en quelque sorte cachées, alors qu’elles permettent de piloter la mise en forme à partir de la structure déclarée et de gérer au mieux l’apparence du texte en fonction du périphérique de lecture choisi. Les utilisateurs ignorant ces fonctionnalités perdent beaucoup de temps pour gérer la mise en forme de leurs textes, et s’en remettent finalement à la machine pour les structurer (souvent à leur insu), perdant une partie de leur contrôle sur leur propre production. 

En fait, les interfaces, si elles facilitent grandement un grand nombre de manipulations de base, donnent l’illusion que l’utilisateur est aux commandes. C’est insidieux, la « machine » nous fait croire qu’on la pilote, alors que son influence est plus cachée. Dans un monde où les machines vont dialoguer beaucoup entre elles (ce que l’on appelle l’Internet des objets) et un peu avec les humains, avoir un minimum de connaissance des données qu’elles échangent et de compréhension de ce qu’elles traitent, comment et pour qui, semble loin d’être un luxe réservé à un petit nombre de personnes.

Cependant, devant la prolifération des machines et des activités dans lesquelles elles ont une place importante, ce sont les risques encourus par les utilisateurs qui vont être mis en avant, incitant plus à se protéger qu’à comprendre.

OUTIL SIMPLE… MAIS IL FAUT PROTEGER LES UTILISATEURS

En effet, la diffusion de l’Internet grand public au milieu des années 1990 a suscité beaucoup d’attentes au plan éducatif. Assez rapidement, ce sont ses dangers qui vont focaliser l’attention et l’image d’Internet va se transformer, surtout pour les parents. Le problème n’est pas le fait de donner accès à l’extérieur, mais de faire entrer « chez soi » un monde qui peut être dangereux, duquel il faut protéger les enfants. Nombre de parents vont ainsi attendre de l’école qu’elle garantisse un monde protégé, que les dangers venant de l’extérieur ne puissent pas y pénétrer. Mais éviter les risques aux enfants ne contribue pas à les former pour les affronter.

Bien évidemment, les enfants ne sont pas les seuls susceptibles d’être confrontés aux risques et les pièges à éviter sont nombreux, alors que les compétences manquent souvent pour les déjouer. Toutefois, à défaut d’en comprendre les mécanismes, les utilisateurs commencent à bien connaître certains dangers, jouant sur leur comportement d’internaute. Mais d’autres formes d’influence sont beaucoup moins bien perçues et comprises. 

Ainsi, Google ne serait qu’un simple outil, alors qu’il a, en quelque sorte, la capacité de décider, ou tout au moins de nous orienter fortement, dans ce que l’on va regarder en réponse à une requête [voir par exemple Ippolita, 2008-2011 ; Gallezot et Simonnot, 2009]. On fait des requêtes au « roi Google » qui, dans sa grande sagesse, décide de ce qui correspond le mieux à ce que l’on souhaite, nous ouvrant le monde, tout en nous le refermant, sans que beaucoup s’en aperçoivent ou s’en émeuvent, sans que l’on puisse véritablement savoir comment il procède. Parfois, il modifie même automatiquement nos requêtes, jugeant que l’on a forcément dû faire une erreur. Des fonctionnalités disparaissent comme la « roue magique », parce que trop coûteuses à maintenir 3 , d’autres apparaissent comme la recherche universelle en 2007 (donner des réponses à la fois en termes de pages, d’images, de nouvelles pour certaines demandes) ou la recherche par image en 2011, et le fonctionnement du « moteur de recherche », qui ne se dévoile pas, notamment pour des raisons économiques, est de plus en plus opaque.

Ainsi, si l’idée d’outil semble satisfaire tout le monde, elle est incomplète, voire fausse. L’ordinateur et toutes les technologies informatiques ne sont pas seulement des effecteurs, des aides à l’action, mais aussi des instruments, qui nous donnent à voir le « monde » et participent à notre propre construction de ce monde [Bruillard, 1997]. Il faut en comprendre certains déterminants pour garder son esprit critique, « comprendre » la machine dans le sens où il faut faire un pas vers elle, ne pas se contenter d’une vision teintée de magie. Tous les éléments précédents concourent à montrer l’importance d’une éducation aux médias et à la culture informationnelle, mais aussi à montrer qu’une culture informatique est tout aussi essentielle à développer. 
Mais est-ce suffisant de déconstruire certains fonctionnements ? Quels registres de technicité faut-il maîtriser ? 

Une question souvent posée, dans l’objectif de limiter l’utilisation des machines, surtout dans des phases d’apprentissage, est de savoir ce qu’il conviendrait de faire si elles tombaient en panne, ou si l’on était contraint d’exécuter certaines tâches sans pouvoir en disposer. Mais y voir un argument pour rendre obligatoire tout ce qui peut s’avérer nécessaire en l’absence de machines n’est pas convainquant. Comment pourrait-on se substituer aux machines autrement que dans des cas très spécifiques ? L’idée est plutôt de comprendre comment elles font et comment on pourrait faire autrement si besoin est ; et, également, de pouvoir réagir face aux dysfonctionnements éventuels, puisque elles sont loin de marcher parfaitement. Or, c’est là où il faut porter l’attention : comment pallier les insuffisances de fonctionnement des machines qui nous environnent. Comment travailler et vivre au mieux avec ces machines qui ne sont qu’en partie sous notre contrôle ? 

PENSER UN NOUVEAU LIRE-ÉCRIRE-COMPTER

L’article d’Arthur Luehrmann nous relie aux questions de littératie ou d’alphabétisation, et nous conduit aux évolutions possibles du « lire- écrire- compter ». En effet, l’informatique est d’abord une technologie d’écriture avec des caractéristiques particulières, du fait de la séparation possible entre l’écriture elle-même et son support. Cela offre la possibilité de conserver le processus même d’écriture, le rendre « rejouable », facilite l’écriture collective, etc., ouvrant à de nouveaux modes de pensée, telle la « raison computationnelle » explorée par Bruno Bachimont (dans ce e-Dossiers de l’audiovisuel 4 ). 

Comment ces nouveaux possibles modifient-ils la trilogie classique « lire-écrire-compter » ? Pour situer les débats autour de cette trilogie, on peut la présenter comme une requête à Google et explorer les pages de résultats fournies par ce moteur. Ce dernier nous conduit à des associations 5 , des méthodes, des produits (livres et jeux éducatifs), des invitations à revenir à des pédagogies anciennes, etc., avec des débats et des prises de position sur l’illettrisme, les objectifs du socle commun…

Un slogan, repris à une association, résume une bonne partie des propos : « Savoir lire, écrire, compter, calculer n'est pas encore à la disposition de tous au XXIe siècle. Pour lutter contre l'illettrisme et faciliter l'accès au savoir, des associations s'engagent au quotidien. » Avec en titre : « Savoir lire, écrire, compter, calculer : un droit universel ! » 6 .

Les questions d’illettrisme 7 , d’apprentissage de base 8  et de la manière d’acquérir les éléments de base 9  sont souvent posées. Elles sont l’occasion d’un retour sur les apprentissages élémentaires ou fondamentaux 10 . Sans citer les très nombreux auteurs qui vont tenter de remettre au goût du jour cette trilogie, c’est bien d’apprentissages de base qu’il s’agit, apprentissages indispensables pour ne pas être exclus de la société. Mais il ne s’agit pas seulement d’enseigner des rudiments et ce n’était d’ailleurs pas le cas au temps de Jules Ferry. Ainsi, Claude Lelièvre 11 rappelle que ce dernier souhaitait dépasser des apprentissages qualifiés de « mécaniques » grâce à l’introduction de « nouvelles méthodes ». Dans un discours célèbre, il prenait l’exemple de l’apprentissage de la lecture :
« Oui, il est possible qu’au bout d’un an ou deux, nos petits enfants soient un peu moins familiers avec certaines difficultés de lecture ; seulement, entre eux et les autres, il y a cette différence : c’est que ceux qui sont plus forts sur le mécanisme ne comprennent rien à ce qu’ils lisent, tandis que les nôtres comprennent. Voilà l’esprit de nos réformes.» (Discours de Jules Ferry au congrès pédagogique des instituteurs du 19 avril 1881) 12 .

S’agissant d’actualiser la trilogie « lire – écrire – compter », les propositions ne manquent pas. Le mot « compter » apparaît désuet et beaucoup proposent de compléter la trilogie, notamment pour tenir compte des technologies informatiques et du réseau Internet. Ainsi, dès 1997, Philippe Quéau ajoute « naviguer » [Quéau, 1997]. On va trouver également : cliquer, bouger, penser, parler, agir, prendre la parole…

Mais ce qui est plus important, c’est l’idée réaffirmée que l’on ne peut pas se limiter à des apprentissages « mécaniques ». Pour l’Unesco, « Alphabétiser ne consiste plus seulement à apprendre à lire, écrire, compter. On parle de développement humain, communautaire et national », insiste Shigeru Aoyagi, chargé de l’alphabétisation à l’Unesco. « Les programmes, ajoute-t-il, doivent aller au-delà de la transmission des savoirs de base. »13  

Un lien s’opère avec la culture informationnelle (« information literacy »), dans les compétences à chercher, à évaluer et à utiliser l’information… « La capacité à donner du sens à l’information pléthorique, éparse et hétérogène qui compose notre environnement à la fois personnel, culturel, social et professionnel représente un enjeu majeur pour réaliser la transition nécessaire de la société de l’information vers les sociétés du savoir » [Endrizzi, 2006] 14 .
Mais, pour confirmer le fait qu’il ne s’agit pas d’apprentissages mécaniques, à « lire, écrire, compter » va se substituer la séquence « accéder, comprendre, utiliser, créer » 15 , attestant de l’importance non seulement d’accéder aux nouvelles technologies et d’utiliser une série de logiciels de médias numériques, mais aussi « de comprendre les applications et les contenus numériques » et de « pouvoir créer à l’aide de la technologie numérique ».
En quelque sorte, les capacités de création sont à nouveau convoquées, au-delà de simples utilisations. Intégrant les technologies informatiques, on retrouve la pensée informatique qui était revendiquée dans les années 1970 [Drot-Delange et Bruillard, 2012] et a été remise au goût du jour ces dernières années, notamment par Jeannette Wing (voir les textes de Monique Grandbastien, et de Françoise Tort et Valentina Dagiene, dans ce e-Dossiers de l’audiovisuel 16 ). 

Pour résumer, l’actualisation du lire-écrire-compter prend en compte l’informatique et ses technologies, afin de développer des compétences, faire acquérir des connaissances, d’émanciper les humains en leur donnant un pouvoir d’agir (« empowerment »). On pourrait risquer une mise à jour, en remplaçant « compter » par « computer », jeu de mot facile, et expression euphoniquement peu heureuse, mais qui permet d’attester de la présence des machines dans la trilogie de base 17. En effet, ouvrir les possibles aux humains requiert de leur donner une maîtrise des technologies, mais ne faudrait-il pas dans le même temps limiter le pouvoir des machines ?

RÉGULER LES MACHINES ET RÉSEAUX INFORMATIQUES

L’omniprésence des dispositifs informatisés était difficilement prévisible dans les années 1970 et l’on s’intéressait plus aux programmes, aux principes sous-jacents, qu’aux machines elles-mêmes, censées ne faire que ce qui leur était demandé. La puissance actuelle de ces dispositifs multiples ouvre des perspectives nouvelles, parfois inquiétantes.

Monique Grandbastien termine son texte dans ce dossier sur deux exemples d’applications informatiques liées à la gestion de grandes masses de données et de documents. La première, celle de la visualisation dynamique, consiste dans l’adaptation des instruments aux capacités de traitements des humains. Il s’agit bien d’étendre les capacités humaines, dans le sens des travaux de Douglas Engelbart 18 . La seconde, la fouille des données pour y détecter des régularités, s’intéresse plus directement aux machines, avec des implications sur le droit et la gouvernance, bien mises en évidence, notamment par Antoinette Rouvroy [Rouvroy, 2009, 2011).

En effet, le recueil et le traitement de grandes masses de données permettent de nourrir des modèles statistiques prédictifs, mais non explicatifs : telle configuration a des chances de conduire à tel résultat, sans que l’on puisse fournir de raisons à un tel lien. Comme le souligne Antoinette Rouvroy, ce mythe de la prévisibilité, risque de donner lieu à de nouvelles formes de gouvernement pouvant être très oppressantes sous couvert de transparence [Rouvroy, 2009].

Ainsi, comme les machines informatiques et les réseaux font dorénavant partie de notre vie, il importe de réguler leur action. Les questions de formation des personnes et de régulation des organisations ne sont pas antinomiques mais complémentaires. La même trilogie (lire-écrire-compter) appliquée aux humains afin de les émanciper devrait être appliquée aux machines et aux organisations qui sont derrière, dans un objectif inverse : limiter leurs capacités de lecture, leurs capacités d’écriture, leurs capacités de traitement.

VERS DE NOUVELLES VISIONS : MANIPULER ET FABRIQUER

La parabole de Luehrmann nous a servi de fil rouge dans ce texte. Dans les années 1970, deux idéologies, deux visions de l’éducation, s’affrontaient : l’acceptation du contrôle par les machines ou la reprise de ce contrôle par les apprenants eux-mêmes. Mais ce qui s’est finalement généralisé correspond à un autre point de vue, celui des outils, consacrant une sorte de défaite des deux points de vue précédents, mais conduisant à une remise en cause des modes actuels de scolarisation.

On pourrait d’ailleurs proposer une nouvelle lecture de la parabole de Luehrmann, reprenant les éléments que nous avons discutés dans ce texte, autour des tenants de la multiplication des tests dans le système éducatif : faut-il piloter l’éducation à partir de mesures techniques (de nouveau rendre le pouvoir aux machines et aux organisations), méthode conduisant le plus souvent à restreindre les matières proposées aux élèves ? Ne vaut-il pas mieux les ouvrir sur le monde, les aider à développer leurs capacités d’action et de création ?
Ainsi, cette question de la maîtrise et du contrôle sur les dispositifs informatisés se repose avec une acuité nouvelle. En accolant sans discernement l’adjectif « numérique » à des mots qualifiants des activités humaines, comme pratique, culture, pédagogie, etc., on en arrive à occulter leur sens sous un voile trompeur de nouveauté. 

Parler de littératie, c’est prendre position sur les savoirs ou les savoir-faire fondamentaux dont la maîtrise est jugée nécessaire pour pouvoir prendre toute sa place dans la société actuelle. Il conviendrait de ne pas s’enfermer dans une opposition stérile entre TIC (technologies de l’information et de la communication) et informatique [Tort et Bruillard, 2010 ; Bruillard, 2010], la maîtrise des outils requiert des connaissances informatiques. 

Revisitant le travail de Jack Goody sur l’impact de l’écriture (notamment le rôle spécifique des listes et des tableaux), la recherche sur les tableurs (projet Didatab) nous a conduits à souligner l’importance de la notion de table. Les possibilités offertes par Internet la renouvellent : une nouvelle écriture collective, des structures de tables interactives… Un tel cadre devrait aider à modifier profondément la réflexion sur la place du tableur, en tant que tableau interactif éventuellement partageable à distance, dans l’éducation. La manipulation de tables constitue un bon exemple de ce qui pourrait être fait très tôt dans l’éducation, avec de jeunes enfants : activité informatique productive leur montrant comment contrôler leur environnement et pouvant les aider à mieux percevoir et comprendre cet environnement. C’est également promouvoir une approche expérimentale de l’informatique et des ses instruments [Bruillard, 2011], d’autant que les sciences dites expérimentales semblent partiellement y renoncer 19 .

Pour terminer, alors que la vision actuelle de l’informatique grand public est dominée par l’aspect communication, notamment avec le succès des plates-formes de réseautage social, dans un monde de plus en plus « virtualisé », le retour vers la matière est peut-être en train de s’opérer, réconciliant le monde des atomes et celui des bits [Gershenfeld, 1999]. Au traditionnel lire-écrire-compter, il va falloir ajouter « fabriquer » [Bull, 2009]. 

Éric Bruillard, professeur à l’ENS Cachan, directeur du laboratoire Stef

Mise en ligne : janvier 2012

___________________________

1. Voir Georges-Louis Baron, « L’informatique en éducation : quel(s) objet(s) d’enseignement ? ».

2. Voir une synthèse du projet Didatab : http://www.stef.ens-cachan.fr/didatab/fr/index.html

3. Selon http://actu.abondance.com/2011/08/pourquoi-la-roue-magique-t-elle-disparu.html. Note d’Olivier Andrieu. Mardi 16 août 2011.

4. Voir Bruno Bachimont : « Pour une critique phénoménologique de la raison computationnelle ».
  
5. Voir www.lire-ecrire.org ; http://www.aidenet.eu ; Alec Formation (Association Lire Écrire Compter) ; http://enfantsdudesert.org/ ; http://www.associationlacle.org/ le projet  Slec (http://www.slecc.fr/) du Groupe de réflexion interdisciplinaire sur les programmes (GRIP) 
  
6. Voir www.navi-mag.com/savoir-lire-ecrire-compter-calculer--un-droit-universel-id-2922.html 
  
7. Voir par exemple : http://www.insee.fr/fr/themes/document.asp?ref_id=13471
  
8. Voir : Lire, écrire, compter : les performances des élèves de CM2 à vingt ans d'intervalle 1987-2007. 
  
9. Comment apprend-t-on ? http://www2.cnrs.fr/presse/journal/1543.htm 
  
10. Voir par exemple http://www.inrp.fr/she/chartier_apprentissages.htm
  
11. http://blogs.mediapart.fr/blog/claude-lelievre/180308/jules-ferry-et-les-nouveaux-programmes

12. Jules Ferry, Discours au congrès pédagogique des instituteurs, le 19 avril 1881, in Discours et opinions de Jules Ferry, édition Paul Robiquet, Paris, Armand Colin, 1896, tome 4, p. 250. Cité par Claude Lelièvre dans http://blogs.mediapart.fr/blog/claude-lelievre/180308/jules-ferry-et-les-nouveaux-programmes.
 
13. LIFE - Initiative pour l´alphabétisation : savoir pour pouvoir, Unesco
  
14. « Vers les sociétés du savoir » est le titre d’un ouvrage de l’Unesco publié en 2005. En ligne : http://unesdoc.unesco.org/images/0014/001419/141907f.pdf 
  
15. Jane Tallim, « Plaidoyer pour la littératie numérique », in « La littératie numérique au Canada : de l'inclusion à la transformation », Canada, Réseau Éducation-Médias, juillet 2010. 
  
16. Voir Monique Grandbastien : « La discipline informatique et l’éducation à la maîtrise de l’information » ; Françoise Tort et Valentina Dagiene : « Concours castor : découvrir l’informatique autrement ».

17.On pourrait aussi choisir lire-écrire-évaluer, en lien avec la classique boucle de traitement (Print eval read) des langages fonctionnels.
  
18. Pionnier de l’informatique, de l’interface homme-machine, Douglas Engelbart inventa notamment la souris et les premières interfaces graphiques.

19. Des thèses en cours de Harinosy Ratompomalala (physique et chimie) et Stanislas Dorey (sciences de la vie et de la Terre) indiquent un recul de l’ExAO (expérimentation assistée par ordinateur) et plus largement d’activités expérimentales au profit de simulations et de vidéos projetées sur un tableau numérique interactif.


___________________________

RÉFÉRENCES BIBLIOGRAPHIQUES


-    ANDRE (Bernard), Utilisation des progiciels, identification d’obstacles et stratégies de formation, Thèse présentée et soutenue à l’École normale supérieure de Cachan le 4 décembre 2006. 

-    BARON (Georges-Louis), BRUILLARD (Éric), « Technologies de l’information et de la communication et indigènes numériques : quelle situation ? », in Rubrique de la revue STICEF, Volume 15, Le Mans, LIUM, Université du Maine, 2008.

-    BRUILLARD (Éric), Les Machines à enseigner, Paris, Éditions Hermès, 320 p., 1997. 

-    BRUILLARD (Éric), « L'ordinateur à l'école : de l'outil à l'instrument », in Luc-Olivier POCHON, Alex BLANCHET (sous la direction de), L'Ordinateur à l'école : de l'introduction à l'intégration, Neuchâtel, IRDP, p. 99-118, 1997. (version légèrement modifiée publiée comme Point de vue dans Sciences et Techniques éducatives, Volume 5, numéro 1, Cachan, Hermès / Lavoisier, 1998.

-    BRUILLARD (Éric), « Acteurs et territoires de l'éducation à l'information : un point de vue "informatique" », in Françoise CHAPRON et Éric DELAMOTTE (sous la direction de), L'Éducation à la culture informationnelle, p. 68-75, Villeurbanne, Presses de l'Enssib, collection « Culture de l’information », 2010.

-    BRUILLARD (Éric), « Quelles bases pour une discipline scolaire information-documentation? », in Mediadoc n°6, p. 8-11Paris, Fabden (Fédération des enseignants documentalistes de l’Éducation nationale), avril 2011.

-    BULL (Glenn), “Tutor, Tool, Tutee : A vision revisited”, in Contemporary Issues in Technology and Teacher Education, Volume 9, n° 29, 89-94, 2009.

-    CHRISTENSEN (Clayton M.), HORN (Michael B.), JOHNSON (Curtis W.), Disrupting Class : How Disruptive Innovation Will Change the Way the World Learns, New York, McGraw-Hills books, 238 p, 2008.

-    COLLINS (Allan), HALVERSON (Richard), Rethinking Education in the Age of Technology : The Digital Revolution and Schooling in America, New York, Teachers College Press, 176 p, 2009.

-    DROT-DELANGE (Béatrice), BRUILLARD (Éric), « Éducation aux TIC, cultures informatique et du numérique : quelques repères historiques », in revue Études de communication, Villeneuve d'Ascq, Université Lille 3, à paraître, 2012.

-    ENDRIZZI (Laure), « Éducation à l’information », in Dossier d’actualité Veille et Analyses, n°17, Lyon, INRP, avril 2006. 

-    GALLEZOT (Gabriel), SIMONNOT (Brigitte), sous la direction de, L'Entonnoir. Google sous la loupe des sciences de l'information et de la communication, Caen, C & F Éditions, 2009.

-    GERSHENFELD (Neil), When things start to think, New York, Henry Holt and company, 227 p., 1999.

-    IPPOLITA, Le Côté obscur de Google, Paris, Éditions Payot & Rivages, collection « Rivages Poche / petite Bibliothèque », 283 p., 2011 (1ère édition de cet ouvrage du groupe interdisciplinaire italien de chercheurs Ippolita, sous le titre La Face cachée de Google, Payot, 2008).

-    LUEHRMANN (Arthur W.), “Should the computer teach the student, or vice versa ?”, in Proceedings Spring Joint Conference, p. 407-410, New York, ACM, 1972 
Réédité in FromTAYLOR (Robert P.), sous la direction de, The Computer in the School : Tutor, Tool, Tutee, p. 129-135, New York, Teachers College Press, Columbia University, 1980. Disponible sur : Contemporary Issues in Technology and Teacher Education, [Online serial], Volume 2, n° 3.

-    LUEHRMANN (Arthur W.),"Should the computer teach the student..." — 30 years later”, in Contemporary Issues in Technology and Teacher Education [Online serial], Volume 2, n° 3, 2002.

-    PAPERT (Seymour), “Teaching Children Thinking”, in IFIP World Conference on Computer Education 1970. Invited Papers, Tome I, IFIP (International Federation for Information Processing), Amsterdam, 1970.

-    QUEAU (Philippe), « Savoir lire, écrire, compter et naviguer », in Revue Quart Monde, n°163 – « Des @utoroutes pour tous », Paris, Éditions Quart Monde, 1997.

-    ROUVROY (Antoinette), « Gouverner : détecter et prévenir ! », in la revue Politique, n° 61, « L’intrusion technologique », Bruxelles, octobre 2009. 

-    ROUVROY (Antoinette), « Pour une défense de l'éprouvante inopérationnalité du droit face à l'opérationnalité sans épreuve du comportementalisme numérique », in Dissensus : revue de philosophie politique de l'Université de Liège, n°.4, p. 127-149, 2011. 

-    TAYLOR (Robert P.), sous la direction de, The Computer in the School : Tutor, Tool, Tutee, New York, Teachers College Press, Columbia University, 1980.

-    TORT (Françoise), BRUILLARD (Éric), “Informatics education : beyond the opposition between information technology and computer science”, in David BENZIE, Kwok-Wing LAI et Christophe REFFAY (sous la direction de), New Developments in ICT and Education. Proceedings of IFIP Working Conference, Ifip, UMR Stef, ENS Cachan, INRP Cachan, 2010.