Je reviens sur ce fil à propos des origines du langage et sur la théorie de Chomsky selon laquelle le langage syntaxique est une aptitude innée génétiquement fixée qui suppose un pré-câblage du cerveau, une réorganisation telle qu'elle ne peut être intervenue qu'en une seule fois par une macromutation et ne peut s'expliquer par la sélection darwinienne, c'est à dire par un ensemble de micromutations qui auraient progressivement accru les capacités du cerveau sous la pression de l'environnement pendant une durée de plusieurs millions d'années.
Plus haut dans ce fil en page 1 j'ai déjà présenté brièvement les théories de Steven Pinker, James Mark Baldwin et Derek Bikerton qui présentent des hypothèses darwiniennes sur l'acquisition d'un langage syntaxique sans passer par un hypothétique recâblage complet du cerveau, recâblage dont les neurosciences ont depuis longtemps démontré qu'il n'existait pas.
Mais Stanislas Dehaene, grâce aux travaux les plus récents sur l'acquisition du langage par les nourrissons, apporte aussi l’éclairage d'une discipline en pleine expansion la psychologie cognitive.
Pendant l'année universitaire 2012-2013 il a fait au Collège de France un ensemble de cours sur le sujet:
Les principes Bayésiens de l'apprentissage : sommes-nous des scientifiques dès le berceau ?
Tous ces cours sont téléchargeables ou regardables en streaming ici
http://www.college-de-france.fr/site/stanislas-dehaene/p1345611472218_content.htmEt voila l'introduction à ce cycle de cours:
Comme l’a expliqué Noam Chomsky, la connaissance de la langue dépasse, de toute évidence, la simple évaluation des probabilités de transitions entre mots. Nous devons, au minimum, considérer des règles abstraites qui font intervenir des catégories de mots (noms, adjectifs, verbes). Même les probabilités de transition entre ces catégories ne suffisent pas : toutes les langues possèdent une structure arborescente en constituants enchâssés, elles sont régies par des règles syntaxiques récursives qui se traduisent par des dépendances à distance variable et arbitraire.
Selon Chomsky, la complexité de ces règles et la « pauvreté » des stimuli qu’entend l’enfant nécessitent de postuler l’existence d’une grammaire universelle, un ensemble de principes linguistiques préalables à tout apprentissage. Cependant, un article récent attaque ce point de vue en montrant que, sur la base de l’écoute de quelques dizaines de phrases, un algorithme d’apprentissage bayésien hiérarchique parvient à sélectionner, parmi des millions de règles, celles de la grammaire universelle (Perfors, Tenenbaum & Regier, 2011). Il ne serait donc pas nécessaire de supposer que celles-ci soient innées.
La mise à l’épreuve empirique de cette idée reste presque entièrement inexplorée, car seules quelques recherches empiriques ont porté sur la capacité de très jeunes enfants à apprendre la grammaire. À dix-sept mois, les enfants repèrent l’alternance de mots de fonction (comme l’article « le ») et de noms communs (comme « chien »). À un an, ils extraient la structure grammaticale d’une séquence de syllabes, et la généralisent à des séquences nouvelles. Surtout, l’expérience princeps de Marcus et de ses collaborateurs montre que, dès sept mois, les bébés sont sensibles à des structures abstraites ou « algébriques » dans la répétition d’une série de syllabes (Marcus, Vijayan, Bandi Rao & Vishton, 1999). Prolongée chez l’adulte (Pena, Bonatti, Nespor & Mehler, 2002), cette recherche suggère que, dans le cerveau humain, deux mécanismes très différents seraient à l’œuvre au cours de l’apprentissage de séquences : (1) un mécanisme d’apprentissage statistique, sensible aux probabilités de transition, et (2 un mécanisme d’apprentissage de règles abstraites, tout-ou-rien, qui extrait des règles algébriques (ABB, AxC, etc.). Dès la seconde année de vie, le second mécanisme permettrait à l’enfant de découvrir des règles abstraites sur des items non-adjacents (Gomez & Maye, 2005).
Un article récent s’attaque au défi particulier que pose l’apprentissage des nombres et du comptage (Piantadosi, Tenenbaum & Goodman, 2012). En effet, si les très jeunes enfants apprennent facilement à réciter les nombres « un deux trois quatre… », ils n’en connaissent pas nécessairement le sens (Wynn, 1990). Pendant plusieurs mois, ils apprennent, un à un, le sens de chacun des nombres un, deux, trois, etc. Ce n’est que vers trois ans et demi, qu’ils font soudain un saut conceptuel remarquable : ils comprennent que chaque nom de nombre correspond à une quantité bien précise. Piantadosi et collaborateurs parviennent à rendre compte de ces observations par apprentissage bayésien au sein d’un espace de formules du lambda-calcul, un « langage de la pensée » doté de primitives et de lois de composition. L’algorithme proposé parvient à découvrir les règles récursives qui régissent un domaine comme celui des nombres.
Conclusion
Même si l’hypothèse du bébé statisticien reste spéculative, elle s’avère extrêmement productive, sur le plan empirique autant que théorique. Une série d’expériences récentes bouleverse nos connaissances en démontrant l’étendue et la subtilité des inférences qu’un enfant de moins d’un an est capable de déployer. Il n’est pas exclu que le cerveau de l’enfant abrite, d’emblée, un mécanisme rapide d’inférence. Les modèles bayésiens de l’apprentissage ne sont qu’en partie innéistes. Certes, ils supposent l’existence d’une machinerie complexe d’inférence probabiliste et d’un très vaste espace d’hypothèses (qui, dans l’espèce humaine, à la différence peut-être de toutes les autres espèces animales, inclue les fonctions récursives). Mais ils reposent également sur une sélection hiérarchique qui élimine massivement les hypothèses inappropriées et converge rapidement vers des catégories ou des règles abstraites. En ce sens, ces modèles ne font que préciser la maxime proposée par Jean-Pierre Changeux dans L’homme Neuronal (1983) : « apprendre, c’est éliminer ».
Si vous voulez ne savoir plus regardez ces conférences et téléchargez les supports de cours pour avoir les références.