Stanislas Dehaene et Yann Le Cun au sujet de l’intelligence

Notes condensées extraites du livre La plus belle histoire de l’intelligence de Stanislas Dehaene et Yann Le Cun

  • Nous sommes des automates dans les trois quarts de nos actions. Lorsque nous marchons nous n’effectuons pas des séries de contractions musculaires conscientes, et nous voyons sans cesse bien des choses sans pour autant le remarquer. L’intelligence qui nous fait percevoir ou agir n’est pas toujours consciente.

Qu’est-ce que l’intelligence ?

  • Le fond de toutes les connaissances et de tous les raisonnements viennent de l’expérience. Les observations que nous faisons, sur les objets extérieurs ou sur les mouvements intérieurs de notre âme, fournissent à notre esprit les matériaux de toutes ses pensées. Ainsi, la page blanche qu’est l’âme humaine à la naissance s’enrichit grâce à une première source : les sensations. Notre intelligence ne relève donc que de l’acquis et elle est accessible à tous. La seconde source de tous les raisonnements, c’est la perception des opérations de notre âme sur les idées qu’elle a reçues de nos sens : la réflexion.
  • Contrairement à un être humain, un animal est un bout de quelques mois ce qu’il sera toute sa vie. Et son espèce au bout de mille ans, ce qu’elle était la première année de ces mille ans. Donc, il n’est pas question d’apprentissage et ce que l’on prend pour de l’intelligence chez les animaux n’est que l’instinct. Mais l’homme doit user de sa propre raison. Il n’a point d’instinct et doit se fixer lui-même le plan de sa conduite.
  • Ce qui distingue le plus mauvais architecte de l’abeille la plus habile, c’est que le premier a construit la cellule dans sa tête avant de la réaliser dans la cire.
  • On peut parler d’intelligence dès qu’il y a une adaptation d’un organisme à son milieu.
  • Les huîtres et les plantes disposent d’un réseau interne de traitement des informations fondé sur des échanges chimiques, moléculaires, plutôt que neuronaux. Même chez les animaux, au niveau suivant d’intelligence, on n’a toujours pas de cerveau à proprement parler. Mais des systèmes de communication qui passent par des groupes parfois extrêmement restreints de neurones.
  • L’intelligence se manifeste dès que début de la vie et elle fait évoluer les êtres vivants qui la font évoluer en retour.
  • La crème de l’intelligence c’est la planification. La capacité d’élaborer un plan car elle permet, grâce à une exploration mentale, de faire l’économie d’une exploration réelle. Il y a un risque et un coût énergétique à exécuter les actions réelles dans le monde extérieur. L’intelligence permet de simuler ces actions à l’intérieur de soi-même, d’anticiper sur leurs conséquences et de faire le meilleur choix sans avoir à bouger de là où l’on se trouve.
  • On croit avoir un seul esprit. Ce sont en fait plusieurs organismes qui tentent de se coordonner mais tirent parfois dans des directions différentes.

L’intelligence et l’information

  • L’intelligence ne se trouve certainement pas dans le stockage de toutes les informations, mais au contraire dans l’extraction d’informations, dans leur tri et leur mise en forme. Les sens reçoivent des données brutes et le travail de nos circuits neuronaux consiste à les traduire en données utilisables.
  • Si je mémorise une information, c’est parce que mon cerveau estime qu’elle me servira plus tard. Je vais donc la projeter dans le futur, en la stockant. Notre cerveau choisit d’utiliser des circuits de mémoire différents selon l’intervalle de temps au bout duquel cette information nous sera utile. Si nous révisons une information à intervalles réguliers, c’est l’intervalle de temps entre deux révisions qui va déterminer la longévité du souvenir. La fréquence idéale de révision est une fraction de l’ordre de 20 ou 30% du temps total pendant lequel on souhaite retenir l’information.
  • Les espèces que nous avons domestiquées disposent sûrement d’une sensibilité plus grande. Car elles ont connu une évolution par sélection artificielle. Dès le début, nous les avons choisies pour leur sensibilité à nos états mentaux et pour une capacité d’apprentissage importante. On sait qu’un chien, aujourd’hui, peut apprendre au moins deux cents mots. Il utilise des indices subtils. Si on donne un chien qui a déjà appris 200 mots un 201 mot, nouveau pour lui, en lui demandant quelque chose comme “Va chercher le gapoula”. Il rapporte le seul objet dont il ne connaît pas encore le nom.
  • La notion de culture : Nous ne sommes plus simplement seuls avec notre cerveau, entourés de nos congénères. Notre cerveau habite un monde “augmenté” dans lequel les outils possèdent leur intelligence propre et qui augmente notre propre intelligence. Au départ, utiliser quelques galets ne constituait pas une avancée considérable. Mais aujourd’hui nous ne serions pas grand-chose sans les outils.

Aller plus loin

  • L’animal humain a fait une découverte géniale qui multiplie ses capacités : la représentation symbolique. Celle-ci lui permet d’écrire avec seulement quelques lettres tout ce qui peut être écrit ou avec quelques chiffres de calculer tout ce qui peut être calculé.
  • Le langage humain possède une capacité de communication combinatoire. C’est ce qu’on appelle “faire de l’infini avec du fini”. Nous disposons d’un petit jeu de symboles, mais leur possibilités de combinaisons sont tellement grandes que, par le biais du langage, on peut évoquer un nombre potentiellement infini de situations dans le monde extérieur.
  • Le lexique des chiens peut atteindre plusieurs centaines de mots. Certains singes ont appris des dizaines de symboles ou des gestes. Mais ce qui leur manque, c’est la syntaxe. Cet arrangement des mots les uns par rapport aux autres dans un ordre bien précis, avec une structure organisée et qui fait sens. C’est exactement là que se situe la singularité de l’espèce humaine. On n’a jamais pu montrer que des animaux étaient capables d’utiliser l’ordre des mots en les combinant différemment pour en modifier le sens.
  • Derrière la surface des langues humaines, l’esprit humain est contraint génétiquement. En sorte qu’il n’existe qu’un espace limité de combinaisons possibles. Toutes les grammaires humaines, toutes les langues humaines obéissent au même patron général. Seuls quelques paramètres varient et définissent les différentes langues.
  • L’intelligence est la capacité de s’adapter au monde extérieur. Il faut donc apprendre les paramètres de ce monde. Mais tout ne doit pas être appris. L’évolution nous a dotés de circuits innés, et le cerveau de l’enfant est déjà très organisé à la naissance. L’intelligence naît donc d’une combinaison d’a priori et d’une fraction de données qui nous permettent de nous adapter à un milieu spécifique.
  • La taille de la boîte crânienne est limitée. Pour obtenir une plus grande surface de cortex, il faut que le système se plisse. C’est probablement ainsi que l’on a pu augmenter le nombre de nos neurones. Mais les plus présentent un autre avantage : ils rapprochent les surfaces, ce qui permet de minimiser la longueur des connexions. Par rapport à un ordinateur, le cerveau est tout de même extraordinaire. Un organe dispose de quatre-vingts milliards de neurones, donc de processeurs … mais compactés dans un espace très restreint, et qui consomment seulement vingt watts ! A l’heure actuelle personne ne sait reproduire cette puissance de calcul sans consommer cent mille fois plus d’énergie.

Le cerveau des bébés

  • Le cerveau du bébé sait qu’il va y avoir, dans le monde extérieur, des groupes qui comprennent un certain nombre d’objets. Il sait également ce qu’est un objet : une forme compacte, localisée dans l’espace, qui se déplace de façon continue. Il s’attend à voir des objets rigides et il a, quelque part, a connaissance implicite que deux objets ne peuvent pas occuper la même position dans l’espace, qu’ils ne peuvent pas s’interpénétrer. Ces connaissances sont comme des axiomes qui vont présider à tout le reste des apprentissages.
  • Un bébé fait très tôt la distinction entre ce qui relève des relations de cause à effet physiques, des interactions entre les choses, et des personnes, de leurs intentions et de leur préférences. Il fait un tri entre les différents types d’objets et, surtout, entre les objets du monde physique et les personnes. L’un des critères dont se sert l’enfant est le déplacement de l’objet. Si ça se met en route seul, c’est un animal, donc quelqu’un doué d’une intention. Dans ce cas, le bébé prête plus attention à l’intention qu’à la trajectoire physique.

Le QI

  • QI : il s’agit d’un test ancien; Dérivé de l’échelle de psychométrique créée par Alfred Binet en 1904 pour évaluer le retard mental. Ce test mesure certaines capacités d’abstraction du cerveau, mais certainement pas la totalité de ce que l’on appelle l’intelligence. Celle-ci est collective. Elle émerge de toute une collection de système spécialités -reconnaître un visage, commande une action, faire attention à gauche.. Tous ces systèmes sont modulaires. Donc si on voulait vraiment mesurer toute l’intelligence, il faudrait tester la compétence de chacun de ces systèmes qui sont extrêmement nombreux. Ce n’est pas ce que fait le QI.
  • Le QI mesure l’aptitude à faire circuler l’information et à adapter le fonctionnement cérébral à chaque problème particulier, posé pour la première fois. C’est une vision particulière de l’intelligence, pas la seule.
  • L’école débute assez tard. On est en train de découvrir à quel point, au cours des premiers mois de la vie, le cerveau est en bouillonnement. Il vit une phase d’apprentissage extraordinaire. Il a fallu mettre au point des méthodes nouvelles pour le voir, parce qu’à ce stade, le bébé ne produit pas grand chose : il ne bouge pas beaucoup et n’est pas capable d’articuler. Mais au niveau de la compréhension, c’est-à-dire de l’intégration du monde extérieur dans son propre cerveau, il se passe énormément de choses.
  • Les systèmes d’écriture ne cessent de se transformer. Chez les Romains, il n’y avait pas d’espace entre les mots. L’invention des espaces a permis d’accélérer énormément la vitesse de lecture. Cous pouvons désormais utiliser notre propre système visuel pour décomposer le texte en objets.
  • La mémoire de travail, la mémoire immédiate, celle du numéro de téléphone que l’on oublie après l’avoir composé. Des expériences de psychologie démontrent que nous possédons tous environ quatre cases de mémoire. Sans qu’il y ait de variations importantes d’une personne à l’autre. En revanche, nous apprenons à nous en servir, et c’est là que l’on trouve les plus grandes différences. La plupart d’entre nous parviennent en effet à se servir de ces quatre cases de mémoire pour retenir à peu près sept chiffres quand on nous les récite dans le désordre.

Le futur

  • On a trop tendance à attribuer les différences entre individus au fait qu’ils soient “doués” ou pas pour ceci ou cela. La recherche montre que la bonne question à se poser, c’est plutôt : “Est-ce qu’ils ont développé des stratégies efficaces ? Est-ce qu’ils se sont entraînés ou pas dans tel domaine ? Est-ce qu’ils ont travaillé ?”.
  • La prochaine évolution passera par les machines. Les interfaces cerveau/machine seront beaucoup plus efficaces. Notre espèce a déjà accompli un chemin considérable. Un écran d’ordinateur qui affiche de l’écriture, des graphiques et des photos augmente considérablement la bande passante avec laquelle notre cerveau peut interagir avec la machine. Je pense que l’on sous-estime l’importance des diagrammes comme ceux qui nous montrent l’évolution du chômage et ou coût de la vie. C’est une remarquable utilisation de notre système visuel pour faire passer des milliers de données. D’un simple coup d’oeil, on écarte les données erronées, on saisit les tendances, on comprend dans quel sens elles évoluent, et on parvient à extrapoler.
  • Le neurone artificiel de McCulloch et Pitts était très simple : il avait plusieurs entrées et une sortie binaire. Il calculait une somme pondérée de ses entrées. Si la somme pondérée était positive, la sortie était 1, sinon elle était 0. Un réseau de neurones artificiels est une collection de ces neurones interconnectés entre eux. Un peu à la manière des neurones du cerveau connectés entre eux par les synapses.

L’apprentissage

  • Le siège social de l’apprentissage dans le cerveau des animaux et des humains se situe dans la modification des connexions entre neurones, ce que l’on appelle les synapses. Ainsi, ce qui constitue notre savoir, notre mémoire, notre personnalité, etc. réside dans la force des connexions entre les neurones. Pas seulement le fait qu’un circuit soit là ou pas. Le poids des connexions est important. Certaines sont renforcées, d’autres moins, c’est comme cela que l’on apprend. Si deux neurones sont activés en même temps, la connexion qui les reli augmente son efficacité. Inversement, s’ils sont activés à contretemps, la connexions diminue son efficacité. L’efficacité correspond à la valeur du poids. Chacun de nos neurones est connecté à des centaines de milliers d’autres neurones, et le calcul est plus compliqué qu’une simple somme pondérée suivie d’un seuil.
  • Franl Rosenblatt avait inventé une machine capable d’apprentissage dit “supervisé”, inspirée des théories de Hebb, McCuloch et Pitts, qu’il a appelée le Perceptron. C’est un ordinateur analogique très spécial qui se présente comme une suite d’armoires, et ne calcule pas du tout comme les ordinateurs classiques. En réalité, le Perceptron comportait des neurones de McCulloch et Pitts qui calculaient des sommes pondérées en ajoutant des courants électriques passant à travers des résistances variables représentant les pondérations. C’était l’une des toutes premières machines capables d’apprentissage. Il devait “percevoir”, autrement dit reconnaître, des formes élémentaires. Et il a contribué à démarrer un nouveau champ d’investigation.
  • Au début la machine avait une sorte de rétine, composée d’une grille de cellules photo-électriques. On présentait une image simple à la machine, par exemple la lettre C peinte en blanc sur fond noir. L’image pouvait être vue comme un tableau de nombres : 1 lorsque la cellule photo-électrique voit du blanc, 0 quand elle voit du noir. Supposons que l’on ait décidé d’entraîner la machine à distinguer la lettre A de la lettre C, par exemple. Dans la version la plus simple du Perceptron, on aurait utilisé deux neurones de McCulloch et Pitts, un pour reconnaître les A et un pour les C. Pour savoir si l’image d’entrée contient un A ou un C, chacun des neurones calculait la somme pondérée de valeurs produites par les cellules photo-électriques. Pour que ça fonctionne, il fallait que les pondérations du neurone A constituent une sorte de pochoir pour la lettre A, et de même pour le neurone C. L’apprentissage du Perceptron consiste à modifier les pondérations après avoir montré à la machine une lettre 1 ou une lettre C.
  • L’apprentissage est une modification des pondérations. Comme dans le cerveau, où la modification des efficacités synaptiques est le siège de l’apprentissage. Les réseaux de neurones artificiels modifient leurs pondérations. Chaque neurone naturel est connecté à des dizaines de milliers d’autres neurones et à chaque fraction de seconde se calcule une somme pondérée des activations de ces autres neurones. Lorsque la somme pondérée dépasse un certain seuil, le neurone s’active.
  • Comment créer un algorithme qui permette de calculer le chemin le plus court entre deux points ? Nous utilisons ça tous les jours sur nos smartphones. L’algorithme pour calculer cela n’est pas trivial. Quelqu’un l’a inventé. Avant qu’il soit inventé , le problème relevait de l’intelligence artificielle. Mais à partir du moment où l’on a trouvé un algorithme pour le résoudre, ça n’a plus fait partie de l’intelligence artificielle.

L’éducation et ses limites

  • On ne connaît pas les limites de l’éducation. Hélas, sur le plan politique, il faut être réalise : éduquer, c’est prendre un risque. On le voit aujourd’hui aux Etat-Unis : mieux éduquer tous les citoyens n’est pas forcément dans l’intérêt d’un régime politique.
  • Un phénomène intéressant s’est manifesté : depuis que les machines jouent mieux que les humains, ceux-ci sont devenus meilleurs. Grâce à la possibilité de s’entraîner et d’apprendre avec les machines, ils ont progressé. Par ailleurs, la combinaison humain/ordinateur reste imbattable, bien meilleure qu’un ordinateur seul.
  • Je me suis trouvé dans une situation passionnante : une quarantaine de personnes disputaient en même temps une partie contre un ancien champion de France. Celui-ci, ne passait pas plus de deux secondes avant de jouer un coup. Pourtant il a battu tout le monde à plate couture en quinze coups. Il s’agissait donc purement d’intuition,il voyait l’échiquier et décidait en deux secondes. Il n’y avait plus aucun raisonnement conscient de sa part. Le jeu d’échecs était intégré dans son subconscient. Mais il aurait eu du mal à expliciter son raisonnement.
  • Les systèmes experts : ça consiste à s’asseoir avec un expert et le passer à la question. Pour le diagnostic médical on lui demande ce qu’il fait lorsqu’une personne vient le voir avec l’expression de certains symptômes. On réduit donc le processus de diagnostic à un ensemble de règles. Il applique ces règles dans certaines conditions, c’est-à-dire des faits observés. Comme le problème ou la douleur que vient déclarer le patient. Il ne s’agit pas là d’un algorithme mais d’un ensemble de règles qui peuvent être appliquées dans le désordre.
  • Dans un système expert, il faut une sorte d’unité centrale qui interprète l’ensemble. On appelle ça un moteur d’inférence.
  • La limitation principale du Perceptron est qu’il ne comporte qu’une seule couche de neurones dont les pondérations sont modifiables par apprentissage. Des images ou autres signaux pouvaient être pré-traités par des opérations conçues “à la main”. Mais comme il n’y avait qu’une seule couche de poids adaptatifs, cela limitait la complexité des objets que le système pouvait percevoir. On ne pouvait que se limiter à des choses très simples, comme des caractères imprimés de fiable résolution et très peu de variations de style. Mais il était exclu d’identifier une table, une chaise ou un chien dans une photo. C’est ce handicap qui avait fait tomber le système en désuétude dans les années 1960.

Une histoire d’algo’

  • C’est au cours des années 1980 que l’on a découvert des méthodes permettant d’entraîner des réseaux de neurones à couches multiples où toutes les pondérations et toutes les connexions étaient adaptatives. Cela n’a été possible que grâce à un algorithme particulier dit de rétropropagation de gradient.
  • L’algorithme de rétropropagation de gradient : imaginons la machine entraînable comme une boîte noire avec des boutons qui indiquent la force de la pondération entre les neurones. A l’entrée, il y avait une caméra, à la sortie une lampe. Supposons que la machine soit un système de sécurité pour les voitures et que la lampe doive s’allumer si on lui montre une image de piéton. Il est en effet utile de disposer d’un système qui détecte un piéton dans son environnement et le signale. Pour cela on pouvait entraîner la machine en lui montrant des tas d’images sans piéton. Quand il y en avait un, on lui disait : “C’est un piéton, allume la lampe rouge”. Si elle ne l’allumait pas, il était nécessaire d’ajuster tous les réglages pour que la machine allume la lampe. Et il pouvait y avoir plusieurs dizaines de millions à ajuster. Voilà pourquoi, dans un réseau de neurones où les boutons correspondent aux pondérations des connexions entre neurones, nous avons dû trouver une méthode qui calcule très efficacement dans quel sens et de combien chaque bouton doit être tourné pour que la lampe s’allume plus ou moins. Cette méthode, c’est la rétropropagation de gradients. Le gradient étant la liste de tous les déplacement des boutons, qui vont augmenter ou diminuer l’intensité de la petite lumière rouge d’une quantité donnée. A chaque représentation de l’image, les pondérations sont ajustées un tout petit peu de manière à augmenter la lumière si l’image contient un piéton et à la diminuer sinon. Après quelques millions d’images présentées plusieurs dizaines de fois, la machine a appris le concept de piéton et peut détecter n’importe quel piéton, y compris des piétons qu’elle n’a jamais vus.

L’intelligence en 3 modules

  • Les réseaux convolutifs sont une manière particulière de connecter les neurones dans des réseaux compliqués à plusieurs couches afin de les adapter à la reconnaissance d’images.
  • Je pense qu’on l’on pourrait réduire un système intelligent à trois modules essentiels : un module de perception qui essaie d’estimer l’état du monde à partir de ses perceptions ; un module agent, qui produit des actions et agit sur le monde ; un module objectif qui calcule si, d’une certaine manière, l’agent est dans un état “heureux” (satisfait) ou pas.
  • Si l’on accepte cette proposition des trois modules, on peut construire un système artificiel qui possède ces modules-là. Des émotions existeront alors, qui seront le résultat d’anticipations de satisfaction ou de non-satisfaction des objectifs. Elles seront très similaires à ce qui se passe chez les humains om l’on a l’anticipation du bonheur qui provoque la joie ou l’anticipation du danger qui fait naître la peur.
  • Comprendre l’autre, ce n’est pas seulement écouter ce qu’il dit : c’est également ressentir ce qu’il veur dire, parfois même ce qu’il ne veut pas dire. L’émotion est aussi un véhicule de communication et elle fait partie intégrante de l’intelligence. Or les ordinateurs sont sans coeur.
  • Les bébés n’ont pas le sens de la permanence des objets et ne savent pas que si on cache un objet derrière un autre, il est toujours là. Ils ignorent aussi que si un objet n’est pas soutenu, il tombe. Si le bébé prête attention à une situation, c’est que celle-ci viole son moèdle du monde. Il apprend la physique intuitive, certes, mais il apprend aussi que les adultes vont le ramasser et le lui redonner ! Il comprend ainsi qu’il détient une influence sur le monde ! En tout cas, la capacité à prédire est nécessaire face à une situation compliquée, ne serait-ce que pour planifier un mouvement. Si l’on veut saisir un objet placé derrière une autre, il faut contourner. Ça, c’est prédire en utilisant un modèle du monde. Puis on planifie une séquence d’actions qui va satisfaire ces objectifs. Pour cela, il faut un module qui essaie de prédire ce qui va se passer et calcule le bénéfice ou l’inconvénient des conséquences sur le monde.
  • Si on essaie de voir comment se répartissent les différents modules dans le cerveau, on voit que le module “objectif” est une petite fonction à la base du cerveau qui crée notre motivation et calcule nos émotions. Une part, beaucoup plus complexe, est entraînée par l’éducation. Par contre, la partie qui héberge la prise de décision et la prédiction se situe à l’avant du cerveau. Le néocortex préfrontal contient les fonctions de prédiction et de calcul des actions à mener, dans ce que l’on appelle la partie exécutive.

Machine intelligente

  • L’échec, une prédiction qui ne s’est pas réalisée, peut enrayer le fonctionnement de l’humain par la production de certaines molécules. Or l’ordinateur n’a pas de fonctionnement chimique.
  • L’apprentissage par renforcement : il s’agit d’un mécanisme dans lequel on laisse la machine agir pour produire une répondre. Ensuite, on lui dit “C’était bon” ou “Ce n’était pas bon”. L’ordinateur peut entraîner directement un module à produire des actions qui vont maximiser les renforcements positifs.
  • Notre expérience de l’intelligence porte presque uniquement sur celle des humains : la nôtre et celle des autres avec qui on interagit. Nous ne considérons pas comme suffisamment intelligents pour prendre en compte les chiens, chats ou autres animaux. Nous n’arrivons pas vraiment à nous dire qu’une entité puisse être intelligente sans avoir toutes les qualités et tous les défauts des humains. Ainsi, nus avons du mal à imaginer qu’une intelligence, même supérieure, n’ait aucun désir de dominer ses congénères. Or, ce désir a été construit en certains d’entre nous par l’évolution, pour l’organisation de nos sociétés et la survie de notre espèce. À cause du fait que les humains ont besoin de ressources pour survivre. Plus on a de ressources et plus on a d’influence sur les autres, et moins on a besoin d’aller chercher des ressources nous-mêmes. Il n’y a donc aucune raison pour que ce désir de domination soit présent dans les systèmes d’intelligence artificielle ou chez les robots. Sauf si on les construit explicitement dans ce but. Les scénarios à la Terminator, montrant les robots qui veulent absolument dominer l’humanité, ne tiennent pas. C’est une attitude qu’ils ne peuvent pas développer tout seuls, même par accident. Il faudrait qu’on les ait programmés pour cela. Ce n’est que la projection d’un fantasme.
  • Les machines doivent nous imiter jusqu’à un certain point. Nous allons devant leur enseigner des objectifs. Lorsqu’on élève un enfant, on doit lui apprendre à distinguer le bien du mal. Il faudra faire ça aussi avec les ordinateurs, pour que leurs valeurs soient alignées sur les nôtres et que nous puissions interagir agréablement avec eux. Ils doivent nous comprendre pour interagir agréablement avec nous.
  • Apprentissage adverse : Deux machines dans notre système intelligent. L’un apprend à prédire et l’autre à juger la prédiction. Ils s’entraînent l’un contre l’autre.

La conscience

  • Je ne sais pas définir la conscience. Ni pour les machines ni pour les humains. Peut-être que notre modèle du monde doit inclure un modèle de nous-mêmes. On ne peut avoir des millions de modèles du monde, notre cerveau n’est pas assez grand. Nous avons donc probablement un modèle unique, que nous configurons pour chaque nouvelle situation. En intelligence artificielle, on est encore très loin de tout ça.
  • On ne sait pas comment formuler le problème de l’apprentissage de manière à la machine. “Voilà ce qui s’est passé. La réponse que tu as donné ne correspond pas à ce s’est produit mais ta réponse n’est pas fausse”.
  • La recherche en neurosciences le montre : faire la synthèse de nombreuses informations est un aspect très important du traitement conscient dans notre cerveau. Rassembler les informations et être capable de les intégrer, qu’elle que soit leur provenance, constitue une des difficultés majeures de l’intelligence artificielle actuelle. On sait réaliser des systèmes très spécialisés qui jouent au go ou savent reconnaître des visages. Mais la difficulté consiste à les intégrer dans un système unique, capable d’exécuter plusieurs tâches. Or, cet aspect “multitâches” me paraît fondamental, parce qu’il est caractéristique du cerveau humain. Nous sommes extraordinairement flexibles et je crois que cela caractérise notre intelligence. Très rapidement nous sommes capables de nous adapter à une situation nouvelle sans avoir besoin de millions d’essais d’apprentissage. Quand on entraîne des singes, on s’aperçoit qu’il leur faut parfois des milliers d’essais avant de comprendre ce qu’on veut leur enseigner. Pour reproduire l’intelligence humaine, il faudrait concevoir un système qui se configure tout seul.

L’intelligence humaine

  • La théorie de Yann Le Cun est que, située dans le cortex frontal, se trouve une sorte de machine que l’on peut configurer pour chaque situation particulière. Nous disposons d’un modèle du monde, une espèce de physique intuitive qui nous permet de prévoir a priori les conséquences d’un acte et donc de planifier la séquence d’actions nous menant à cet objectif. Il est possible que nous ayons un modèle du monde configurable dans le cortex préfrontal qui nous permette de faire face à une situation mais nous n’en avons qu’un seul. C’est donc le même module qui doit être réutilisé pour chaque nouvelle situation. Cela explique aussi qu’on ne puisse faire, consciemment, qu’une seule chose à la fois. Ce module configurable est peut-être spécifique de l’intelligence humaine.
  • Il faut pouvoir router l’information pour l’envoyer dans les bons processeurs. La conscience correspond à un système de deuxième niveau qui permet de dépasser le fonctionnement en modules. À ce niveau, notre cerveau parvient à faire circuler n’importe quelle information sur lui même, ce qu’on appelle “introspection”. Nous devons disposer d’une sorte de catalogue mental de ce que nous savons faire, et de ce que contiennent les modules. Ce catalogue doit être assez raffiné pour savoir non seulement ce qu’un système sait faire, mais en combien de temps et avec quelle probabilité d’erreur. C’est essentiel à la flexibilité.
  • Il faut noter que l’apprentissage humain se fait, lui, avec très peu d’essais. Ce qui me frappe actuellement dans les algorithmes, c’est la quantité effroyable de données qu’il faut fournir au système pour qu’il en tire des conclusions.
  • Les bébés disposent de compétences précoces, probablement non apprises ou, en tout cas, acquises avec très peu d’apprentissage. Dès la naissance, leur cerveau possède une architecture pré-câblée, organisée, supérieure à ce que je crois voir dans les systèmes actuels d’intelligence artificielle. Lorsqu’on fait une IRM du cerveau des petits enfants, on ne voit absolument pas un paquet de connexions organisé au hasard, où tout serait connecté avec tout. On découvre au contraire un réseau extraordinairement organisé. Les aires propres à chaque modélité, visuelle, auditive ou tactile, sont déjà là. De plus, elles sont déjà interconnectées. Tous les grands faisceaux de connexions sont en place. Il y a, par exemple, un réseau particulier pour le langage qui est déjà spécifique. Si on fait écouter à un tout petit enfant sa langue maternelle, les informations auditives sont canalisées vers ce réseau bien précis, le même que chez l’adulte, et pas vers l’ensemble du cerveau. Il me semble que la composante innée est un peu sous-estimée dans les réseaux actuels d’intelligence artificielle.

Deep learning

  • Une partie des travaux faits en deep learning consiste à imaginer des architectures de réseaux, un peu similaires aux grands faisceaux de connexions dans le cerveau. Et cela, à un niveau encore un peu plus fin : en différenciant les aires du cortex visuel.
  • Certains détails biologiques importants n’ont été compris que très récemment. Comme le principe des plumes terminales, au bout des ailes, qui a été intégré aux avions parce que ça leur fait économiser du carburant et leur donne une meilleure stabilité en vol. En intelligence artificielle, ce type de biomimétisme ne fait que commencer. Il faut s’abstraire des détails biologiques. Mais, en même temps, étudier certains aspects qui n’ont pas été bien compris et dont l’importance peut être cruciale.

Divorce du couple Homme Machine ?

  • Dans le couple humain/ordinateur les machines ont de moins en moins besoin de nous. Nous avons encore du mal à accepter l’idée qu’un jour les machines puissent vraiment nous égaler.
  • Il y aura une individualisation des machines qui sera liée à leur expérience. En sciences cognitives, on ne fait plus la distinction entre cognition et émotion. Nous pensons que les émotions sont des calculs spécifiques qui ont évolué pour signaler des dangers ou des opportunités utiles à l’organisme. Il n’y a donc aucun raison de penser que l’intelligence émotionnelle soit exclue des machines.
  • Pourquoi notre cerveau accorde-t-il tant d’importance à la beauté, et les machines devraient-elles le faire aussi ?
  • Le jour où la machine aura une curiosité aussi large que l’espèce humaine. Qu’elle aura envie, par exemple, de découvrir les régularités géométriques, de faire des mathématiques pures comme nous le faisons; Je pense que l’on commencera à expliquer pourquoi nous sommes attirés par un tableau ou par un beau théorème.

La curiosité

  • La curiosité, pour une machine entraînée par l’apprentissage par renforcement, cela consiste à trouver un compromis entre l’exploitation et l’exploration. Je m’explique : vous allez déjeuner. Vous avez le choix entre restaurant habituel, que vous appréciez et dont vous connaissez bien la qualité -c’est l’exploitation. Et un nouveau restaurant qui vient d’ouvrir et qui peut être meilleur ou moins bon -c’est l’exploration. Si vous n’explorez pas, vous ne saurez jamais si le nouveau restaureant n’est pas meilleur que votre restaurant habituel. Pour entraîner un système à faire n’importe quelle tâche, il y a toujours ce compromis à trouver. Pour lui permettre d’explorer des voies qui ne sont peut-être pas les meilleures, mais qui permettent de savoir s’il en existe une autre plus intéressante que la stratégie employée actuellement.
  • Je pense que le curseur, dans l’espèce humaine, est largement du côté “explorer” — et notamment chez l’enfant, qui ne cesse de jouer et d’explorer des idée nouvelles.
  • Les êtres humains sautent souvent un peu trop vite aux conclusions, sans avoir suffisamment mis leurs hypothèses à l’épreuve. Notre cerveau apprend tellement vite que, parfois, sur la base de très peu d’informations, il tire des conclusions exagérées. Nous avons tendance à voir des causes cachées là où il n’y a que du hasard. Car notre espace d’hypothèses est très orienté vers la causalité. Il dit : “Si j’ai une ou deux fois A suivi de B, il est possible que A soit la cause de B.” Et l’on colle des hypothèses erronées sur le monde extérieur.
  • Les graphes mathématiques sont un bon exemple d’interaction entre l’ordinateur et l’homme. On fournit à la machine des milliers de nombres, et elle les dépeint sous une forme visuelle. Ce qui permet aux “microprocesseurs biologiques” de notre rétine et de notre système visuel d’en traîner les informations de façon efficace. La combinaison des deux, c’est un système homme / machine capable de détecter des relations, des tendances, des points de données déviantes avec une efficacité extraordinaire. Imaginez maintenant qu’on passe non pas par la rétine, mais par une interface plus directe. Une puce qui puisse échanger les informations encore plus rapidement.

Mémoire

  • Notre capacité de mémoire à court terme est relativement faible. On a du mal à retenir trois numéros de téléphone d’affilée. On peut imaginer une mémoire épisodique directement connectée sur le cerveau. Elle pourrait pallier des pertes de mémoire dont beaucoup de gens âgés sont victimes. A terme, il existera peut-être des systèmes d’augmentation de notre mémoire. Ils pourraient permettre de remplacer la méthode que l’on utilise depuis trois millénaires : l’écriture. L’écriture est une mémoire externe au cerveau, qui tente de pallier les limitations de notre mémoire interne.
  • En conclusion, je ne crois pas au remplacement. Je crois au déplacement. Au début du XXe siècle une grande partie de la population européenne travaillait dans les champs. Maintenant elle ne représente plus que 2%. Une grande partie du monde actuel va être automatisée. Il s’agit d’un déplacement : de nouveaux métiers apparaissent tous les jours.