L’intelligence artificielle n’existe pas de Luc Julia

Notes condensées du livre l’intelligence artificielle n’existe pas de Luc Julia.

  • Pour faire croire aux gens que Siri était « intelligent », nous avons volontairement introduit une dose de stupidité. C’est ce que j’appelle le paradigme de la « boîte de nuit » : quand Siri ne comprend pas ce qui se passe autour d’elle, elle va faire ce que vous faites en boîte pour ne pas paraître stupide. C’est-à-dire acquiescer sans comprendre et sourire un peu bêtement ou changer volontairement de sujet. Le succès de Siri, c’est grâce à l’introduction de la stupidité artificielle !
  • j’ai instauré dans mes équipes le « twenty percent free time« . Le principe est simple : pendant 20% de votre temps, vous faites ce que vous voulez, sauf travailler sur les projets pour lesquels vous avez été embauché. Dans la mesure où on ne peut pas être en pleine capacité dix heures par jour, je préférais que mes équipes soient à fond pendant six heures plutôt que moyennes pendant dix.
  • En 1957, Frank Rosenblatt a inventé un algorithme d’apprentissage appelé le perceptron. Il prétendait simuler au plus près les fonctions d’un neurone. Avec le perceptron, on parlait en dizaine de neurones. Alors qu’en ce qui concerne le cerveau, on parle de 100 milliards de neurones. Le perceptron et les réseaux de neurones n’ont rien à voir avec notre cerveau. Nous ne savons même pas aujourd’hui comment fonctionne notre cerveau.
  • Les hivers en IA ont été causé par l’absence d’Internet et sa quantité massive de données.

Comment en est-on arrivé là ?

  • La démocratisation des ordinateurs et le rôle fondamental joué par Internet en matière de multiplicité des sources et de volume des données ont permis le retour en force des réseaux de neurones. Mais un autre élément très important : la puissance de calcul a fait son apparition à peu près au même moment.
  • Jusqu’en 2001 on utilisait essentiellement les CPU pour faire tourner les algorithmes. Les CPU ont typiquement 1, 2, et jusqu’à 12 coeurs qui peuvent faire toutes sortes de calculs très rapidement. Dès les années 70, on a pensé à utiliser des coprocesseurs pour y déporter les tâches d’affichage simples mais gourmandes en ressources car à effectuer en parallèle, pour ne pas surcharger le CPU. Les GPU sont alors apparus pour gérer des écrans avec de plus en plus de pixels, de couleurs et de fonctionnalités devenant des processeurs massivement parallèles avec des milliers de coeurs. En 2001, les scientifiques ont commencé à vouloir utiliser les GPU pour des calculs matriciels pas toujours liés à l’affichage, mais il n’y avait pas de moyens simples d’accéder aux ressources des GPU. Il a fallu attendre 2006 que Nvidia mettent à disposition des programmeurs la librairie CUDA pour accéder à ces fonctions. La communauté des réseaux de neurones, gourmande en calcul matriciel fortement parallèle, n’a eu besoin que de peu de temps pour s’apercevoir qu’utiliser une telle architecture permettait des gains de performances énormes pour des réseaux de plus en plus complexes. Ouvrant les portes de la discipline à une nouvelle forme d’apprentissage, l’apprentissage profond, le « Deep Learning ». L’adaptation du matériel aux spécificités des algorithmes de ML et DL et à leurs infrastructures ne faisait que commencer. En 2016 Google a sorti un nouveau type de processeurs, les Tensor Processing Units, spécialisés dans son outil d’apprentissage automatique, TensorFlow.

Un danger ?

  • Le véritable danger de l’IA et des robots vient de nous. Si nous décidons de créer et de programmer délibérément des robots tueurs ou des chatbots racistes. La solution réside dans la régulation, mais le risque est de casser l’innovation.
  • L’intelligence augmentée est en train de transformer de fond en comble la science actuelle. De la physique à la cosmologie en passant par la génomique, toutes ces sciences utilisent aujourd’hui l’IA pour ses capacités d’analyse ou de classification automatique. Il faut s’attendre à encore beaucoup de progrès dans ces domaines-là.
  • Je définirais l’intelligence comme la capacité à casser les règles, innover, s’intéresser à ce qui est différent, à ce que l’on ne connaît pas. Pour moi, être intelligent, c’est avoir de la curiosité, des curiosités diverses. Mais je la vois aussi dynamique, globale, capable d’abstractions et susceptible d’évoluer au cours du temps.

L’innovation c’est quoi ?

  • L’innovation est l’un des marqueurs de l’intelligence. Car elle permet d’aller au-delà de ce qu’on pense possible ou connu, en cassant les règles et les croyances du moment.
  • Deep Blue, Watson ou AlphaGo, on a donné à la machine des règles qu’elle a suivies ou des faits qu’elle a recrachés, en utilisant des stratégies, des raisonnements et des chemins bien différents de ceux qu’un cerveau humain aurait emprunté. Le tout d’une manière bien peu économe en ressource.
  • Dans les méthodes de ML ou DL, il s’agit d’engranger le maximum d’exemples et de situations représentés ou classifiés statistiquement avec une probabilité lorsqu’un événement similaire se présente au système. Il n’y a là aucune innovation.
  • Innover, c’est faire quelque chose que personne n’a fait avant, en repoussant les barrières de la connaissance. C’est se mettre en situation d’inconfort. Parler à des gens d’un domaine complètement différent du nôtre. Appliquer les règles connues dans un domaine à un autre, en remettant notre savoir en question, et en faisant preuve d’esprit critique.
  • Le problème de l’Internet of Things c’est que l’objet est que connecté à lui même, au travers d’une application qui ne lui sert à rien. A l’avenir il faudra le connecté avec d’autres objets pour le rendre utile.

La machine learning …

  • Si aujourd’hui on parle essentiellement de Machine Learning tout a commencé avec des systèmes experts et des moteurs de règles. En gros, on disait « s’il se passe ça, il faut faire ça », « s’il fait chaud, allume la clim ». 
  • Elon Musk ne maîtrise pas toutes les technologies et ça se ressent dans ses propos sur l’intelligence artificielle. Ces propos sont plus fondés sur des croyances inspirées de la science-fiction que sur des faits précis. Mark Zuckerberg s’oppose à la vision de Musk. Bill Gates a répondu que le « développement de l’intelligence artificielle signifiera tout simplement que la société sera capable d’être plus productive en fournissant moins d’efforts ». Ajoutant même que « l’IA peut être notre amie ». 
  • Autour de 2020, l’économie digitale, qui regroupe internet, les terminaux, les réseaux, les cryptomonnaie, la technologie blockchain et les centres de stockage pèsera pour 20% dans les consommation électrique de la planète.
  • Il est important de chercher des solutions qui fonctionnent plus comme notre cerveau humain, c’est-à-dire en utilisant beaucoup moins d’énergie. DeepMind consomme plus de 400 000 watts par heure juste pour jouer au go. Notre cerveau fonctionne avec seulement 20 watts par heure et peut effectuer d’autres tâches. Au lieu de continuer la voie de big data, il faudrait se trouver vers la small data.