Cet article vous est offert
Pour lire gratuitement cet article réservé aux abonnés, connectez-vous
Vous n'êtes pas inscrit sur Le Monde ?

La leçon d’un maître de l’intelligence artificielle au Collège de France

Vedette de l’intelligence artificielle, le Français Yann LeCun, donnera sa leçon inaugurale au Collège de France ce jeudi 4 février à 18 heures.

Par 

Publié le 04 février 2016 à 13h24, modifié le 04 février 2016 à 17h35

Temps de Lecture 5 min.

Yann LeCun, Paris, 10 june 2014. Copyright Julien Faure.

Une des vedettes de l’Intelligence artificielle, le Français Yann LeCun, donnera sa leçon inaugurale au Collège de France ce jeudi 4 février à 18 heures. A cette occasion Le Monde republie le portrait qui lui avait été consacré le 8 juin 2015 au moment de l’inauguration du premier laboratoire de Facebook en France sous la direction de ce prestigieux chercheur.

« Yann est un dieu dans sa discipline », lancent en cœur deux jeunes disciples qui viennent d’être recrutés par le maître pour travailler chez Facebook, dans le premier centre de recherche d’Europe continentale de ce géant du Web. Cette équipe spécialisée en intelligence artificielle compte déjà 45 membres, dont six à Paris depuis l’ouverture officielle de cette antenne le 2 juin 2015.

Comme tout dieu, l’idole a plusieurs noms, « Yawn Lee Koon », « Yen Leh Kahn », « Yan Lee Chun »… « Aux Etats-Unis, ils ont toujours eu du mal à écrire mon nom, Le Cun. J’ai fini par l’écrire en un seul mot », glisse en souriant ce chercheur de 55 ans, dont près de la moitié passée Outre-Atlantique. Il a rejoint Facebook fin 2013, tout en restant professeur à l’université de New York. « Un Prix Nobel de physique américain s’est même offusqué que je prononce mon nom en “in”, car il pensait que c’était impossible en breton ! » Le jeune chercheur d’alors n’était pas linguiste mais il savait tout de même comment sa famille parlait…

C’est cependant un linguiste qui le mit sur la voie de ce qui allait devenir sa spécialité et faire de lui une sommité mondiale, les réseaux de neurones artificiels. « En lisant un dialogue entre Noam Chomsky et Jean Piaget sur l’apprentissage inné ou acquis du langage, j’ai repéré un argument faisant référence aux réseaux de neurones que je ne connaissais pas. Ce champ prometteur était quelque peu abandonné et je m’y suis plongé tout seul », se souvient Yann LeCun. A l’époque, au début des années 1980, il était étudiant à l’école d’ingénieurs de l’Esiee et travaillait sur les circuits électroniques. Accessoirement, il bricolait des cartes électroniques, construisait des synthétiseurs de musique, faisait voler des choses impossibles. « On continue avec mon frère, mon père et mes enfants à faire du modélisme », témoigne ce touche-à-tout au visage rond et souriant. « J’aime bien avoir l’intuition des choses qui vont marcher. »

« Le monde en une suite de nombres »

Pour suivre son intuition, il s’inscrit en thèse à l’université Pierre-et-Marie-Curie avec un directeur qui le laisse travailler tranquillement sur les fameux neurones artificiels. Ceux-ci n’ont rien de matériel. Ce sont en fait des fonctions mathématiques à plusieurs paramètres ajustables. Dans les neurones du cerveau, des connexions se créent, disparaissent ou se renforcent, en fonction de différents stimuli. Dans le monde artificiel, on ajuste des paramètres afin de fournir la meilleure réponse possible. Une phase d’apprentissage sur des objets connus, comme des caractères manuscrits, des objets dans une image, des sons… permet de trouver les meilleurs paramètres qui donneront des réponses sur des situations totalement nouvelles. « On représente le monde en une suite de nombres, qui sont autant de vecteurs de la pensée », résume Yann LeCun, qui aura le loisir de développer cette idée dans ces cours au Collège de France.

Concrètement, c’est ainsi, et grâce à ses travaux pionniers et ceux d’autres chercheurs, que les assistant numériques des téléphones portables reconnaissent la parole et s’exécutent. C’est ainsi que les visages sont reconnus dans des images ou que des objets, chat, voiture, piéton… y sont identifiés automatiquement, ou encore qu’un sport est indexé dans une vidéo, que ce soit du basket ou du trial en monocycle. Avec les foules de données que brasse Facebook, on comprend son intérêt pour ces systèmes de tri intelligent.

Une série de « ratages »

Le succès a cependant été long à venir. Premier « ratage », comme dit Yann LeCun, en 1985, en début de thèse : il écrit son premier article, en français (!), exposant une méthode pour ajuster rapidement les paramètres du réseau. Flop. Un an plus tard, des confrères américains ont la même idée et connaissent le succès. Parmi les quatre références citées dans leur article, il y a celle de LeCun en 1985. L’un des auteurs, Geoffrey Hinton, deviendra son ami et compétiteur chez Google.

Second « ratage », il invente, dix ans plus tard, dans les laboratoires Bell de ATT aux Etats-Unis, un nouveau type de réseaux, ce qui aboutit aux premières machines à reconnaissance de caractères pour lire les chèques. Mais « le jour où nous fêtions le déploiement de ces équipements, on apprend que l’entreprise est scindée en trois, ce qui marquera la fin de l’aventure », se souvient le chercheur. Pour s’occuper dans le labo démantelé, il développe, avec Léon Bottou (qu’il vient de débaucher de Microsoft pour le faire venir chez Facebook), une méthode de compression d’images scannées afin d’en permettre la transmission par l’Internet naissant. Ce sera DjVu, un format meilleur que le célèbre PDF « mais qui n’eut du succès qu’en Russie car cela facilitait la diffusion des livres ou des articles par les connexions à bas débit ».

Invention du « deep learning »

A force de « ratages », il crée à la fin des années 1990, ce qu’il appelle « la conspiration des réseaux de neurones » avec deux autres chercheurs, Geoffrey Hinton et Yoshua Bengio (université de Montréal). « Cette technique n’avait pas bonne presse. Nous avons donc lancé, grâce au soutien d’un institut canadien, des actions délibérées (séminaires, colloques, démonstrations…) pour convaincre de leur fonctionnement », rappelle Yann LeCun. Pour rompre avec cette mauvaise image, le nom est changé en « deep learning », « mais je ne sais plus qui l’a inventé. En tout cas c’est efficace ». Le lobbying scientifique finit par payer. En 2012, une équipe conjointe de Microsoft, Google et IBM explose les records d’efficacité pour la reconnaissance vocale grâce au deep learning. La même année, Hinton et LeCun, indépendamment, récidivent sur la reconnaissance d’image. Le deep learning s’impose grâce à l’accès à des bases de données d’apprentissage immenses et grâce à des puces électroniques spécialisées dans ces calculs.

Le Monde Guides d’achat
Aspirateurs robots
Les meilleurs aspirateurs robots
Lire

« On peut dire que Yann est un obstiné ! », témoigne Laurent Najman, professeur à l’ESIEE, qui le connaît depuis vingt ans. « Yann est un optimiste résolu. Ça permet aux chercheurs de son groupe d’être en confiance et de lancer des projets ambitieux. Il n’accepte cependant pas tous les projets soumis. Son critère de rejet sera plutôt “ce n’est pas assez ambitieux” que “c’est trop risqué” », insiste Antoine Bordes, en disponibilité du CNRS depuis 2014 pour rejoindre Facebook.

Le deep learning n’est pas pour autant la seule méthode d’apprentissage sur le marché. En outre, il souffre du défaut de fonctionner sans qu’on comprenne bien pourquoi. Deux images qui semblent identiques à l’œil humain peuvent induire une interprétation différente de la machine... « Nous devons aussi progresser dans l’apprentissage non supervisé, c’est-à-dire sans recourir à des bases de données annotées, estime Yann LeCun. On découvre le monde en l’observant, pas grâce à quelqu’un qui nomme chaque objet devant nos yeux. »

L’espace des contributions est réservé aux abonnés.
Abonnez-vous pour accéder à cet espace d’échange et contribuer à la discussion.
S’abonner

Voir les contributions

Réutiliser ce contenu

Lecture du Monde en cours sur un autre appareil.

Vous pouvez lire Le Monde sur un seul appareil à la fois

Ce message s’affichera sur l’autre appareil.

  • Parce qu’une autre personne (ou vous) est en train de lire Le Monde avec ce compte sur un autre appareil.

    Vous ne pouvez lire Le Monde que sur un seul appareil à la fois (ordinateur, téléphone ou tablette).

  • Comment ne plus voir ce message ?

    En cliquant sur «  » et en vous assurant que vous êtes la seule personne à consulter Le Monde avec ce compte.

  • Que se passera-t-il si vous continuez à lire ici ?

    Ce message s’affichera sur l’autre appareil. Ce dernier restera connecté avec ce compte.

  • Y a-t-il d’autres limites ?

    Non. Vous pouvez vous connecter avec votre compte sur autant d’appareils que vous le souhaitez, mais en les utilisant à des moments différents.

  • Vous ignorez qui est l’autre personne ?

    Nous vous conseillons de modifier votre mot de passe.

Lecture restreinte

Votre abonnement n’autorise pas la lecture de cet article

Pour plus d’informations, merci de contacter notre service commercial.