IA : vers des robots intelligents

20/10/2018
Auteurs : Fabien Moutarde
Publication REE REE 2018-4 Dossier L’IA et l’industrie
OAI : oai:www.see.asso.fr:1301:2018-4:23840
DOI :
contenu protégé  Document accessible sous conditions - vous devez vous connecter ou vous enregistrer pour accéder à ou acquérir ce document.
Prix : 10,00 € TVA 20,0% comprise (8,33 € hors TVA) - Accès libre pour les ayants-droit
se connecter (si vous disposez déjà d'un compte sur notre site) ou créer un compte pour commander ou s'inscrire.
 

Résumé

IA : vers des robots intelligents

Métriques

1
0
595.29 Ko
 application/pdf
bitcache://19c5758ef347581887fa24aa2003ec7b6bbd1aa3

Licence

Creative Commons Aucune (Tous droits réservés)
<resource  xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
                xmlns="http://datacite.org/schema/kernel-4"
                xsi:schemaLocation="http://datacite.org/schema/kernel-4 http://schema.datacite.org/meta/kernel-4/metadata.xsd">
        <identifier identifierType="DOI">10.23723/1301:2018-4/23840</identifier><creators><creator><creatorName>Fabien Moutarde</creatorName></creator></creators><titles>
            <title>IA : vers des robots intelligents</title></titles>
        <publisher>SEE</publisher>
        <publicationYear>2018</publicationYear>
        <resourceType resourceTypeGeneral="Text">Text</resourceType><dates>
	    <date dateType="Created">Sat 20 Oct 2018</date>
	    <date dateType="Updated">Sat 20 Oct 2018</date>
            <date dateType="Submitted">Tue 13 Nov 2018</date>
	</dates>
        <alternateIdentifiers>
	    <alternateIdentifier alternateIdentifierType="bitstream">19c5758ef347581887fa24aa2003ec7b6bbd1aa3</alternateIdentifier>
	</alternateIdentifiers>
        <formats>
	    <format>application/pdf</format>
	</formats>
	<version>39613</version>
        <descriptions>
            <description descriptionType="Abstract"></description>
        </descriptions>
    </resource>
.

REE N°4/2018 Z 91 L’IA ET L’INDUSTRIE DOSSIER 2 La victoire en 2017 du programme AlphaGO contre le champion du monde (humain !) du jeu de Go a illustré de façon éclatante la puissance des algo- rithmes d’intelligence artificielle (IA) en général, et de l’apprentissage statis- tique en particulier. Cette victoire a d’au- tant plus frappé les esprits que cinq ans plus tôt un tel résultat semblait inenvi- sageable avant au moins une ou deux décennies, compte tenu de la com- plexité stratégique de ce jeu. AlphaGO est un programme informatique exé- cuté sur un ordinateur puissant, mais qu’en est-il des robots qui se différen- cient par le fait d’être des systèmes « physiquement incarnés » ? Des algo- rithmes d’IA sont-ils déjà embarqués dans des robots ? Et si oui, quels types d’algorithmes ? Peut-on s’attendre dans un futur proche à une avancée de l’IA en robotique aussi frappante qu’AlphaGO l’a été dans le monde strictement infor- matique ? Nous essayons dans cet article de donner quelques éléments de réponse à ces questions. Introduction historique Les premiers robots utiles pour l’homme sont apparus sur les chaînes de montage, où les robots pouvaient effec- tuer des tâches répétitives, pénibles et dangereuses pour les opérateurs. Par exemple, le robot Unimate (1954), pre- mier robot industriel programmable, consistait en un bras articulé pouvant transporter une pièce d’un endroit à un autre ou manipuler des outils, comme on peut voir à gauche de la figure 1. Par la suite, les robots industriels ont pris une place de plus en plus grande sur les chaînes de montage. Mais ces robots sont essentiellement préprogrammés et effectuent à l’identique, en cycles suc- cessifs, des actions répétitives dans un environnement isolé et sécurisé. Ce sont en réalité des sortes d’automates sans aucune intelligence. La miniaturisation des capteurs et cal- culateurs dont la puissance augmente exponentiellement (loi de Moore), a per- mis l’apparition au début du XXIe siècle de robots plus adaptatifs et conçus pour le grand public : par exemple le robot IA : vers des robots « intelligents » ? Fabien Moutarde Professeur - Directeur adjoint du Centre de robotique MINES ParisTech This article deals with Artificial Intelligence algo- rithms embedded in present robots and fore- seeable evolutions in forthcoming years. While first robots in the 1960’s years were merely automats “dumbly” repea- ting identical cycles of actions, those of the XXIst century are more and more adaptive, mobile and interactive. Many currently existing robots are already endowed with some kind of “perception intelligence”, i.e. ability to analyze and interpret their environment (in particular segment the sur- rounding scene into objects of identified categories, with estimated distances and movements). This is made possible mainly thanks to statistical machine-learning, and more and more to deep-learning of Convolutional Neural Networks. The same kind of techniques allow robots to also become interactive (speech recognition, gestures and action recogni- tion, etc.). After recent breakthroughs of Reinforcement-Lear- ning (cf. AlphaGO), research in AI for robotics is currently turning to learning of behavior for adaptive coordination with their environment. However, life-long learning during operation and artificial curiosity are still in their infancy, and present-day partial intelligences of robots are almost always limited to some specific pre-defined use-cases. Emergence of a “strong” (i.e. general and polyvalent) AI therefore still seems many years away. Nevertheless, it is probable that first robots surpassing Humans in a well-delimited context should soon appear. ABSTRACT Cet article fait un point sur les algorithmes d’in- telligence artificielle embarqués dans les robots actuels et sur les évolutions prévisibles dans les prochaines années. Alors que les premiers robots des années 1960 s’apparentaient à des automates répétant « bêtement » à l’identique un cycle d’actions, ceux du XXIe siècle sont de plus en plus adaptatifs, mobiles et interactifs. De nombreux robots existants sont déjà dotés d’une intelligence « de per- ception », c’est-à-dire d’une capacité à analyser et inter- préter leur environnement (notamment segmentation de la scène en objets dont on identifie les catégories et estime les distances et les mouvements). Ceci est devenu possible essentiellement grâce à l’apprentissage statistique, et de plus en plus l’apprentissage profond de réseaux convolutifs. Grâce à ces techniques, les robots peuvent intégrer aussi des capacités d’interaction (reconnaissance vocale, recon- naissance de gestes ou actions, etc.). Depuis les percées récentes de l’apprentissage par renforcement (cf. Alpha- GO), les recherches en IA pour la robotique se tournent maintenant vers l’apprentissage « de comportement », pour permettre une coordination adaptative avec leur envi- ronnement. En revanche, l’auto-apprentissage en continu sur le terrain et la curiosité artificielle sont encore à peine balbutiants et les actuelles « intelligences partielles » des robots restent presque toutes limitées à des cas d’usage spécifiques et prédéfinis. L’émergence d’une IA « forte » (c.-à-d. générale et polyvalente) semble donc encore loin- taine. Il est cependant probable qu’apparaîtront prochai- nement de premiers robots surpassant l’homme dans un contexte bien délimité. RÉSUMÉ 92 ZREE N°4/2018 L’IA ET L’INDUSTRIE DOSSIER 2 aspirateur Roomba lancé en 2002 par l’entreprise iRobot (https://www.irobot. fr/) et dont plus de cinq millions d’exem- plaires ont été vendus dans le monde en 2009. A cette époque s’est développée la robotique de service, avec par exemple le petit robot humanoïde NAO sorti en 2008 par la société française Aldeba- ran Robotics, créée en 2005 et devenue SoftBank Robotics Europe (https://www. softbankrobotics.com) depuis son rachat en 2012 par le groupe japonais SoftBank. Ce robot et son « grand frère » Pepper de 1m20 de haut (à droite de la figure 1) sont dotés de nombreux capteurs (camé- ras, ultra-sons, etc.) et d’un calculateur embarquant des programmes sophisti- qués (évitement d’obstacles, navigation, reconnaissance vocale, détection des personnes, etc.), ce qui leur permet de se déplacer de façon autonome et d’in- teragir avec les humains. Du côté de la robotique industrielle, une nouvelle génération de robots « col- laboratifs » se déploie depuis quelques années dans les usines et centres logis- tiques. Contrairement à leurs aînés, ces robots côtoient les humains et opèrent à côté d’eux. Ils sont même conçus dans nombre de cas pour collaborer avec des opérateurs humains, afin d’effectuer des tâches ensemble. Un exemple intéres- sant est le robot Baxter (lancé en 2013 par la société Rethink Robotics créée en 2008 (https://www.rethinkrobotics. com) : légèrement plus grand qu’un humain, doté de caméras et de deux bras manipulateurs à sept degrés de liberté, il est programmable « par démonstration ». Celui-ci est déjà déployé, notamment aux Etats-Unis, dans de nombreuses usines et centres logistiques (figure 2). De leur côté, les grands fournisseurs de robots industriels (Kuka, Universal Robot…) proposent aussi maintenant dans leurs Figure 1 : A gauche, un robot « automate » industriel des années 1950 (Unimate). A droite, les robots interactifs de service de SoftBank Robotics Europe (Nao et Pepper) aujourd’hui. Figure 2 : Un exemple de robot collaboratif (Baxter) déjà déployé dans une usine - Source : http://www.futurism.com REE N°4/2018 Z 93 IA : vers des robots « intelligents » ? catalogues des modèles dédiés à la robotique collaborative. En France, les constructeurs auto- mobiles investissent dans la robotique collaborative pour leurs chaînes de montage. Par exemple, PSA-Peugeot- Citroën a financé de 2011 à 2016 une chaire sur la robotique collaborative (https://chaire-rrv.fr/) dont le Centre de robotique de MINES ParisTech était titu- laire. Dans ce cadre ont été menés des travaux sur la reconnaissance automati- sée d’actions d’un opérateur humain par un robot afin de se coordonner avec lui en vue d’effectuer conjointement une tâche (figure 3). Des automates aux robots adaptatifs et interactifs Les algorithmes de fonctionnement d’un robot se formalisent comme une boucle perception-planification-contrôle (figure 4) itérée en permanence : divers capteurs perçoivent l’environnement, celui-ci est interprété afin d’adapter- décider-planifier les actions, enfin des commandes sont transmises aux action- neurs pour que le robot exécute lesdites actions. La plupart des robots de 1ère génération disposaient de peu de cap- teurs récoltant peu d’informations, et se contentaient le plus souvent d’une réactivité très élémentaire : attente d’un événement pour déclencher certaines actions, positionnement et/ou arrêt de mouvement quand une certaine condi- tion est remplie. Leur fonctionnement était principalement un cycle de type automate se répétant à l’identique indéfiniment. Les robots de nouvelle génération se distinguent de leurs prédécesseurs par une capacité d’adaptation beaucoup plus grande, souvent aussi la mobi- lité, et enfin de plus en plus la faculté d’interagir, voire de collaborer, avec les humains. Ces nouveaux robots sont dotés de capteurs, plus nombreux et plus riches, qui collectent des informa- tions plus fines et plus complètes sur leur environnement. De plus, ils uti- lisent des calculateurs embarqués et puissants qui exécutent des algorithmes plus « intelligents », qui leur permettent de se déplacer sans collision (pour les robots mobiles) et d’agir de façon plus pertinente et adaptée (par exemple repérer un objet pour le saisir ou regar- der une personne, lui adresser la parole ou lui répondre). En ce qui concerne les robots mobiles, dont les futurs véhicules autonomes, ils ont aussi besoin de pou- voir se localiser et de « cartographier » leur environnement, de façon à ne pas se perdre et à pouvoir se déplacer vers un endroit donné (par exemple pouvoir exécuter un ordre tel que « va dans la cuisine » ou pouvoir trouver de façon autonome leur chemin entre plusieurs ateliers d’une usine). Ceci est mainte- nant possible grâce à des algorithmes de type Simultaneous Localization and Mapping (SLAM), capables d’exploiter et traiter en temps-réel embarqué les images d’une caméra ou les données d’un LIDAR (capteur mesurant par laser les distances aux obstacles dans plu- sieurs directions). Par ailleurs, pour interagir de façon naturelle, c’est à dire autrement qu’avec un clavier+souris ou un écran tactile, les nouveaux robots utilisent de plus en plus fréquemment un programme de Figure 3 : Prototype de reconnaissance d’actions d’un opérateur humain pour un scénario de collaboration homme-robot (chaire PSA RRV). Figure 4 : Schéma de la « boucle robotique ». 94 ZREE N°4/2018 L’IA ET L’INDUSTRIE DOSSIER 2 reconnaissance vocale. Enfin, pour réa- gir correctement, et plus encore pour effectuer des tâches en collaboration avec l’homme, il devient indispensable pour les robots d’interpréter non plus uniquement leur environnement instan- tané, mais aussi son évolution dans le temps : savoir reconnaître des gestes, des actions ou activités humaines et pouvoir anticiper des mouvements ou trajectoires. Les robots deviennent-ils « intelligents » ? Comme exposé plus haut, les robots actuels intègrent des algorithmes de plus en plus variés et de plus en plus « intelli- gents ». Mais de quelle « intelligence » est-il question ici ? En effet, ce con- cept est assez mal défini, et il serait plus exact de parler des intelligences. Dans le sens commun usuel, intelligence est souvent implicitement synonyme d’in- telligence « de raisonnement » qui con- siste à faire des inférences logiques, des hypothèses et des déductions ; cette dernière, assez mathématique et adaptée à la programmation informa- tique, est historiquement la première qui a été développée, notamment avec les algorithmes de jeux, les logiciels de calculs mathématiques formels et les systèmes à base de règles. Mais l’in- telligence est loin de se réduire à cela : d’autres aspects comme en particulier la capacité d’analyser son environnement et de s’y adapter, la faculté d’apprendre et l’aptitude à interagir sont des com- posantes tout aussi essentielles. D’abord une intelligence « de perception » et d’interaction La capacité de raisonnement est une condition nécessaire de l’intelligence, mais elle n’est pas suffisante : il faut aussi être capable de s’adapter aux situa- tions, ce qui exige tout d’abord de com- prendre ce qu’on a autour de soi. Ceci est particulièrement important pour un robot, qui est un objet tangible inséré dans un monde physique où il doit réa- gir et s’adapter à son environnement pour mériter le qualificatif d’intelligent. Un robot a donc d’abord besoin d’une intel- ligence « de perception » qui consiste à savoir analyser et interpréter son envi- ronnement, en segmentant la scène en objets dont on identifie les catégories : mur, porte, table, chaise, lampe, chat, etc. Ce type d’intelligence est très différent de la capacité de raisonnement et ne peut s’acquérir que par expérience pratique et observation du monde. Cela prend plu- sieurs années à nos enfants d’appren- dre à reconnaître tous les objets qui nous entourent. C’est cette forme d’intelligence artificielle qui a fait des progrès fulgurants ces dernières années, grâce à de nou- veaux algorithmes dits d’apprentissage statistique (machine learning), lesquels construisent des modèles des catégories d’objets uniquement à partir d’exemples, comme illustré par la figure 5. Les applications de l’apprentissage statistique sont devenues depuis quelques années de plus en plus nom- breuses, performantes et efficaces, grâce à l’immense masse de données Figure 5 : Illustration de l’utilisation de l’apprentissage statistique supervisé pour « apprendre » un classifieur capable de catégoriser visuellement des objets dans une image. REE N°4/2018 Z 95 IA : vers des robots « intelligents » ? et images maintenant disponibles, ainsi qu’aux puissances de calcul devenues phénoménales (un milliard de milliards fois plus que dans les années 1960). Un type particulier d’algorithme a notam- ment émergé et considérablement amélioré les capacités d’analyse et com- préhension des images depuis 2012 : l’apprentissage profond (deep learning) de réseaux convolutifs (voir encadré). Cette récente avancée considérable de l’intelligence de perception, grâce à l’apprentissage statistique en général, et l’apprentissage profond en particu- lier, est un des éléments essentiels qui rendent possible la nouvelle génération de robots. A noter que les voitures autonomes sont un cas particulier de robot mobile et que tous les progrès récents de la robotique s’y appliquent très naturel- lement, à commencer par la concep- tion, par apprentissage statistique, d’une forme d’intelligence de perception pour la conduite (interprétation « séman- tique » de ce qui entoure le véhicule, cf. figure 6). De plus, ces mêmes techniques de machine learning ont aussi permis des progrès considérables en reconnais- sance vocale et en analyse du langage naturel. Les robots peuvent donc main- tenant être dotés de capacités de dia- logue artificiel. Mais les interactions avec les humains ne se limitent pas à la parole et au texte : les gestes sont une moda- lité très importante de communication. Un des sujets de R&D en robotique actuellement en plein essor est donc l’intelligence « d’interaction », et en particulier la reconnaissance de gestes, d’actions ou d’activités. Dans ce dernier domaine, plusieurs types de capteurs peuvent employés : gants de données, capteurs musculaires (EMG), caméras de profondeurs, ou caméra ordinaire. Dans tous les cas, c’est l’apprentissage statistique qui est utilisé pour mettre au point un module d’analyse des données du capteur, qui permettra au robot de reconnaître les gestes ou interpréter les mouvements et actions. Bientôt une intelligence « de prédiction » et de compor- tement Pour agir correctement et efficace- ment, un robot ne doit pas se conten- ter d’être réactif, mais être aussi capable d’anticiper. Il lui faut donc posséder une sorte d’intelligence « de prédic- tion », qui est encore une autre facette de l’intelligence. Pour cela, le robot doit Figure 6 : Exemple de « sémantisation » d’image obtenue avec un réseau convolutif profond - Source : https://mi.eng.cam.ac.uk Figure 7 : Exemple de commande gestuelle d’un robot (ici avec un capteur musculaire de type EMG). Source : https://spectrum.ieee.org 96 ZREE N°4/2018 L’IA ET L’INDUSTRIE DOSSIER 2 parvenir à modéliser et interpréter cor- rectement le comportement et détermi- ner les intentions des personnes dans le voisinage, et aussi intégrer des connais- sances physiques de sens commun (« quand on lâche un objet, il tombe verticalement », etc.) : c’est actuelle- ment un sujet majeur de recherche en IA et en robotique. Là encore, l’appren- tissage statistique est une des tech- niques majeures, car le comportement d’un humain (opérateur dans une usine, piéton, conducteur d’un autre véhicule, etc.) est difficile à formaliser correcte- ment par un modèle mathématique a priori. De plus, concernant les mouve- ments d’un humain, les progrès récents du deep learning permettent main- tenant d’inférer à partir d’une caméra ordinaire les positions des articulations et membres des personnes présentes dans le champ de vision. A partir de ces informations d’assez haut niveau sémantique, des recherches actuelles visent donc, aussi, par apprentissage statistique, à prédire la suite des mou- vements, déterminer l’action et même estimer les intentions. Enfin, pour le comportement du robot lui-même, l’état de l’art du module de planification consiste à appli- quer une technique mathématique de recherche de trajectoire optimale. Tou- tefois, quand la situation est très com- plexe, avec de nombreuses personnes autour du robot, le temps de résolution par ces algorithmes peut devenir pro- hibitif, et il peut même devenir difficile de formaliser correctement et automati- quement le problème. Des recherches très récentes tentent donc d’utiliser de l’apprentissage statistique non plus uni- quement pour l’étape de perception du robot, mais aussi pour le module de pla- nification de ses actions. Il s’agit d’un type de machine learning totalement différent : l’apprentissage par renfor- cement (reinforcement learning). Ce dernier consiste à optimiser une fonc- tion de comportement en l’évaluant sur un grand nombre de situations et scéna- rios, le plus souvent en simulation, tout en modifiant les paramètres définissant le comportement de façon à maximi- ser une « récompense ». L’intérêt pour ce type de technique a été récemment très amplifié par le spectaculaire succès qu’elle a permis d’obtenir : la large vic- toire contre le champion du monde du jeu de Go par le programme AlphaGO, obtenu grâce à de l’apprentissage par renforcement. Mieux encore, des cher- cheurs sont parvenus récemment à définir une architecture de deep rein- forcement-learning polyvalente capable d’apprendre à jouer mieux que des humains sur un ensemble assez varié de jeux Atari, en prenant les décisions uniquement en fonction de l’image affi- chée par le jeu. L’utilisation de cette catégorie d’algorithmes pour concevoir automatiquement un modèle de com- portement de robot ou de véhicule autonome est donc un actuel sujet de recherche, encore prospectif mais très actif. Les défis à venir pour l’IA en robotique : apprentis- sage de comportement, apprentissage en continu, curiosité artificielle et IA « générale » ? La robotique a déjà fait d’impression- nants progrès depuis les années 1950, mais les capacités « intelligentes » des robots actuels demeurent limitées à un contexte restreint pour lequel ils ont été conçus et testés : le programme d’un robot collaboratif industriel est généra- lement dédié à un poste de travail par- ticulier et une tâche donnée. Même les robots interactifs de service ont un domaine de fonctionnement limité et sont le plus souvent incapables d’ef- fectuer des tâches non prévues ou de réagir correctement dans des situations totalement inattendues. L’intelligence artificielle des programmes et robots Figure 8 : A gauche, schéma de principe de l’apprentissage par renforcement ; à droite, exemple d’application pour apprendre un comportement à des robots - Source : http://robohub.org REE N°4/2018 Z 97 IA : vers des robots « intelligents » ? actuels reste donc une IA « faible », c’est- à-dire limitée à un contexte précis, par opposition à l’intelligence polyvalente d’un humain. Les travaux actuels pour parvenir à apprendre non seulement l’interpréta- tion de l’environnement, mais aussi un comportement du robot grâce à l’ap- prentissage par renforcement sont une piste possible pour augmenter la polyva- lence des robots. En effet, un comporte- ment appris pour être adapté et efficace dans une multitude de situations pour- rait être plus général et flexible qu’une planification d’actions et mouvements conçue sans forcément pouvoir envisa- ger tous les cas possibles. Toutefois, la plus grande limitation actuelle est que les fonctions intelli- gentes des robots sont figées une fois déployées. Un défi restant donc encore à relever est de doter les robots de la capacité, une fois en service, d’augmen- ter leurs connaissances et d’améliorer/ enrichir leurs comportements : c’est l’équivalent pour les robots de la forma- tion des hommes tout au long de leur vie. Cela soulève des difficultés algorith- miques spécifiques : comment s’assurer que l’adaptation ou acquisition continue des « connaissances » ne conduit pas à « oublier » tout ce qui avait été pré- appris durant la phase de conception ? Comment faire en sorte que le robot puisse décider par lui-même sur quoi focaliser son attention afin de s’amélio- rer ? Ce dernier problème commence déjà à émerger dans la communauté des chercheurs en IA sous la dénomina- tion de « curiosité artificielle ». Ces nouvelles frontières de l’IA (ap- prentissage de comportement, auto- apprentissage en continu et curiosité spontanée et autonome pour élargir ses propres compétences) sont claire- ment une étape nécessaire mais difficile- ment atteignable à court terme, vers une IA « générale » voire « forte », c’est-à-dire combinant intelligence de perception, intelligence de prédiction, intelligence de raisonnement et intelligence de curiosité, le tout de façon adaptable et polyvalente pour une large variété de contextes et de tâches. S’il n’est pas certain qu’une telle IA générale et forte émerge un jour, il est probable que ce ne soit de toute façon pas avant au moins quelques dizaines d’années. Conclusions Les robots actuels peuvent donc d’ores et déjà disposer d’une assez bonne intelligence de perception (ana- lyse sémantique de leur environne- ment), et leurs capacités d’interaction et d’analyse des gestes ou actions humaines sont en pleine croissance. Quant à l’apprentissage de compor- tement de robot, il commence juste à être expérimenté mais est appelé à progresser et se répandre rapide- ment. En revanche, toutes ces intelli- gences partielles sont encore limitées à un contexte spécifique, et pas encore capables de s’améliorer par elles- mêmes une fois le robot mis en ser- vice. On semble donc encore très loin de pouvoir envisager un robot avec une intelligence polyvalente. Néanmoins, des robots seront cer- tainement et prochainement capables de surpasser les capacités humaines dans un contexte bien délimité. Diffi- cile par contre de prédire ce que sera l’AlphaGO de la robotique. Peut-être un robot champion du monde de ten- nis de table ? Ou bien, au vu des avan- cées récentes, recherches en cours et volumes d’investissements en R&D, le premier robot « sur-humain » ne sera-t- il pas en fait une voiture de course sans conducteur qui gagnerait le championnat du monde de Formule 1 contre les meil- leurs pilotes humains ? L'AUTEUR Fabien Moutarde est pro- fesseur en IA pour la robotique à MINES Paris- Tech. Directeur adjoint du Centre de robotique, il y anime l’équipe « Perception, apprentissage & interactions ». Ingénieur diplômé de l’Ecole poly- technique (en 1987), docteur en physique (Université Paris VII, 1991), et titulaire de l’Habilitation à diriger des recherches (Université Paris VI, 2013), il enseigne les algo- rithmes d’apprentissage statistique à MINES ParisTech, ainsi qu'à SJTU/ ParisTech_Shanghai. Ses recherches sont centrées sur les applications de l’IA et du machine learning aux véhicules autonomes, aides à la conduite et systèmes de transport intelligents ainsi qu’à la robotique mobile et aux robots collaboratifs. La plupart de ses travaux ont été menés en collaboration avec des services R&D de l'industrie, notam- ment PSA et Valeo dans l'automo- bile, ainsi que Aldebaran/SBRE qui conçoit et fabrique des robots hu- manoïdes. 98 Z REE N°4/2018 L’IA ET L’INDUSTRIE DOSSIER 2 Les réseaux convolutifs profonds Un réseau neuronal convolutif (Convolutional Neural Network, CNN or convNet) est un type particulier de réseau t t de neurones. C’est un modèle constitué de nombreuses couches consécutives (d’où le qualificatif de « profond »), qui transforment par filtrages et sous-échantillonnages successifs l’image initiale en une hiérarchie de représentations. Les couches principales effectuent des convolutions appliquées conjointement à l’ensemble des canaux de la couche précédente. Chaque filtre de convolution engendre donc, après application optionnelle d’une non-linéarité (le plus souvent de type ReLU), une « carte d’activation » (feature map ou activation map). La sortie d’une couche de convolution est donc un ensemble de cartes d’activation (une carte par filtre). Des couches dites de pooling s’inter- calent entre certaines couches, afin de sous-échantillonner, en « agrégeant » spatialement les cartes d’activation de la couche précédente. Enfin, le réseau se termine généralement par des couches neuronales « standard », chacune totale- ment connectée à la précédente et à la suivante, qui forment un perceptron multi-couches (PMC) [Multi-Layer Percep- tron (MLP), en anglais] servant à calculer la sortie (typiquement, des probabilités d’appartenance aux diverses classes). Les paramètres de tous ces filtres sont appris conjointement, par un algorithme d’optimisation nommé « rétro-propa- gation du gradient », qui est une implémentation de descente de gradient adaptée à l’architecture en couches de neu- rones. Cette optimisation cherche à minimiser une fonction de coût dont le terme principal est l’erreur empirique (i.e. estimée sur des exemples) entre les sorties du réseau et les valeurs cibles associées aux exemples. Figure 9 : Architecture typique d’un réseau neuronal convolutif. - Schéma adapté de http://fr.m.wikipedia.org Figure 10 :Aspects typiques des filtres appris pour les couches successives d’un réseau convolutif. REE N°4/2018 Z 99 IA : vers des robots « intelligents » ? On constate après coup que les premières couches apprennent des filtres de type détection de contours, puis de coins et arcs ; les couches suivantes s’avèrent apprendre des filtres qui détectent des types de textures puis des « parties d’objet » (roue, visage, oreille, aile, fenêtre, etc.), jusqu’à obtenir en dernière couche de convolution des sorties quasi-abs- traites. Ces dernières forment une représentation à partir de laquelle il est ensuite assez facile, pour les couches finales totalement connectées, d’apprendre une fonction discriminant les diverses classes d’images. C’est toute l’originalité et la puissance du principe de l’apprentissage profond que cet apprentissage conjoint d’une hiérarchie de transformations et du mapping de sortie, par opposition aux approches antérieures d’apprentissage statistique, qui utilisaient souvent des calculs préalables de features « artisanaux », ces derniers constituant les véritables entrées du modèle de classification. Le plus ancien réseau convolutif ayant montré d’excellentes performances est le LeNet proposé par Yann Le Cun en 1998 pour reconnaître des chiffres et lettres manuscrits : 99 % de reconnaissance correcte sur la base MNIST de chiffres manuscrits. Ce convNet ne traite que de petites images d’entrée (32x32), et utilise trois couches de convolu- tion. Depuis 2012, des réseaux convolutifs énormes (des dizaines de couches et des millions de paramètres) ont été entraînés sur ImageNet (une base colossale d’images annotées contenant des millions d’images de 1 000 catégories différentes d’objets). Les transformations apprises par ces réseaux sont très générales et polyvalentes, si bien que de nombreuses applications peuvent être rapidement mises au point par simple « apprentissage par transfert » (transfer learning) à partir de ces réseaux pré-appris : en remplaçant certaines des dernières couches (au moins celles effec- tuant la classification), et initialisant celles qui sont conservées, on peut effectuer un apprentissage qui ne modifiera les poids que pour les nouvelles couches, et certaines des couches conservées (comme illustré ci-dessous). Figure 11 : Chaîne de traitement de l’apprentissage profond (à droite) comparée à celle usuelle dans les techniques d’apprentissage « classiques ». Figure 12 : Illustration du principe d’apprentissage par transfert pour les réseaux convolutifs 100 ZREE N°4/2018 L’IA ET L’INDUSTRIE DOSSIER 2 Grâce à ce principe du transfer learning, d’innombrables applications ont pu être réalisées, non seulement pour classifier des images, mais aussi, en adaptant l’architecture (en particulier des dernières couches) pour : détecter/caté- goriser/localiser des objets dans des images (Faster-RCNN, Mask-RCNN, YOLO, etc.) ; effectuer une segmentation sémantique complète d’image (SegNet, DeepLab, PSPNet, etc.) ; déterminer les postures des humains dans les images (openPose) ; et même inférer la position et orientation de prise de vue (poseNet) ou encore obtenir une image 3D approximative à partir d’une image unique (i.e. sans stéréo). Les réseaux convolutifs sont donc très polyvalents et sont ainsi devenus en quelques années un véritable « couteau suisse » quasi-incontournable pour tout ce qui est analyse et interprétation d’images.