L’IA et l’industrie

L’intelligence artificielle : soutien du renouveau industriel 20/10/2018
Publication REE REE 2018-4 Dossier L’IA et l’industrie
OAI : oai:www.see.asso.fr:1301:2018-4:23837
DOI :

Résumé

L’IA et l’industrie

Auteurs

L’IA et l’industrie
L’intelligence artificielle : prothèse ou orthèse ?
Refroidissement des logements : ne refaisons pas l’erreur des chauffages d’appoint
26e Congrès de la Conférence générale des poids et mesures (CGPM) à Versailles
Gérard Mourou, prix Nobel de physique 2018
Transition énergétique : il est temps de redonner la priorité à l’électricité
Comment décarboner les transports lourds de marchandises ?
La RATP se met au vert
Autoconsommation : le débat ne fait que commencer
Un mix gazier 100 % renouvelable en 2050 : peut-on y croire ?
La fiscalité du carbone se renforce
Stratégie nationale bas carbone : les premiers indicateurs de résultats interpellent
Eoliennes flottantes : deux inaugurations importantes mais beaucoup d’incertitudes demeurent
Vers un cluster de l’hydrogène dans la région de Liverpool-Manchester
Les batteries Li-ion pour l’automobile : un marché en pleine évolution
Mobileye et le Road Experience Management (REMTM)
La cyber-sécurité dans les systèmes d'automatisme et de contrôle de procédé
Les applications industrielles et scientifiques des logiciels libres : aperçu général
Les applications industrielles des logiciels. libres
Les applications industrielles des logiciels libres (2ème partie)
L'identification par radiofréquence (RFID) Techniques et perspectives
La cyber-sécurité des automatismes et des systèmes de contrôle de procédé. Le standard ISA-99
Êtes-vous un « maker » ?
Entretien avec Bernard Salha
- TensorFlow, un simple outil de plus ou une révolution pour l’intelligence artificielle ?
Donald Trump annonce que les Etats-Unis se retirent de le l’accord de Paris
L’énergie et les données
Consommer de l’électricité serait-il devenu un péché ?
Un nouveau regard sur la conjecture de Riemann – Philippe Riot, Alain Le Méhauté
Faut-il donner aux autorités chargées du respect de la loi l’accès aux données chiffrées ?
Cybersécurité de l’Internet des objets : même les ampoules connectées pourraient être attaquées
L’Internet des objets - Deux technologies clés : les réseaux de communication et les protocoles (Partie 2)
ISA L’évolution des normes et des modèles
FIEEC - SEE - Présentation SEE et REE - mars 2014
Les radiocommunications à ondes millimétriques arrivent à maturité
L’Internet des objets - Deux technologies clés : les réseaux de communication et les protocoles (Partie 1)
Internet des objets : l’ARCEP et l’ANFR mettent à la consultation l’utilisation de nouvelles bandes de fréquence autour de 900 MHz
L’énergie positive
Controverses sur le chiffrement : Shannon aurait eu son mot à dire
La cyberattaque contre les réseaux électriques ukrainiens du 23 décembre 2015
Le démantèlement des installations nucléaires
L’Accord de Paris
Les data centers
L’hydrogène
Le piégeage et la récolte de l’énergie. L’energy harvesting
Régalez-vous, c’est autant que les Prussiens n’auront pas...
Le kWh mal traité Deuxième partie : le contenu en CO2 du kWh
Le kWh mal traité
Enova2014 - Le technorama de la REE
Les grands projets solaires du pourtour méditerranéen
Après Fukushima, le nucléaire en question ?
On sait désormais stocker les photons pendant une minute
Identification d’objet par imagerie fantôme utilisant le moment orbital angulaire
La découverte du boson de Higgs, si elle est avérée, confirmera le modèle standard
Multiplexage par moment angulaire orbital : mythe ou réalité ?
Supercalculateur quantique: le choix de la supraconductivité
Photovoltaïque : la course au rendement se poursuit
Production d’hydrogène par photolyse de l’eau assistée par résonance plasmon
Vers une meilleure compréhension du bruit de scintillation
Les nombres premiers en première ligne
La nouvelle révolution des moteurs électriques
Les cyber-attaques, un risque pour nos grandes infrastructures ?
Le stockage de l’électricité
Le véhicule électrique (2) : comment donner corps à la transition énergétique ?
L'automatisation des transports publics
Les technologies nouvelles de l’éclairage : leur impact sur l'environnement et la santé
Les énergies marines renouvelables
Le véhicule électrique : une grande cause nationale
Médaille Ampère 2012
Berges2009_Hauet.pdf
Prix Bergès 2009

Métriques

4
0
704.1 Ko
 application/pdf
bitcache://6dcc5072d41cd350429a3a226e09f013cf145012

Licence

Creative Commons Aucune (Tous droits réservés)
<resource  xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
                xmlns="http://datacite.org/schema/kernel-4"
                xsi:schemaLocation="http://datacite.org/schema/kernel-4 http://schema.datacite.org/meta/kernel-4/metadata.xsd">
        <identifier identifierType="DOI">10.23723/1301:2018-4/23837</identifier><creators><creator><creatorName>Jean-Pierre Hauet</creatorName></creator><creator><creatorName>Suzanne Debaille</creatorName></creator></creators><titles>
            <title>L’IA et l’industrie</title><title>L’intelligence artificielle : soutien du renouveau industriel</title></titles>
        <publisher>SEE</publisher>
        <publicationYear>2018</publicationYear>
        <resourceType resourceTypeGeneral="Text">Text</resourceType><dates>
	    <date dateType="Created">Sat 20 Oct 2018</date>
	    <date dateType="Updated">Sat 20 Oct 2018</date>
            <date dateType="Submitted">Tue 13 Nov 2018</date>
	</dates>
        <alternateIdentifiers>
	    <alternateIdentifier alternateIdentifierType="bitstream">6dcc5072d41cd350429a3a226e09f013cf145012</alternateIdentifier>
	</alternateIdentifiers>
        <formats>
	    <format>application/pdf</format>
	</formats>
	<version>39612</version>
        <descriptions>
            <description descriptionType="Abstract"></description>
        </descriptions>
    </resource>
.

84 ZREE N°4/2018 L’intelligence artificielle (IA) est une discipline née dans les années 50 qui re- lève typiquement des tech- nologies pseudo-cycliques. Elle a connu à ce jour deux maximums et deux pas- sages à vide. Le premier emballement remonte aux années 1950 à 1970, après sa première apparition en scène, jusqu’à ce que le rapport Lighthill, Artificial Intelligence: A General Survey, remis en 1973 au British Science Research Council ne vienne doucher les espoirs qui avaient été mis en elle. La principale critique formulée par ce rapport résidait dans la constatation que les pro- messes faites n’avaient pas été tenues. Il soulignait en particulier l’incapacité de l’IA à traiter correc- tement le problème de l’explosion combinatoire des données dès lors que l’on prétendait traiter les problèmes de robotique ou de langage naturel, tels qu’ils se posent dans la vraie vie. Ce premier hiver de l’IA a duré jusqu’en 1980, date à partir de laquelle l’IA a soulevé à nouveau un grand intérêt avec la déferlante des systèmes experts à base de règles et de moteurs d’inférence. Des langages ont été déve- loppés spécialement à cet effet et le langage Prolog du Français Alain Colmerauer a connu un succès certain. Des machines dédiées ont été développées, au Japon et aux Etats-Unis, afin de disposer de la puissance de calcul nécessaire pour supporter efficacement les langages de l’IA tels que Lisp ou sa variante française, développée à l’INRIA par Jérôme Chailoux, Le Lisp. Une équipe, dirigée par Jean-Paul Sansonnet, développa en France, aux laboratoires de Marcoussis et en collaboration avec le CNET, une machine dédiée pour laquelle un compilateur spécial, dénommé Common Lisp, fut développé. Mais une deuxième fois, les résultats ne furent pas au rendez-vous. Il apparut qu’il était difficile de traduire les connaissances des experts sous forme de règles couvrant de façon suffisamment exhaus- tive les problèmes que l’on voulait traiter. Un pro- totype de système expert développé à Marcoussis Figure 1 : La saga de l’intelligence artificielle. Le redémarrage constaté dans les années 2000 est-il à présent le bon ? LES GRANDS DOSSIERS Introduction   
   soutien du renouveau industriel Suzanne Debaille Jean-Pierre Hauet REE N°4/2018 Z 85 Introduction LES GRANDS DOSSIERS pour piloter une unité de raffinage à Dunkerque conduisit à des résultats décevants : soit le système expert se déclarait incompétent, soit il proposait des résultats que le bon sens et un tout petit peu d’expérience permettaient d’obtenir. Et puis les machines spécialisées se révélèrent vite tout à fait inutiles, compte tenu des progrès fantastiques de la puissance de calcul et de la capacité de mémoire offerte par les équipements du commerce. L’IA entra donc dans une seconde période d’hi- bernation jusqu’au réveil des années 2000. Ce ré- veil procède de la conjonction d’un certain nombre de facteurs ; s UNACCROISSEMENTCONSIDÏRABLEDELAPUISSANCEET de la capacité des machines qui permettent de supporter des algorithmes complexes et de trai- ter des masses de données très importantes, soit en variables d’entrée, soit en variables intermé- diaires. Ce point est important car l’IA n’est pas en règle générale la seule responsable des résultats spectaculaires qui sont aujourd’hui observés : ces résultats sont atteints parce que l’on sait explorer très rapidement des bases de données considé- rables par des méthodes d’analyse proches de la force brute mais améliorées par l’IA, ce qui qui ra- mène la dimension combinatoire dans des limites manipulables ; s SIMULTANÏMENT LÏMERGENCE DE MÏTHODES PER- fectionnées d’analyse, en particulier l’émergence de nouvelles technologies de représentation par réseaux neuronaux qui donnent naissance aujourd’hui à l’apprentissage profond (deep lear- ning). Mais c’est là aussi la puissance des machines actuelles qui permet de traiter les problèmes de réseaux de neurones multicouches qui nécessitent de manipuler d’énormes matrices de coefficients synaptiques ; s ENlNL)!SETROUVEAUJOURDHUISOUTENUEPARDES besoins applicatifs nouveaux, dont la complexité ou la taille, dues en particulier à la masse des données, confère à l’IA une raison d’être qu’elle n’avait pas dans ses premières années. Ce sursaut de l’IA à partir de l’année 2000 est massif et impressionnant. Les applications grand public, essentiellement celles des agents conver- sationnels (les chatbots) donnent l’impression que l’IA a atteint un stade où elle pourrait remplacer l’esprit humain. Il s’agit d’un leurre. L’IA « forte » qui conférerait aux machines une capacité de compré- hension et une conscience des choses et de leur environnement, demeure un objectif lointain, pour autant qu’il soit jamais souhaitable de l’atteindre. Mais l’IA a marqué des points depuis 15 ans et son essor est aujourd’hui à coup sûr irréversible. Cette fois, le soufflé ne retombera pas. La ques- tion est à présent de savoir jusqu’où et dans quels domaines l’IA va pouvoir s’imposer dans les années qui viennent, en surfant notamment sur la puis- sance et la capacité toujours accrues des machines et, en parallèle, sur leur miniaturisation. L’IA se développe, mais qu’est-ce que l’IA ? Il existe une littérature inépuisable sur la no- tion d’intelligence artificielle et ses relations avec des phénomènes aussi divers que la perception, la compréhension, le raisonnement, l’initiative, la mémoire, le langage, les émotions, les sentiments, la conscience… D’aucuns, beaucoup mieux que nous, savent décrire les rapports de l’IA avec la logique, la linguistique, les neurosciences, l’anthro- pologie, la psychologie… Quand on sait combien il est difficile de définir la notion d’intelligence, on conçoit que l’ajout « d’artificielle » n’aille pas dans le sens de la simplification. Nous nous en tiendrons dans ce dossier à une approche d’ingénieurs : l’IA est un ensemble de tech- niques conférant à des machines des capacités d’ana- lyse et de décision s’apparentant à celles de l’être humain mais avec des performances pouvant être sensiblement accrues. Quelles sont ces techniques ? Même ramenées à un débat purement tech- nique, les opinions divergent et il n’y a pas accord sur le périmètre des technologies relevant de l’in- telligence artificielle. Le traitement automatique du langage naturel (reconnaissance de la parole, traduction automatique, génération automatique de texte, etc.) est par exemple souvent présenté comme une technologie de l’IA. Mais il s’agit en fait de technologies qui héritent de l’IA mais qui s’appuient sur bien d’autres techniques pour deve- nir opérationnelles : délimitation de la phrase et des mots, analyse syntaxique, décomposition en phonèmes… techniques dont beaucoup relèvent du traitement du signal. De même, on observe aujourd’hui une synergie très forte entre ce qui relève de l’IA et ce qui relève du traitement des données massives (big data). Cette synergie est accentuée par l’émergence de l’Internet des objets qui rend accessible une 86 ZREE N°4/2018 Figure 2 : Schéma de principe d’un système expert. LES GRANDS DOSSIERS Introduction quantité considérable de données en provenance d’une myriade d’objets connectés. L’IA n’est pas, et de loin, la seule technique qui permet de valoriser ces données mais elle peut y contribuer et là en- core la frontière n’est pas simple à dresser. Où commence et où s’arrête l’IA ? Chacun peut en discuter. L’IA n’est généralement qu’une sorte d’accélérateur qui va contribuer à repousser les limites d’autres techniques et à leur donner plus d’efficacité. Et cela conduit beaucoup d’hommes de marketing à expliquer, sans trop savoir à quoi ils font allusion, qu’ils ont introduit « une dose d’IA » dans les produits qu’ils promeuvent. Si l’on s’en tient aux techniques de base réelle- ment spécifiques à l’IA, il nous semble qu’il y en aujourd’hui deux : les systèmes experts et les ré- seaux neuronaux. Les systèmes experts Les systèmes experts sont fondés sur un en- semble de règles, héritées des connaissances d’ex- perts humains, qui sont actionnées par un moteur d’inférence permettant au système de conduire des raisonnements logiques et de dériver des conclu- sions à partir d’une base de faits et d’une base de connaissances. Ce sont des algorithmes, plus ou moins complexes, simulant un raisonnement déductif en vue de parvenir à une conclusion à par- tir de faits en s’appuyant sur des règles connues, et donc pouvant être utilisés pour prendre des décisions. Ces règles sont pour l’essentiel des syl- logismes : si P est vrai (ce qui est un fait) et si l’on peut affirmer que P implique Q (ce qui est une règle), alors Q est vrai (ce qui est un fait nouveau ou la conclusion). Le gros avantage des systèmes experts est qu’il est possible de comprendre comment fonctionne le moteur d’inférence et donc de remédier à des dysfonctionnements éventuels en modifiant une règle ou en ajoutant une autre. En France, la société ILOG, créée en 1987, a fondé son développement initial sur les systèmes experts, dans un premier temps développés en Lisp avant de migrer vers un environnement C++. Elle a ensuite diversifié son activité, notamment après son rachat par IBM, mais les systèmes à base de règles (Business Rules Management Systems) restent un point fort de son activité. L’un des problèmes rencontrés avec les systèmes experts est qu’il est assez rare qu’un fait entraîne de façon certaine un autre fait. Il faut alors affecter une probabilité, un « poids de vraisemblance » à chacune des inférences ce qui est une approche à laquelle les experts ne sont pas préparés. C’est l’une des raisons pour laquelle les réseaux neuronaux sont apparus progressivement comme une solution plus féconde. REE N°4/2018 Z 87 Introduction LES GRANDS DOSSIERS Figure 3 : Schéma d’un réseau de neurones à trois couches cachées. Les réseaux neuronaux Les réseaux neuronaux, ou réseaux de neurones artificiels, sont, plus que les systèmes experts, ins- pirés par ce que l’on pense être les mécanismes de fonctionnement du cerveau humain. Ils sont consti- tués d’un nombre plus ou moins importants de neu- rones formels, organisés en couches et interagissant les uns sur les autres en pondérant les signaux qu’ils transmettent par des poids qui sont les coefficients synaptiques. Les données d’entrée interfèrent avec la première couche de neurones cependant que la dernière est celle qui va déterminer le résultat re- cherché, fonction des données d’entrée. Les couches intermédiaires supportent ce qu’on appelle les neu- rones cachés ou profonds (figure 3). Les coefficients synaptiques ne sont pas entrés lors de la construction du modèle. Ils résultent d’une phase d’apprentissage (on parle aujourd’hui de deep learning pour rappeler le caractère profond des neurones auxquels il s’applique) au cours de laquelle les coefficients sont progressivement ajus- tés afin de minimiser le taux d’erreur calculé sur un échantillon expérimental pour lequel on connaît à la fois les données d’entrée et les bonnes réponses de sortie. Ainsi peut-on, par exemple, optimiser un système neuronal de lecture de caractères en utili- sant le découpage manuel d’un grand nombre de mots écrits à la main par de nombreuses personnes et en minimisant progressivement les erreurs de lecture. Le gros avantage de l’approche neuronale, et de l’apprentissage, est qu’elle ne nécessite pas une modélisation a priori des phénomènes que l’on veut décrire. L’apprentissage est dit supervisé lorsque les classes auxquelles on veut pouvoir rattacher un vecteur d’entrée sont connues : par exemple les lettres de l’alphabet dans un système de reconnais- sance de caractères. Il est dit non supervisé lorsque les classes ne sont pas connues a priori et que c’est précisément le but du modèle que de les définir en regroupant dans chacune de ces classes ainsi créées les éléments de l’échantillon. L’apprentis- sage supervisé se prête à une mesure de l’erreur commise qu’il sera ensuite possible de corriger par rétropropagation en agissant sur les coefficients du modèle. L’apprentissage non supervisé fait appel à des méthodes différentes. L’apprentissage permet de construire progressi- vement un modèle cadrant de mieux en mieux avec la réalité (tout en évitant le sur-apprentissage qui ferait perdre à la modélisation toute valeur) mais le modèle ainsi créé est opaque : on constate qu’il restitue de façon correcte les résultats attendus à partir de l’échantillon mais il est impossible d’expli- quer comment le réseau est parvenu à une conclu- sion donnée. Ce phénomène de boîte noire s’écarte de l’approche humaine qui intègre toujours une dose de raisonnement logique et pose en outre un problème lorsque, mis en situation réelle, le réseau conduit à une conclusion erronée. La recherche de l’erreur peut s’avérer délicate. Un inconvénient des réseaux neuronaux réside dans la taille des échantillons dont il faut disposer avant de parvenir à un réseau offrant un niveau de confiance suffisant. Si le modèle conduit lors de la phase de test à un taux d’erreur inacceptable, il fau- 88 ZREE N°4/2018 Figure 4 : Schéma d’un système de neurones à réservoir de calcul construit à partir de memristors – Source : Reservoir computing using dynamic memristors for temporal information processing. Chao Du & al – Nature Communications vol.8, article n° 2204 (2017). LES GRANDS DOSSIERS Introduction dra continuer à le perfectionner en lui soumettant de nouveaux cas réels servant d’exemples. Le pro- cessus peut être très long et la convergence n’est pas assurée. Les techniques d’apprentissage et de calcul des coefficients synaptiques jouent donc un rôle essentiel et constituent un facteur de différen- ciation entre les différentes catégories de réseaux neuronaux auxquelles il peut être fait appel. Il existe différentes approches pour réduire le temps d’apprentissage et la taille de la base de connaissances nécessaires pour calibrer le réseau. Une famille de méthodes est celle de l’apprentis- sage par renforcement dans lequel le système est « puni ou récompensé » en fonction de la qualité du résultat obtenu, ce score étant rétropropagé à l’in- térieur du système par des méthodes non linéaires appropriées. Il faut aussi parler du reservoir computing dans lequel un système physique, le réservoir, constitué d’éléments dynamiques dotés d’une capacité mé- moire à très court terme, tels que des composants optiques ou des memristors, est capable d’assimi- ler, sans apprentissage, un signal d’entrée écrit sous forme impulsionnelle (u(t)) et de restituer à la sortie une empreinte caractérisant l’état du réservoir (x(t)) qui jouera le rôle de dernière couche de neurone dont les liaisons synaptiques e seront les seules de- vant faire l’objet d’apprentissage (figure 4). Citons enfin les réseaux neuronaux impulsionnels (spike neural networks) dans lesquels l’information est codée par le temps : l’instant de l’impulsion géné- rée par un neurone aussi bien que la fréquence des impulsions deviennent des vecteurs d’information. Construits à l’aide de memristors, ces réseaux se rapprocheraient davantage de la biologie humaine et nécessiteraient une phase d’apprentissage moins longue. L’IA, pour quelles applications ? Quel enjeu pour l’industrie ? Construite autour de ces technologies de base et surtout autour de celle des réseaux neuronaux et du deep learning, l’IA soulève aujourd’hui un intérêt considérable. La puissance des machines fait oublier les traitements complexes que ces technologies impliquent et l’intelligence artificielle a conquis des terrains d’application très variés : éducation, finance, hôpitaux, médecine, ressources humaines, services clients, jeux, maintenance, etc. Les domaines les plus porteurs sont incontesta- blement ceux liés à la reconnaissance des formes et au traitement de la parole. Les systèmes de lec- ture optique sont devenus monnaie courante, la reconnaissance et la synthèse vocales également. Les assistants « intelligents » se sont banalisés et, comme nous l’avons souligné précédemment, im- pressionnent pour l’instant fortement le public. Mais l’IA a conquis également le domaine pro- fessionnel et en particulier celui de la médecine où l’interprétation d’images ou de clichés radio peut aujourd’hui être être confiée avec succès à des ma- chines utilisant l’IA. Il est donc naturel de se poser la question de savoir quel rôle l’IA pourra jouer dans l’industrie du REE N°4/2018 Z 89 Introduction LES GRANDS DOSSIERS Tableau 1: Domaines d'application potentiels de l'IA. futur et quelle assistance elle pourrait donc appor- ter au renouveau industriel du pays. Dans les années 1980-90, à la grande époque des systèmes experts, l’idée première était celle d’appliquer les techniques d’intelligence artificielle à la conduite et à l’optimisation des procédés in- dustriels en combinant l’IA avec des techniques de contrôle avancé des processus. La gestion des alarmes arrivant à l’opérateur, confronté à la multi- plication des écrans et des synoptiques, était égale- ment un sujet de réflexion important. Aujourd’hui les champs d’application possible de l’IA au domaine industriel se sont considérablement élargis. L’une des raisons réside dans la maturité at- teinte par les techniques de l’IA qui permet d’envisa- ger leur transplantation depuis les domaines grand public vers les secteurs professionnels à l’instar de ce qui s’est passé pour les applications intéressant la médecine. L’autre raison a trait à l’explosion des données que le monde industriel va pouvoir et de- voir manipuler. L’industrie serait depuis 2010, selon McKinsey, le secteur générant le plus de données, le double des gouvernements, institutions bancaires et communications & média, et plus de quatre fois plus que la distribution. Le développement des capteurs communicants et intelligents, qui sont à la base de l’IIoT (Industrial Internet of Things), per- met aujourd’hui d’accéder à des données plus fines, plus diversifiées et beaucoup plus nombreuses et les méthodes s’appuyant sur l’IA sont aujourd’hui les bienvenues pour tirer parti de ces flux massifs de données. Comme la REE le soulignait dans son étude IoT 2018, nous sommes passés de l’ère du Data Management à celle du Management by Data. La donnée devient reine et constitue le véritable car- burant de l’économie moderne. Le tableau 1 propose une classification des do- maines applicatifs où l’IA peut aujourd’hui trouver sa place dans le secteur industriel. On y distingue les applications s’inscrivant dans le prolongement de celles s’étant déjà imposées dans le grand public et celles davantage spécifiques au monde industriel. Ce mouvement de pénétration de l’IA dans l’in- dustrie n’en est encore qu’à ses débuts et il reste beaucoup à faire pour amener le monde industriel à utiliser ses techniques. Mais l’enjeu est impor- tant. Face aux impératifs de personnalisation et d’innovation rapide, face à la concurrence des pays émergents et aux exigences toujours plus fortes des clients, tant en termes de diversité des produits que de qualité, le monde industriel doit s’adapter. Le rap- port de Cédric Villani1 de mars 2018, Donner un sens à l’intelligence artificielle, fournit des pistes visant à repositionner la France dans le peloton de tête de l’IA. Au cœur de la révolution industrielle, l’intelli- gence artificielle repousse les limites de l’automati- sation et de l’efficacité. 1 Rapport de mission confiée à Cédric Villani, en tant que député de l’Essonne et mathématicien. Domaines Cas d’usage typiques Extension de techniques grand public Reconnaissance de formes et de caractère - Vision s #ONTRÙLESDEFABRICATION s $ÏTECTIONDEDÏFAUTS Traitement du langage naturel - Reconnaissance de la parole - Synthèse vocale s )NTERFACECLIENTS s !SSISTANTSPERSONNELSPOURÏQUIPESDINTERVENTIONETDEMAINTENANCE s &ORMATIONDESPERSONNELS s !UTOMATISATIONDELACRÏATIONETDELAMISEÌJOURDELADOCUMENTATION Technologies professionnelles Organisation et contrôle des procédés s 2OBOTIQUEETAUTOMATISATIONDESPROCÏDÏS s /PTIMISATIONDELACONDUITEDESPROCÏDÏS s /RGANISATIONDELAMAINTENANCEPRÏDICTIVE s /RGANISATIONDELALOGISTIQUEn'ESTIONDESAPPROVISIONNEMENTSETDES ENTREPÙTS Analyse stratégique et aide à la décision s !NALYSEDESMARCHÏS VEILLESTRATÏGIQUEETCONCURRENTIELLE DÏTECTIONDES SIGNAUXFAIBLES s !FFECTATIONOPTIMALEDESRESSOURCES PLANIlCATIONETGESTIONDESSYSTÒMES COMPLEXES s !NALYSEPRÏDICTIVE Sécurité s #ONTRÙLEDACCÒS s #YBERSÏCURITÏDÏTECTIONDINTRUSIONS 90 ZREE N°4/2018 LES GRANDS DOSSIERS Introduction Pour en souligner les enjeux, nous avons sélec- tionné dans ce dossier, trois articles. Le premier, de Fabien Moutarde, professeur à MINES ParisTech est consacré à la robotique et à l’évolution vers des robots intelligents. Il y montre que les robots actuels peuvent dès à présent disposer d’une bonne intelligence de per- ception et que, même si l’on est encore très loin de disposer de robots dotés d’une intelligence polyvalente, il faut s’attendre, dans des domaines limités, à des progrès spectaculaires. Le deuxième article, de Jean-Paul Pallois et Merouane Debbah, de Huawei Paris, montre comment l’IA sera inté- grée à chaque composante des systèmes de communication mobile de 5e génération, dans le réseau et dans le système de support d’opérations dont elle améliorera l’effica- cité et la qualité de service. Le troisième article nous vient de Juliette Mattioli et Christophe Meyer de Thales. r Les auteurs reviennent sur la distinction entre les deux grandes technologies que nous avons introduites ci-dessus : systèmes experts et réseaux neuronaux, qu’ils désignent comme « IA symbolique » et « IA connexionniste ». Ils dis- cutent ensuite comment et dans quelles limites ces tech- nologies, et tout particuliè- rement l’IA connexionniste qui souffre d’un effet « boîte noire », peuvent être aména- gées et complétées pour bâtir une « IA de confiance », telle que l’exigent les applications industrielles critiques. Q IA : vers des robots « intelligents » ? Fabien Moutarde .............................................................................................................................................................. p. 91 IA : rendre les réseaux mobiles intelligents Jean-Paul Pallois, Merouane Debbah .................................................................................................................... p. 101 L’Intelligence artificielle au service des systèmes critiques Les défis de l’IA de confiance Juliette Mattioli, Christophe Meyer ...................................................................................................................... p. 112 LES ARTICLES Jean-Pierre Hauet est rédacteur en chef de la REE. Ancien élève de l’Ecole polytechnique et ingénieur au corps des mines, il a notamment dirigé le labora- toire central du Groupe Alcatel-Alsthom avant de devenir Chief Technology Officer du groupe Alstom. Il est l’auteur de nombreux ouvrages et publications. Ses travaux actuels sont axés sur le domaine de l’énergie et sur celui de la cybersécurité. Suzanne Debaille est docteur en mathématiques et a eu un parcours pro- fessionnel international et opérationnel dans le domaine des réseaux et techno- logies de télécommunications. Après des activités de recherche chez Orange Labs (CNET), elle crée la société de conseil Arcome, puis rejoint Vivendi Télécom International en tant que directeur de la stratégie. Elle est ensuite nommée directeur des opéra- tions internationales d’outsourcing chez Alcatel-Nokia. Enfin, elle occupe les fonctions de directeur technique chez Thales Communication et Sécurité.