L’intelligence artificielle : prothèse ou orthèse ?

20/10/2018
Publication REE REE 2018-4
OAI : oai:www.see.asso.fr:1301:2018-4:23825
DOI :

Résumé

L’intelligence artificielle : prothèse ou orthèse ?

Auteurs

L’IA et l’industrie
L’intelligence artificielle : prothèse ou orthèse ?
Refroidissement des logements : ne refaisons pas l’erreur des chauffages d’appoint
26e Congrès de la Conférence générale des poids et mesures (CGPM) à Versailles
Gérard Mourou, prix Nobel de physique 2018
Transition énergétique : il est temps de redonner la priorité à l’électricité
Comment décarboner les transports lourds de marchandises ?
La RATP se met au vert
Autoconsommation : le débat ne fait que commencer
Un mix gazier 100 % renouvelable en 2050 : peut-on y croire ?
La fiscalité du carbone se renforce
Stratégie nationale bas carbone : les premiers indicateurs de résultats interpellent
Eoliennes flottantes : deux inaugurations importantes mais beaucoup d’incertitudes demeurent
Vers un cluster de l’hydrogène dans la région de Liverpool-Manchester
Les batteries Li-ion pour l’automobile : un marché en pleine évolution
Mobileye et le Road Experience Management (REMTM)
La cyber-sécurité dans les systèmes d'automatisme et de contrôle de procédé
Les applications industrielles et scientifiques des logiciels libres : aperçu général
Les applications industrielles des logiciels. libres
Les applications industrielles des logiciels libres (2ème partie)
L'identification par radiofréquence (RFID) Techniques et perspectives
La cyber-sécurité des automatismes et des systèmes de contrôle de procédé. Le standard ISA-99
Êtes-vous un « maker » ?
Entretien avec Bernard Salha
- TensorFlow, un simple outil de plus ou une révolution pour l’intelligence artificielle ?
Donald Trump annonce que les Etats-Unis se retirent de le l’accord de Paris
L’énergie et les données
Consommer de l’électricité serait-il devenu un péché ?
Un nouveau regard sur la conjecture de Riemann – Philippe Riot, Alain Le Méhauté
Faut-il donner aux autorités chargées du respect de la loi l’accès aux données chiffrées ?
Cybersécurité de l’Internet des objets : même les ampoules connectées pourraient être attaquées
L’Internet des objets - Deux technologies clés : les réseaux de communication et les protocoles (Partie 2)
ISA L’évolution des normes et des modèles
FIEEC - SEE - Présentation SEE et REE - mars 2014
Les radiocommunications à ondes millimétriques arrivent à maturité
L’Internet des objets - Deux technologies clés : les réseaux de communication et les protocoles (Partie 1)
Internet des objets : l’ARCEP et l’ANFR mettent à la consultation l’utilisation de nouvelles bandes de fréquence autour de 900 MHz
L’énergie positive
Controverses sur le chiffrement : Shannon aurait eu son mot à dire
La cyberattaque contre les réseaux électriques ukrainiens du 23 décembre 2015
Le démantèlement des installations nucléaires
L’Accord de Paris
Les data centers
L’hydrogène
Le piégeage et la récolte de l’énergie. L’energy harvesting
Régalez-vous, c’est autant que les Prussiens n’auront pas...
Le kWh mal traité Deuxième partie : le contenu en CO2 du kWh
Le kWh mal traité
Enova2014 - Le technorama de la REE
Les grands projets solaires du pourtour méditerranéen
Après Fukushima, le nucléaire en question ?
On sait désormais stocker les photons pendant une minute
Identification d’objet par imagerie fantôme utilisant le moment orbital angulaire
La découverte du boson de Higgs, si elle est avérée, confirmera le modèle standard
Multiplexage par moment angulaire orbital : mythe ou réalité ?
Supercalculateur quantique: le choix de la supraconductivité
Photovoltaïque : la course au rendement se poursuit
Production d’hydrogène par photolyse de l’eau assistée par résonance plasmon
Vers une meilleure compréhension du bruit de scintillation
Les nombres premiers en première ligne
La nouvelle révolution des moteurs électriques
Les cyber-attaques, un risque pour nos grandes infrastructures ?
Le stockage de l’électricité
Le véhicule électrique (2) : comment donner corps à la transition énergétique ?
L'automatisation des transports publics
Les technologies nouvelles de l’éclairage : leur impact sur l'environnement et la santé
Les énergies marines renouvelables
Le véhicule électrique : une grande cause nationale
Médaille Ampère 2012
Berges2009_Hauet.pdf
Prix Bergès 2009

Métriques

4
0
120.04 Ko
 application/pdf
bitcache://b0f427c0c8760c6a4fec503b08282ee0afb723d1

Licence

Creative Commons Aucune (Tous droits réservés)
<resource  xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
                xmlns="http://datacite.org/schema/kernel-4"
                xsi:schemaLocation="http://datacite.org/schema/kernel-4 http://schema.datacite.org/meta/kernel-4/metadata.xsd">
        <identifier identifierType="DOI">10.23723/1301:2018-4/23825</identifier><creators><creator><creatorName>Jean-Pierre Hauet</creatorName></creator></creators><titles>
            <title>L’intelligence artificielle : prothèse ou orthèse ?</title></titles>
        <publisher>SEE</publisher>
        <publicationYear>2018</publicationYear>
        <resourceType resourceTypeGeneral="Text">Text</resourceType><dates>
	    <date dateType="Created">Sat 20 Oct 2018</date>
	    <date dateType="Updated">Sat 20 Oct 2018</date>
            <date dateType="Submitted">Tue 13 Nov 2018</date>
	</dates>
        <alternateIdentifiers>
	    <alternateIdentifier alternateIdentifierType="bitstream">b0f427c0c8760c6a4fec503b08282ee0afb723d1</alternateIdentifier>
	</alternateIdentifiers>
        <formats>
	    <format>application/pdf</format>
	</formats>
	<version>39594</version>
        <descriptions>
            <description descriptionType="Abstract"></description>
        </descriptions>
    </resource>
.

145 Z REE N°4/2018 LIBRES PROPOS LIBRES PROPOS L ’intelligence artificielle (IA) fait partie des technologies pseudo-cycliques, de celles sur lesquelles on fonde de grands espoirs jusqu’à ce que le soufflé retombe et avant qu’une nouvelle génération d’ingénieurs et de responsables politiques reprenne le flambeau, quelque 25 ou 30 ans plus tard. L’IA est née dans les années 50 des travaux d’Alan Turing. Elle a beaucoup mobilisé les scientifiques à l’époque puis a connu un nouveau pic d’engouement dans les années 1985 avec les systèmes experts, la lo- gique floue et les premiers réseaux neuronaux, mais les résultats, une nouvelle fois, n’étaient pas au rendez-vous. Cependant les technologies pseudo-cycliques par- fois décollent et ce décollage peut être très rapide : on l’a vu avec les écrans plats et les cellules photovol- taïques. Aujourd’hui, l’IA connaît un redémarrage très puissant avec des résultats spectaculaires, en particulier pour tout ce qui a trait à la reconnaissance de formes ou d’images, avec des applications médicales assez impres- sionnantes, notamment dans le domaine du diagnostic avec, par exemple, la possibilité de détecter par analyse d’image des mélanomes malins, avec des taux d’erreur plus faibles que ceux des meilleurs spécialistes humains. L’IA est à présent couramment utilisée dans des applications grand public telles que la reconnaissance de la parole et les assistants vocaux ou IPA (Intelligent Personal Assistant) tels que Google Assistant, Siri, Alexa, Bixby, Nina, etc. On trouve aussi l’IA dans le domaine du traitement statistique, avec l’analyse des données mas- sives et la détection des signaux faibles, dans les jeux, dans la robotique et la cobotique, etc. Ces applications de plus en plus sophistiquées laissent à penser que l’on est à présent capable de re- produire les mécanismes du cerveau humain et donc de l’intelligence humaine et un grand nombre y voit à la fois un progrès et une menace, car si une machine est capable de se substituer à l’esprit humain, qui peut dire où elle pourra s’arrêter et qui pourra l’arrêter ? Les décla- rations de personnalités éminentes telles que Stephen Hawking et Elon Musk ont donné corps à ces craintes, en prédisant l’apocalypse, suite à une prise de contrôle du monde entier par des dictateurs numériques avec lesquels les humains ne pourraient pas rivaliser. La question est donc posée de savoir ce qu’est l’intel- ligence artificielle d’aujourd’hui, s’il y a une IA « forte » se démarquant de l’IA « faible » des années 1980 ou, pour être dans l’air du temps, une IA 2.0 dont il faudrait se réjouir mais dont il serait sage de se méfier. Le problème de la définition de l’IA n’est pas nouveau et il y a toujours eu quelque flou autour de ce concept. L’IA est en effet usuellement définie comme l’ensemble des théories et techniques mises en œuvre pour réaliser des machines capables de simuler l’intelligence. « Simu- ler l’intelligence », cela pose plusieurs questions : s SAGIT
ILDELINTELLIGENCEHUMAINEOUDUNEAUTREFORME d’intelligence, l’intelligence des animaux, des insectes ou une intelligence simplement rationnelle ? s QUEVEUT
DIREiSIMULERw3AGIT
ILSIMPLEMENTDEDÏ- velopper des comportements, des formes de raison- nement ayant l’apparence de l’intelligence humaine ? Ou bien, avec l’IA que l’on dit nouvelle, aurait-on la prétention d’avoir reproduit les mécanismes de fonc- tionnement interne du cerveau, c’est-à-dire de pouvoir « émuler » et non plus « simuler » en portant ces méca- nismes sur une nouvelle machine ? Ces machines se- raient-elles alors dotées d’un esprit semblable à celui de l’être humain ? Mais n’est-ce qu’une apparence ou bien la réalité intrinsèque ? Et toute l’activité du cer- L’intelligence artificielle : prothèse ou orthèse ? Jean-Pierre Hauet Rédacteur en chef de la REE 146 ZREE N°4/2018 LIBRES PROPOS veau humain et pas seulement certaines fonctions spécifiques, pourrait-elle ainsi être transplantée sur une autre machine ? En deux mots, l’IA est-elle une Intelligence Artificielle ou une Intelligence Augmentée ? Un substitut à l’intel- ligence naturelle ou simplement un outil qui en amé- liore l’efficacité ? Une prothèse ou une orthèse ? Pour l’informatique traditionnelle, la réponse était claire. Lorsqu’un humain calcule 15+7, il ne décompose pas chacun des nombres en base 2 avant d’appliquer les règles du calcul binaire. Mais l’IA nouvelle est différente : elle procède par apprentissage et la modélisation à la- quelle celle-ci fait appel, repose sur des réseaux de neu- rones structurés en plusieurs couches dont les « poids synaptiques » c’est-à-dire les coefficients d’influence d’un neurone sur les autres, peuvent être modulés par l’apprentissage. On parle alors de deep learning ou d’ap- prentissage profond, car il se produit alors un phéno- mène de boîte noire : au fur et à mesure que des tests sont faits sur des échantillons toujours plus nombreux, le modèle s’affine au prix de calculs très complexes, le taux d’erreur diminue sans que l’on sache exactement ce que représente le modèle interne ainsi construit et quel raisonnement est suivi pour parvenir à une conclusion donnée. On atteint des niveaux de perfectionnement assez bluffants comme en atteste la démonstration de prise de rendez-vous chez le coiffeur faite par le système Google Duplex en mai 2018, dans laquelle rien ne per- mettait de distinguer la voix de la machine de celle d’un humain, pas même les « hmm, hmm » renvoyés en cas d’hésitation. Mais cette démonstration, comme bien d’autres, vient alimenter le débat : les machines ont-elles réellement compris quelque chose au dialogue auquel elles parti- cipent ou bien ne sont-elles que des robots qui exploitent mécaniquement une immense base de connaissances, sans comprendre le sens des mots et des phrases échan- gées, en utilisant des échappatoires lorsque la question sort des limites de leur base de données ? Beaucoup estiment que l’IA bute sur les capacités de calcul des machines et font valoir que le cerveau est une belle machine qui contient des milliards de cellules et peut-être un million de milliards de synapses, c’est- à-dire de connexions entre ces cellules. C’est un ordi- nateur biologique et son rendement thermodynamique est bien meilleur que celui des meilleurs calculateurs actuels. Avec une puissance de 28 W, correspondant approximativement à la puissance dissipée en moyenne par un cerveau humain, on peut faire fonctionner au- jourd’hui un calculateur qui aura une puissance à peu près équivalente au 1/10 000 d’un cerveau humain. Ceci veut dire que l’ordinateur le plus puissant au Monde, le Summit, construit aux Etats-Unis et qui absorbe 15 MW, a une puissance de calcul équivalente à celle d’un hy- pothétique cerveau humain qui aurait des dimensions quatre fois supérieures. La différence n’est pas consi- dérable, on mesure en conséquence la difficulté à faire supporter par un calculateur de taille modeste et a for- tiori par un simple composant, des fonctions aussi com- plexes que celles attachées à la conduite des véhicules. Cependant cet argument sur la puissance du cerveau est insuffisant pour disqualifier l’IA et écarter l’hypothèse d’un rattrapage du cerveau par les machines. L’électro- nique d’aujourd’hui a un rendement thermodynamique, calculé par référence à la limite de Landauer1 , extrême- ment mauvais et il est à parier que nos descendants lorsqu’ils examineront les machines que nous utilisons aujourd’hui, seront remplis d’étonnement et de condes- cendance : nos calculateurs actuels sont beaucoup moins performants que la lampe à huile comparée à l’éclairage par LED. Mais des voies de progrès existent qui se traduiront par des ruptures technologiques majeures : recours à la nanoélectronique, à l’électronique de spin et aux nanooscillateurs à transfert de spin, peut-être aux calculateurs quantiques… Ces technologies arriveront à maturité et donc les machines continueront à se minia- turiser en offrant toujours plus de puissance de calcul et de capacité de mémoire. Des programmes extraordi- nairement complexes et d’immenses bases de données pourront venir se loger dans des machines d’une taille cette fois plus petite que celle de notre cerveau, donnant l’impression que la compétition est perdue. Mais la différence entre un humain et une machine n’est pas une question de puissance de calcul. Il y a d’autres éléments plus fondamentaux et, à vrai dire, plus mystérieux. Prenons le cas d’un robot tueur qui va surgir au milieu d’un forum organisé, par exemple !, par la SEE. Il y recon- naîtra sans aucune hésitation les visages qu’il recherche, s’il a été programmé pour cela. Le GIGN sera appelé en urgence, mais croit-on que le chef de peloton pourra entamer avec lui un dialogue en rappelant l’existence 1 La limite de Landauer est l’énergie minimale nécessaire pour faire basculer un bit d’information. Elle s’écrit L=kTln2, formule dans laquelle k est la constante de Boltzmann (1,38 x 10-23 J.K-1 ), T la température en °K et ln2 le logarithme népérien de 2 (0,69315). REE N°4/2018 Z 147 de sa vieille mère qu’il a laissée au pays ou en tentant de le faire parler de son enfance malheureuse… Pense- t-on qu’une machine, qu’un robot puisse connaître des émotions, qu’il ait une sensibilité, qu’il puisse connaître des humeurs et tenir compte d’un contexte évolutif ? Car au fond, les impressionnantes technologies d’ap- prentissage dont on s’étonne ne restent que des algo- rithmes, basés sur de gigantesques matrices de convo- lution. Où sont l’histoire, l’éducation, la sensibilité, sans aller jusqu’à parler de la conscience… ? Mais même face à ces algorithmes, dont on pourrait soutenir qu’ils représentent une partie de la capacité de raisonnement humain à défaut d’en représenter l’intégralité, on peut s’interroger. La reconnaissance de formes ou d’objets, demande l’analyse des résultats de dizaines de milliers de tests avant de pouvoir ramener le taux d’erreur à un niveau acceptable. C’est d’ailleurs l’un des problèmes qui se trouvera posé par la certifica- tion des véhicules autonomes : quand pourra-t-on arrê- ter les tests et considérer que l’on a atteint le niveau de sécurité requis, avec l’assurance de n’avoir rien oublié ? Un enfant est plus expéditif : une fois qu’on lui a pré- senté une pomme, peut-être deux, il saura reconnaître toutes les pommes et il n’est point besoin pour cela de lui en présenter toutes les variétés ! Est-ce simple- ment une question de puissance de calcul ? A coup sûr non. Certains disent aujourd’hui que les calculs de coefficients synaptiques ne représentent pas les mé- canismes du cerveau et qu’il faut leur substituer une approche impulsionnelle (spike neural networks ( ( ) dans laquelle un neurone ne s’active pas systématiquement mais seulement lorsque son potentiel excède un cer- tain seuil, auquel cas il envoie une impulsion vers les neurones avec lesquels il correspond qui se trouvent ainsi à leur tour acti- vés. Comment être sûr que l’on s’est véritablement rapproché des méca- nismes du cerveau ? Mais il y a plus grave : quand je dé- cide de lever mon bras, je le lève alors que personne ne m’y oblige, sans qu’il n’y ait aucun stimulus externe. Je lève mon bras parce que j’ai décidé de le lever. Je lève mon bras mais je peux aussi bien prendre mon porte-plume et faire acte de création littéraire ou artistique, un beau matin sans que rien ne m’y oblige. Ce pouvoir d’initiative et de création a quelque chose de mystérieux car on n’a jamais, que je sache, vu une machine décider de faire autre chose que ce pour quoi elle a été programmée. Elle peut le faire bien ou le faire mal et dans ce cas être à l’origine de dégâts considérables. Un assistant « intelligent » pourra répondre de façon plus ou moins pertinente aux ques- tions d’une personne âgée. Mais peut-on imaginer de le voir tout d’un coup rendre son tablier pour aller se consacrer à d’autres tâches et développer par exemple une activité créatrice ? Le cerveau humain et sans doute aussi l’intelligence animale conservent leur mystère qui ne relève peut-être pas seulement de la technique. Attendons-nous à voir des machines de plus en plus puissantes et sophistiquées qui allégeront les humains de plus en plus de tâches, ac- croîtront leurs capacités, pourront le cas échéant avoir un pouvoir destructeur mais ne remplaceront pas l’homme dans sa capacité créatrice. Il y a malheureusement un autre péril dont il faut tenir compte : celui de la perte des connaissances et du savoir-faire, et je devrais dire de « l’abêtissement » d’une fraction croissante des populations qui d’ores et déjà ne savent plus faire une division à la main, ne savent plus lire une carte et se précipitent vers leur smartphone au moindre problème. En fait cette dégénérescence du savoir n’est pas universelle : il subsiste fort heureuse- ment des personnes qui maîtrisent la conception et la fabrication des machines. Mais ces spécialistes sont une minorité et on peut donc soutenir que les technologies numériques malgré tous les services qu’elles rendent, sont un facteur d’inégalité, créant un fossé énorme entre ceux qui les maîtrisent et ceux qui ne savent rien faire de mieux que de les utiliser sans avoir la moindre idée sur la façon dont elles fonctionnent2 . Notre revue REE, à son niveau, s’efforce de combler ce vide et d’offrir à ses lecteurs la pos- sibilité de rester dans le peloton de tête sans avoir recours à l’intelligence artificielle 2.0 ! Q 2 Sur cette question cruciale de l’IA, potentiel générateur d’inégalités, le lecteur est invité à se reporter à l’ouvrage du neurobiolo- giste Laurent Alexandre intitulé « La guerre des intelligences », paru en octobre 2017 aux Editions JC Lattès. LIBRES PROPOS Jean-Pierre Hauet est rédacteur en chef de la REE. Ancien élève de l’Ecole polytech- nique et ingénieur au corps des mines, il a notamment dirigé le laboratoire central du Groupe Alcatel-Alsthom avant de devenir Chief Technology Officer du groupe Alstom. Il est l’auteur de nombreux ouvrages et publica- tions. Ses travaux actuels sont axés sur le domaine de l’énergie et sur celui de la cybersécurité.