REE

Bienvenue

La Revue de l’Electricité et de l’Electronique (REE) est une revue au service des ingénieurs, chercheurs, enseignants, décideurs techniques et économiques intéressés par les secteurs de l’électricité, de l’électronique, de l’information et de la communication. Connaître l’état de l’art des technologies dans ces domaines ainsi que leurs évolutions et leurs applications, permet au lecteur d’enrichir ses compétences et de rester en ligne avec l’actualité. Paraissant cinq fois par an, la REE offre un panorama de ces technologies, établi par des professionnels, industriels ou scientifiques.

Cette information est complétée par des rubriques d'actualité sur les grands enjeux technologiques du moment et sur les faits marquants du domaine couvert par la revue. On y trouve également régulièrement le programme des activités de la Société des Électriciens et des Électroniciens (SEE), dont la REE est le principal organe d'expression. 
ISSN 1265-6534 (revue papier) - ISSN 2270-7042 (revue en ligne)

Les numéros REE sont intégrés et indexés dans le site depuis 2011.
Pour accéder aux anciens numéros:
  • Archives 1995-2006 : permet d'accéder gratuitement à ces numéros en version électronique après inscription sur ce site 
  • Archives 1995-2010 : permet d'accéder aux sommaires de ces numéros. La version électronique n'est pas disponible.
  • Les numéros papier non disponibles sur le site peuvent être commandés à l'aide du formulaire manuel

Abonnement et formulaires

Pour vous abonner en ligne, sélectionner la formule de votre choix. Vous pourrez régler par carte de crédit, chèque ou virement : suivez les instructions applicables au mode de règlement choisi.
Les membres SEE bénéficient de réductions, les prix affichés tiennent compte de votre situation lorsque vous êtes connecté.
Ceux qui n’ont pas la possibilité de souscrire en ligne peuvent utiliser le formulaire manuel. En cas de difficultés, appelez au 01 56 90 37 17

Abonnement REE 2017

Abonnement papier, les membres SEE bénéficient d'une réduction. Adhérez à la SEE à cette page
  • Si vous êtes déjà membre et souscrivez l'abonnement avant le 1er janvier, pensez à renouveler en même temps votre adhésion pour bénéficier de plein droit de la réduction offerte.
  • Un supplément est applicable aux abonnés hors Union européenne.

120,00 €
se connecter ou s'enregistrer pour commander.

Abonnement REE 2017 spécial adhérents


spécial

60,00 €
se connecter ou s'enregistrer pour commander.

Accès en ligne REE 1 an non adhérents


1 an

Si vous êtes membre de la SEE, les droits d'accès en ligne à la REE vous sont acquis et vous n'avez pas besoin de souscrire cet abonnement. Adhérez à la SEE à cette page

90,00 €
se connecter ou s'enregistrer pour commander.

REE Abonnement 2017


Formulaire manuel

Ce formulaire est destiné à ceux qui n’ont pas la possibilité d’adhérer en ligne

REE Abonnement 2017

Organisation

Rédacteur en Chef

Jean-pierre Hauet

Secrétaire du comité de rédaction

Aurélie Courtoisier Alain Brenac

Comité de rédaction

Bernard Ayrault Alain Brenac Patrice Collet André Deschamps
Jacques Horvilleur Marc Leconte

N° (papier)

2008

REE 2008- Spécial 125° Promotion été 2016 -50% !

1295_couv-08-HS.jpg

18,00 €
se connecter ou s'enregistrer pour commander.

2016

REE 2016-4

ree2016-4_couverture.jpg

28,00 €
se connecter ou s'enregistrer pour commander.

REE 2016-3

ree2016-3_couverture.jpg

28,00 €
se connecter ou s'enregistrer pour commander.

REE 2016-2

ree2016-2_couverture.jpg

28,00 €
se connecter ou s'enregistrer pour commander.

REE 2016-1

ree2016-1_couverture.jpg

28,00 €
se connecter ou s'enregistrer pour commander.

2015

REE 2015-5

ree2015-5_couverture.jpg

28,00 €
se connecter ou s'enregistrer pour commander.

REE 2015-4

ree2015-4_couverture.jpg

28,00 €
se connecter ou s'enregistrer pour commander.

REE 2015-3

ree2015-3_couverture.jpg

28,00 €
se connecter ou s'enregistrer pour commander.

REE 2015-2

couverture_ree_2015-2.jpg

28,00 €
se connecter ou s'enregistrer pour commander.

REE 2015-1

couverture_ree_2015-1.jpg

28,00 €
se connecter ou s'enregistrer pour commander.

2014

REE 2014-5

ree2014-5_couverfture.jpg

28,00 €
se connecter ou s'enregistrer pour commander.

REE 2014-4

couverture_ree_2014-4.jpg

28,00 €
se connecter ou s'enregistrer pour commander.

N° (en ligne)

Creative Commons Aucune (Tous droits réservés) Aucune (Tous droits réservés)
contenu protégé  Document accessible sous conditions - vous devez vous connecter ou vous enregistrer pour accéder à ou acquérir ce document.
Prix : 20,00 € TVA 20,0% comprise (16,67 € hors TVA) - Accès libre pour les ayants-droit

se connecter ou s'enregistrer pour commander.

DOSSIER ÉNERGIEÉNERGIE TELECOMMUNICATIONSTELECOMMUNICATIONS SIGNALSIGNAL COMPOSANTSCOMPOSANTS AUTOMATIQUEAUTOMATIQUE INFORMATIQUEINFORMATIQUE Numéro2016 EDITORIAL ITER: un projet extraordinaire, une aventure humaine unique Bernard Bigot ENTRETIEN AVEC Alain Bugat Président de l’Académie des technologies www.see.asso.fr 4 ISSN1265-6534 schneider-electric.com/fr La moindre panne de courant peut impacter l’ensemble de votre business. Schneider Electric propose des solutions de protection de l’alimentation fiables pour garantir le bon fonctionnement de vos systèmes dans le contexte numérique actuel. dysfonctionnement électrique une perte de puissance optimale et niveaux d’humidité maintenus long du cycle de vie de votre équipement © 2016 Schneider Electric. Tous droits réservés. Toutes les autres marques sont la propriété de Schneider Electric SE, ses filiales et sociétés associées. 998-1230015 REE N°4/2016 ◗ 1 C ’est à la demande de la Revue de l’Électricité et de Électronique, dont je veux saluer ici l’heureuse initiative et l’en remercier, qu’a été élaborée cette série d’articles sur la fusion et sur le projet ITER. Les informations rassemblées dans ce nu- méro ont l’ambition de vous faire partager notre conviction commune de l’extraordinaire potentiel que représente cette technologie de fusion dans la perspective, avant la fin de ce siècle, d’un appro- visionnement en énergie de nos concitoyens du monde entier qui sera sûr, massif, continument programmable, sans impact sur le climat et l’envi- ronnement, et d’une durée quasi-illimitée dans le temps, à l’échelle des civilisations humaines, au vu des ressources en combustible de fusion dis- ponible sur Terre à l’image de ce qui existe depuis des millions d’années, dans le soleil et les étoiles. Ce dossier offrira à ses lecteurs la possibilité de découvrir les remarquables défis scientifiques et techniques associés à la conception de cette ins- tallation de recherche en parcourant la descrip- tion de ses principaux composants. C’est à la fois le potentiel unique que représente cette technologie de fusion, complémentaire des énergies renouvelables, et la nécessaire taille et complexité de cette indispensable installation en vue de l’optimisation et de la démonstration de faisabilité industrielle de cette technologie, qui expliquent l’engagement actuel conjoint, pour 40 ans au moins, de 35 pays représentant plus de la moitié de la population mondiale et assu- rant plus de 85% du produit mondial brut annuel. Ainsi la Chine, la Corée du Sud, l’Inde, le Japon, la Fédération de Russie, l’Union Européenne et les Etats Unis sont convenus de collaborer dans le cadre de l’accord International ITER signé le 21 novembre 2006 à Paris, il y a cette année 10 ans. Cette revue est une certaine manière de célébrer cet anniversaire et de donner rendez- vous dans moins de 10 ans maintenant pour le premier plasma désormais programmé en dé- cembre 2025, jalon majeur sur la route qui de- vrait mener en 2035 aux premières expériences de fusion à pleine puissance produisant 500 MW thermique avec un facteur de rendement de la machine d’une valeur objectif égale ou supé- rieure à 10 entre l’énergie injectée et récupérée. C’est dans l’histoire de cette extraordinaire aven- ture humaine qui porte le nom de ITER, « la voie », que nous vous invitons à entrer pour vous permettre d’en comprendre les ressorts, d’en apprécier les progrès de la construction sur le site de Saint-Paul-lez-Durance, de juger person- nellement de la pertinence de l’extraordinaire investissement de recherche qu’elle représente, et pourquoi pas de vous donner l’envie d’y parti- ciper personnellement… Je voudrais pour conclure rendre un hommage appuyé à tous ceux qui, dans le monde entier ont contribué ou contribuent actuellement, sans ménager leurs efforts, pour que ce « rêve » d’une source d’énergie propre et quasi inépuisable de- vienne bientôt réalité. Qu’ils en soient chaleureu- sement remerciés. Bernard Bigot Directeur général de ITER Organization ITER: un projet extraordinaire, une aventure humaine unique editorial bernard bigot 2 REE N°4/2016 sommaireNuméro 4 1 EDITORIAL ITER : un projet extraordinaire, une aventure humaine unique Par Bernard Bigot 2 SOMMAIRE 4 FLASH INFOS TransActive grid : une plate-forme d’échange pour microgrid fondée sur la chaîne de blocs 6 Un stockage sous-marin d’énergie électrique expérimenté au Canada 7 Le lithium-O2 , futur successeur du lithium-ion ? 8 Des gaines en nanotubes de carbone pour rendre les câbles coaxiaux plus légers 9 Pierre de Fermat au secours de la 5G 10 Le principe d’équivalence observé au « Microscope » 12 Origine de l’eau : Rosetta relance le débat 14 Réalisation et test de la variante Kitaev de l’algorithme de Shor 20 ACTUALITÉS Lancement par la Chine d’un satellite “quantique” 23 Les radiocommunications à ondes millimétriques arrivent à maturité 26 A RETENIR Congrès et manifestations 28 VIENT DE PARAÎTRE La REE vous recommande 30 LE GRAND DOSSSIER La fusion thérmonucleaire et le projet ITER Introduction Par Jean Jacquinot, Robert Aymar et Bernard Bigot 34 La fusion thermonucléaire Enjeux, principes, réalisations Par Jean Jacquinot 44 Le projet ITER - Objectifs, choix des paramètres et état du projet Par Robert Aymar, Bernard Bigot et Jean Jacquinot p. 1 p. 30 p. 131p. 105 Photo de couverture : 304A SOHO/EIT Image of the chromospheric network (NASA/ESA). v État de l’ART et ATO Série ATO Transformateurs de courant ouvrants Compacts, auto-alimentés Diamètres intérieurs de 10 et 16 mm Précision de classe 1 et 3 Fréquence de fonctionnement : 50/60 Hz Série ART Boucle de Rogowski unique, fine et Tension nominale d’isolation : 1 kV Précision de classe 1.0. Trou de passage du sceau de sécurité de 2 mm Ecran électrostatique www.lemcity.com At the heart of Smart Cities. SPS/IPC / D rives H all3A.200 REE N°4/2016 3 56 Un site et une logistique exceptionnels Par Erwan Duval 65 La distribution électrique du site et les alimentations électriques de puissance Par Joël Hourtoule 76 Les aimants supraconducteurs d’ITER Par Paul Libeyre 85 ITER : vide et cryogénie Par Eric Fauve et David Grillot 97 La chambre vide - Fonctions et matériaux Par Jean-Marc Martinez 105 GROS PLAN SUR… L’Internet des objets Deux technologies clés : les réseaux de communication et les protocoles Par Jean-Pierre Hauet 117 RETOUR SUR... Les Wi-Fi Par Thierry Letertre 131 ENTRETIEN AVEC... Les technologies existent, il faut savoir les utiliser Par Alain Bugat 136 ENSEIGNEMENT & RECHERCHE L’Institut franco-chinois de l’énergie nucléaire (IFCEN) : une “success story” qui valorise l’enseignement supérieur français en Chine Par Jean-Marie Bourgeois-Demersay Echos de l’enseignement supérieur Par Alain Brenac 143 LIBRES PROPOS Le principe de précaution : une passion française Par William Dab 146 SEE EN DIRECT La vie de l'association 4 REE N°4/2016 FLASHINFOS TransActive grid : une plate-forme d’échange pour microgrid fondée sur la chaîne de blocs Le concept de microgrid soulève un intérêt grandis- sant. Il repose sur l’idée que les réseaux publics de trans- port et de distribution ne pourront plus à l’avenir se déve- lopper de façon suffisante pour assurer la satisfaction de tous les besoins électriques et que le système électrique de demain sera, au moins pour partie, un système de proximité dans lequel l’énergie produite localement sera consommée localement moyennant un transit minimal sur les réseaux publics. L’économie de réseaux n’est pas le seul moteur de ce concept : le microgrid est censé répondre à un désir de décentralisation et d’autonomie ainsi qu’à la volonté de développer les ressources locales, en règle générale renouvelables et souvent intermittentes. Des expériences de microgrids sont menées aux Etats-Unis mais aussi en Europe. La loi du 17 août 2015 sur la transition énergétique ouvre dans son article 119 la possibilité pour les collectivités territoriales, en asso- ciation avec des producteurs et des consommateurs, de proposer au gestionnaire du réseau public de distribution d’électricité la réalisation d’un service de flexibilité local sur des portions de ce réseau. Il s’agit en quelque sorte d’étendre au niveau du quartier et du territoire la notion d’autoconsommation que le Gouvernement souhaite encourager et pour laquelle une ordonnance a été pro- mulguée le 27 juillet dernier. Mais le problème n’est pas simple car hormis le cas des sites isolés, le microgrid doit s’interfacer avec le réseau pu- blic, notamment pour assurer la continuité dans la desserte. Il faut que cet interfaçage ait un intérêt mutuel et qu’en parti- culier le microgrid réduise l’empreinte énergétique du quar- tier vis-à-vis du réseau national sans générer de contraintes additionnelles pendant les périodes les plus critiques. Il est clair que le développement de moyens de stockage jouera un rôle important dans la recherche de solutions. Mais le microgrid doit être aussi administré. Il faut ima- giner des mécanismes d’échange permettant d’organiser de façon fiable et rigoureuse l’autoconsommation à une maille plus large que le logement individuel de façon à permettre à un producteur installé dans le périmètre du microgrid de valoriser l’électricité qu’il ne consomme pas, en la cédant aux sites de consommation situés dans le même périmètre ou à défaut en renvoyant l’énergie excé- dentaire sur le réseau public. On peut évidemment songer à faire appel à un tiers de confiance pour assurer la gestion du microgrid et un métier d’opérateur local pourra se développer. Toutefois l’objectif d’autonomie et d’indépendance n’est pas dans ce cas atteint et la césure par rapport au modèle tradi- tionnel n’est pas totalement faite. Dans ce contexte, la solution en cours d’expérimenta- tion dans une rue de Brooklyn à New-York par TransActive Grid retient l’attention. TransActive Grid est un joint-venture créé pour les besoins du projet entre les société LO3 Energy et ConsenSys. La première est un développeur de projet dans le domaine des énergies renouvelables, la seconde un développeur d’outils et d’applications utilisant le principe de la blockchain (chaîne de blocs) et reposant plus spécifique- ment sur la plate-forme développée par la fondation suisse Ethereum en crowd funding à partir de 2014. Le Brooklyn Microgrid est en soi très modeste. Cinq producteurs équipés de panneaux solaires d’un côté de President Street sont mis en relation avec cinq consom- mateurs potentiels de leur énergie excédentaire (figure 1). L’ensemble forme un petit marché fonctionnant de façon décentralisée et autonome. C’est évidemment la démonstration de principe qui est intéressante. Dans le système mis en place par TransActive Grid, tous les acteurs sont équipés de compteurs intelligents capables d’enregistrer les flux d’électricité au pas de 15 mi- nutes. Les échanges d’électricité sont représentés par des jetons électroniques cryptés. Ces jetons sont proposés par les producteurs disposant d’excédents et souscrits par les consommateurs intéressés sur une plate-forme électro- nique développée par Consensys dont l’interface homme- machine est encore, il est vrai, sommaire (figure 2). Mais c’est là cependant l’intérêt majeur du projet qui, au lieu de reposer sur une architecture usuelle centralisée, décentralise la gestion du système vers les participants, la mutualise et la sécurise en utilisant le principe de la chaîne de blocs. Dans ce système, utilisé à grand échelle par les monnaies numériques cryptées du type Bitcoin, les tran- Figure 1 : Le micromarché de President Street à Brooklyn. REE N°4/2016 5 FLASHINFOS Figure 2 : Interface de transaction mise à disposition des participants. Encadré 1. sactions sont supportées par une plate-forme distribuée, à la mise à jour de laquelle les abonnés peuvent participer de façon active en étant rétribués (ce sont « les mineurs » du système Bitcoin) ce qui permet de valider et d’enregis- trer en temps quasi-réel les transactions de façon fiable et inviolable. L’encadré 1 donne un aperçu de ce concept et de la plate-forme développée par Ethereum. Dans le cas de New-York, les participants au TransAc- tive Grid peuvent récupérer les RECs (Renewable Energy Certificates), aussi connus comme Green tags, attachés à la production d’électricité d’origine renouvelable. Ces RECs sont négociables et constituent une incitation finan- cière au bénéfice des participants qui, en France, viendrait se substituer au tarif de rachat des kWh par le fournisseur. D’aucuns considèrent que le concept de la chaîne de blocs, étendu du domaine financier à celui des échanges d’électricité, peut être à l’origine d’un nouveau modèle d’affaires pouvant modifier de façon substantielle la façon dont fonctionnent aujourd’hui les infrastructures de pro- duction et de distribution de l’électricité. ■ JPH Aperçu sur la chaîne de blocs et Ethereum La chaine de blocs est un concept défini en 2008 par Satoshi Nakamoto1 qui repose sur la répartition entre un grand nombre d’acteurs de la gestion de transactions qui, dans un modèle traditionnel, seraient gérées de façon centralisée par un opérateur responsable de l’ensemble (par exemple une banque). La première application a été la création de la crypto-monnaie Bitcoin utilisée pour le paiement numérique. Dans le système de chaîne de blocs, les ordinateurs individuels des « mineurs » (les nœuds) participent à la mise à jour d’une base de données unique, globale et publique, partagée entre tous. Dès qu’un nœud a connais- sance d’une transaction, il la valide et met à jour le registre. Les transactions sont regroupées par blocs dûment répertoriés. Les blocs sont validés par une procédure complexe dénommé « preuve de travail ». Les nœuds sont rémunérés pour ce travail de « minage » qui implique la mise à disposition d’une puissance de calcul et une cer- taine consommation d’énergie. Ils ne reçoivent pas d’argent mais sont payés en crypto-monnaie, le Bitcoin ou, dans le cas de la chaîne Ethereum, l’Ether (ETH). L’ETH, comme le bitcoin, est négociable sur des places de marché traitant les crypto-monnaies telles que Poloniex2 . Fin juillet 2016, il était coté aux environs de 10 euros. La chaîne de blocs est en somme un grand livre de comptes, un tableau Excel géant dans lequel on entre les données que l’on souhaite, auquel tout le monde a accès et que les mineurs se chargent de mettre à jour de façon coopérative. Cette chaîne de blocs comprend l’historique de l’ensemble des opérations réalisées sur la base. Cela permet d’éviter que quelqu’un ne puisse modifier cet historique et de pouvoir reconstituer à n’importe quel moment et ad vitam eternam les différentes opérations effectuées par les utilisateurs. Pour altérer la base, il faudrait altérer simultanément plus de 51 % des ordinateurs participant à un instant donné. Il est à noter que, fonctionnant depuis 2009, la blockchain Bitcoin n’a jamais été corrompue par une attaque informatique. Par contre, des vols de Bitcoins ont eu lieu à plusieurs reprises sur des sites insuffisamment protégés. La chaîne de blocs Ethereum V1.0 a été déployée en mars 2016. De nombreux développeurs y travaillent et des applications diversifiées voient le jour. 1 Satoshi Nakamoto est en fait un nom d’emprunt choisi par le groupe de personnes qui ont conçu et développé le Bitcoin. On ne sait pas qui se cache derrière ce pseudonyme. 2 Il est à noter que le 20 juillet 2016 la chaîne Ethereum à la suite d'une cyberattaque, a dû être scindée en deux et qu’il existe désormais deux monnaies l’ETH et l’ETC. Le lecteur pourra se rendre sur le site www.ethereum-france.com pour plus de précisions. 6 REE N°4/2016 FLASHINFOS Un stockage sous-marin d’énergie électrique expérimenté au Canada Le stockage de l’énergie électrique est, comme cha- cun sait, l’un des défis majeurs de la transition énergé- tique. La REE y a consacré un dossier complet dans son numéro REE 2013-3 auquel le lecteur pourra se référer. L’une des techniques envisagées est celle du stockage par air comprimé ou CAES (Compressed Air Energy Storage) qui consiste à comprimer de l’air pendant les heures creuses et à l’injecter dans des cavités, générale- ment souterraines, afin de pouvoir le réutiliser pendant les heures de pointe pour actionner une turbine produi- sant de l’électricité. Cette forme de stockage a été expéri- mentée à Huntorf (290 MW) en Allemagne et à McIntosh (110 MW) aux Etats-Unis. Un stockage plus important, pouvant aller jusqu’à 2 700 MW de puissance restituée, a également été étudié à Norton1 . Dans une version amé- liorée, la chaleur générée durant la compression est stoc- kée dans un régénérateur soigneusement isolé afin de réchauffer l’air envoyé dans la turbine de détente. Ce type de stockage adiabatique pourrait faire l’objet d’une réali- sation en Allemagne, dans le cadre du projet européen ADELE piloté par RWE. La technique des CAES a toutefois du mal à se déve- lopper pour des raisons de coûts d’investissement et de rendement. Elle est concurrencée en outre par les stoc- kages hydrauliques du type STEP (stations de transfert d’énergie par pompage turbinage) dont l’usage est beau- coup plus répandu, en France en particulier où 5 100 MW sont installés et répartis entre sept sites. Il reste que les énergies renouvelables intermittentes vont exiger de recourir à des capacités accrues de stoc- kage si l’on veut accroître leur taux de pénétration dans 1 Pour plus d’informations sur ces deux stockages, le lecteur pourra se reporter au rapport de l’INERIS disponible à l’adresse http:// www.ineris.fr/centredoc/rapport-caes-v7-unique-1453211310.pdf la production d’électricité. A cet égard, la solution mise en œuvre par la société Hydrostor à Toronto (Canada) et expérimentée par Toronto Hydro mérite d’être soulignée. Cette solution consiste à envoyer l’air comprimé pen- dant les heures creuses dans des ballons immergés à 2,5 km du rivage dans le lac Ontario. Ces ballons sont accrochés à une plate-forme lestée immergée à 55 m de profondeur et reliée au rivage, où sont situées les ins- tallations fixes, par une canalisation forée en utilisant les techniques de forage horizontal utilisées par l’industrie pétrolière (figures 1 et 2). L’air est comprimé à une pression légèrement supé- rieure à la pression de l’eau au niveau de la plate-forme (soit 5,5 bars environ dans le cas de l’expérimentation) afin de pouvoir déplacer dans l’eau les ballons accumu- lateurs. A la détente, la pression de l’eau refoule l’air vers la turbine. La chaleur est récupérée et stockée lors de la compression afin de pouvoir réchauffer l’air avant la détente. De la chaleur additionnelle peut être injectée. Hydrostor estime que le rendement du système se situe entre 60 et 80 %. La puissance typique des installations projetées est de 5 MW pour une capacité stockée de 6 MWh. Mais le Figure 1 : Positionnement de l’installation pilote au large de Toronto. Source : Hydrostor. Figure 2 : Schéma de principe de l’installation – Source : Hydrostor. REE N°4/2016 7 FLASHINFOS caractère modulaire du système permettrait d’envisager des installations plus puissantes (100 MW pour 1 000 MWh). Le système semble particulièrement approprié pour l’alimentation des îles non connectées au réseau électrique et qui sont désireuses de recourir aux énergies renouvelables. Les promoteurs font remarquer que le posi- tionnement sous-marin de la plupart des équipements les met à l’abri des ouragans qui affectent fréquemment les îles. Ils estiment également que le coût d’investissement se situe à la moitié de celui des batteries Li-ion avec une durée de vie au moins deux fois supérieure. ■ JPH Le lithium-O2 , futur successeur du lithium-ion ? On sait l’importance que jouent les batteries lithium- ion dans de nombreux domaines : électronique, appareil- lage ménager, véhicule électrique, réseaux électriques, etc. Des investissements colossaux sont en cours dans le monde, tels que la « gigafactory » de Tesla près de Reno dans le Nevada, et une quinzaine de grands fabricants se préparent à affronter une compétition qui pourrait res- sembler à celle qui sévit depuis plusieurs années dans le domaine des panneaux photovoltaïques. Les prix sont orientés à la baisse cependant que les performances continuent de s’améliorer : des capacités de 150 à 200 Wh/kg sont aujourd’hui monnaie courante. Cependant, s’agissant du véhicule électrique et des stoc- kages sur réseaux, d’aucuns doutent de la filière pour des raisons de coût, de capacité, de longévité, de temps de recharge, etc. et donc les travaux se poursuivent partout dans le monde sur d’autres filières telles que le zinc-air et le sodium-air sans oublier les travaux sur les batteries à circulation (flow batteries). Parmi les couples les plus attractifs, figure le lithium- air ou le lithium-O2 , dont l’idée est apparue dans les an- nées 1970 avant que le concept ne tombe en sommeil compte tenu des difficultés rencontrées. Dans une bat- terie lithium-air, l’oxygène de l’air est utilisé comme ma- tière première. Lorsqu’ils se déchargent, les ions lithium transitent de l’anode vers la cathode et réagissent avec l’oxygène de l’air qui est dissous dans l’électrolyte. Dans le même temps, les électrons se déplacent, formant un courant électrique (figure 1). L’oxygène peut évidemment, en théorie au moins, être utilisé à l’état pur. Les batteries Li-O2 ont une capacité théorique de 3 450 Wh/kg (hormis le poids de l’oxygène utilisé), c’est-à-dire pouvant aller jusqu’à 15 fois celle des batteries Li-ion. Un tel moyen de stockage offrirait dans le domaine automobile une capacité massique équivalente à celle d’un réservoir de carburant. Mais les difficultés rencontrées pour utiliser pratique- ment le couple Li-O2, ou même Li-air, se sont révélées considérables. La cathode, qui doit être poreuse, se dété- riore rapidement sous l’effet des produits de décharge tels le peroxyde de lithium et de contaminants tels que la vapeur d’eau. Des dendrites se développent à l’anode pouvant conduire au court-circuit. La tension à la charge est supérieure de 1,2 V à la tension de décharge, ce qui entraîne une perte d’énergie de 30 % par échauffe- ment pouvant entrainer le déclenchement de l’ignition. En outre, les performances se dégradent rapidement et la stabilité des composants n’est pas assurée. Dans ces conditions, les recherches semblaient encore récemment être dans l’impasse. L’annonce du MIT du 25 juillet 2016 est de na- ture à redynamiser les espoirs portés sur cette filière. Un nouveau concept, fondé sur l’utilisation de nanomaté- riaux, est décrit dans une publication publiée par Nature Energy et signée par Ju Li, professeur au Nuclear Science and Enginering Department du MIT et six autres cher- cheurs du MIT, de l’Argonne Laboratory1 . L’idée est de ne jamais laisser l’oxygène, à la charge comme à la décharge, prendre une forme gazeuse et donc de le contenir à l’intérieur de la cathode en jouant 1 Anion-redox nanolithia cathodes for Li-ion batteries – Zhi Zhu, Akihiro Kushima, Zongyou Yin, Lu Qi, Khalil Amine, Jun Lu & Ju Li – Nature Energy 1, Article number: 16111 (2016) Figure 1 : Schéma de principe d’une batterie lithium-air. Source : University of Cambridge (Clara Grey). 8 REE N°4/2016 FLASHINFOS sur les transformations entre trois formes d’oxydes de lithium : Li2 O, Li2 O2 et LiO2 . La perte de tension est alors ramenée de 1,2 V à 0,24 V et les pertes par échauffe- ment à 8 % ce qui permettrait, pour des applications au véhicule électrique, des recharges plus rapides sans risque. Par ailleurs, pour éviter les sollicitations auxquelles sont soumises les cathodes lors de la charge et la décharge, celles-ci sont constituées de particules nanométriques, contenant à la fois le lithium et l’oxygène, insérées dans une matrice d’oxyde de cobalt conférant à l’ensemble une structure de verre. L’oxyde de cobalt sert en fait à la fois de matrice et de catalyseur (figure 2). Cette “nano- lithia battery” est autoprotectrice contre les surcharges car en cas de surcharge, des réactions apparaissent qui y font obstacle. En laboratoire, une batterie a subi 150 cycles charge- décharge avec une dégradation des performances de 2 %. Les cathodes “Solid Oxygen” sont beaucoup plus lé- gères que celles des batteries Li-ion conventionnelles et donc la capacité massique des batteries, dont le packa- ging n’aurait pas à être significativement modifié, pourrait être multipliée dans un premier temps par un facteur 2 et par la suite par un facteur 4. Cette technologie assurerait en fait la convergence entre les batteries Li-ion classiques et les batteries Li-air. ■ JPH Des gaines en nanotubes de carbone pour rendre les câbles coaxiaux plus légers Le laboratoire de du professeur Matteo Pasquali à la Rice University de Houston a annoncé récemment1 avoir mis au point une méthode à base de nanotubes de car- bone (CNT : Carbon Nanotubes) permettant de rempla- cer le conducteur externe des câbles coaxiaux afin de les rendre plus légers. Le conducteur externe en alliage cuivre-étain, qui pro- tège notamment le câble contre les interférences électro- magnétiques, est le composant le plus lourd des câbles coaxiaux modernes ce qui constitue un handicap sérieux dans les applications à la recherche d’économies de masse : aéronautique et espace notamment. Les câbles coaxiaux sont constitués de quatre éléments : une âme en cuivre conductrice, une gaine de polymère électrique- ment isolant, un conducteur extérieur assurant le blin- dage pouvant prendre la forme d’une tresse et une gaine externe protectrice en polymère. Le laboratoire de Rice a remplacé le conducteur extérieur en enduisant les cœurs revêtus de leur diélectrique d’une solution de nanotubes de carbone dans de l’acide chlorosulfonique. Par rapport aux précédentes tentatives visant à utiliser des nanotubes de carbone dans les câbles, cette méthode conduit à une conduction plus uniforme et permet un débit plus élevé (figure 1). 1 Francesca Mirri & Al. - Lightweight, Flexible, High-Performance Car- bon Nanotube Cables Made by Scalable Flow Coating – ACS Apple Materials & Interfaces 2016, 8 (7), pp 4903–4910. Figure 2 : Dans le nouveau concept de “Solid Oxygen cathode”, des nanoparticules associant différents oxydes de lithium (en rouge et blanc), sont insérées dans un réseau spongieux d’oxyde de cobalt (en jaune) qui assure leur stabilité. Les chercheurs estiment qu’un tel matériau pourrait être packagé dans des batteries tout à fait similaires aux batteries Li-ion actuelles mais dont la capacité massique pourrait être multipliée par un facteur 2 à 4. Figure 1 : Schéma de fabrication des câbles à revêtement CNT. Source : Rice University. REE N°4/2016 9 FLASHINFOS Le revêtement a surtout une conductivité électrique de deux ordres de grandeur supérieure aux meilleurs résultats publiés à ce jour sur l’utilisation de revêtements CNT. Trois versions ont été étudiées en faisant varier l’épaisseur du revêtement et il est apparu que la plus épaisse, de 90 µm, pouvait satisfaire aux normes mili- taires en matière de protection électromagnétique. In fine des échantillons de câble ont été produits (figure 2) dont le poids du conducteur externe est réduit de 97 % ce qui permet de diminuer la masse de l’en- semble du câble de 50 % environ. Les câbles ont résisté à un cycle de 10 000 flexions sans qu’aucun effet néfaste sur les performances ne soit constaté. L’équipe de la Rice University est en contact avec l’Air Force Research Laboratory pour la poursuite des travaux et la mise en valeur des résultats. ■ JPH Pierre de Fermat au secours de la 5G Les techniques multi-antennes MI-MO (multiple input- multiple output) sont au cœur des développements ac- tuels de la 5G. Face à un milieu où les conditions de propagation des ondes électromagnétiques conduisent à une multiplicité de chemins, l’utilisation de matrices d’an- tennes permet de construire des faisceaux qui peuvent être regroupés en flux, chaque faisceau interférant po- sitivement dans la direction du point cible grâce à une gestion appropriée des décalages de phase (technique du beamforming). Chaque antenne de la matrice doit être éloignée suffisamment de ses voisines (de l’ordre de /2) afin d’éviter trop de corrélations entre les chemins multiples. Avec l’utilisation croissante des ondes millimé- triques (voir le flash info sur cette question), il devient possible de regrouper dans une même matrice un très grand nombre d’antennes (c’est-à-dire des dizaines voire des centaines d’antennes). C’est ce qu’on appelle le MI-MO massif. Cependant chaque élément d’antenne doit être piloté de façon séparée par un ensemble électronique approprié. Cette électronique fournit la puissance né- cessaire mais son rendement est loin d’être égal à 1 et donc une quantité substantielle de chaleur doit être dissipée au niveau du panneau. Ceci conduit alors à espacer davantage les éléments d’antennes (par exemple de 5 ). Mais si on adopte une disposition des éléments selon une grille régulière, d’autres pro- blèmes surgissent liés à l’apparition de figures d’inter- férences entre les lobes qui se manifestent par des lobes de réseau (grating lobes). Il faut donc trouver une bonne figure de répartition des éléments d’antenne qui permette un refroidissement uniforme de la matrice sans générer de lobes indési- rables. C’est là que Pierre de Fermat intervient avec la spirale qui porte son nom. La spirale de Fermat est un cas particulier de spirale parabolique dont l’équation polaire est : Figure 2 : Vues schématiques d’un câble coaxial CNT comparé à un câble conventionnel à conducteur externe en cuivre. Source : Rice university. Figure 1 : Schéma de principe du MI-MO massif – Source : Fujitsu. 10 REE N°4/2016 FLASHINFOS La spirale est donc constituée de deux branches qui partagent le plan en deux régions connexes symétriques par rapport au centre (figure 2). Une propriété intéressante de cette courbe est que l’aire d’un élément d’anneau quelconque compris entre et + d est constante. Elle s’écrit en effet : La spirale répond donc au souci de répartition homogène de la puissance dissipée. Il reste alors à répartir les élé- ments d’antenne de façon pseudo-aléatoire entre les spires de la spirale. Ceci se fait en rendant égal aux mul- tiples successifs de l’angle d’or soit ou 137° 30’ 28’’1 . On obtient alors un modèle re- présenté par la figure 3 qui est celui que l’on trouve dans la nature dans les fleurs de tournesol. Il est intéressant de noter que, pour des raisons simi- laires à celles précédemment exposées, le modèle de la fleur de tournesol est également utilisé pour la réparti- tion au sol des miroirs des centrales solaires thermody- namiques à tour. ■ JPH Le principe d’équivalence observé au « Microscope » Le 25 avril 2016, l’expérience Microscope (MICRO- Satellite à traînée Compensée pour l’Observation du Principe d’Equivalence), embarquée sur un microsatel- lite de la filière Myriade du CNES, a été mise en orbite. Elle a pour objectif de tester une nouvelle fois le principe d’équivalence, mais avec une résolution de 10 -15 jamais encore atteinte. Pilier de la théorie de la relativité géné- rale, ce principe postule que tous les objets tombent de la même façon dans le vide. Les progrès instrumentaux offrent de nouvelles possibilités et permettent de gagner plusieurs ordres de grandeur à la fois en précision et en sensibilité. L’idée est de mesurer l’accélération relative de deux masses de compositions différentes, platine et titane, placées en mouvement libre dans un satellite en orbite dans le champ gravitationnel de la Terre. Le principal avantage de l’expérience spatiale réside dans l’élimi- nation des vibrations aléatoires d’origine sismique qui constituent une limite pour les expériences de labora- toire. En outre, la comparaison du mouvement des deux masses peut s’effectuer pendant des durées beaucoup plus longues, supérieures à la période de révolution autour de la Terre. Un grand nombre d’expériences terrestres ont déjà été pratiquées démontrant jusqu’à aujourd’hui la validité du principe d’équivalence. On peut citer Simon Stevin vers 1586, Galileo Galilei vers 1610 ou encore Isaac Newton Figure 2 : Spirale de Fermat. Figure 3 : Le modèle de la fleur de tournesol. 1 L’angle d’or est obtenu en divisant la circonférence c d’un cercle en deux sections a et b de telle manière que : c = a + b et c/a = a/b. On montre qu’il est aussi égal à la limite, lorsque n tend vers l’infini, du rapport entre les entiers n-2 et n de la suite de Fibonacci qui joue un rôle essentiel en phyllotaxie. REE N°4/2016 11 FLASHINFOS vers 1680. Une expérience spectaculaire de lâcher d’un marteau et d’une plume sur la lune en 1971 par David Scott est restée célèbre. Mais cette dernière était plus une action de communication qu’une véritable expérience. On connaît trois principes d’équivalences : le principe dit « faible », le principe d’Einstein et celui dit « fort ». Le principe faible est le plus ancien, il est le simple constat d’égalité entre la masse inerte et la masse sou- mise à un champ de gravitation. La conséquence de ce principe est que tous les corps soumis à un même champ de gravitation et sans aucune autre influence extérieure, chutent simultanément quand ils sont lâchés simultané- ment, quelles que soient leurs compositions internes. Le principe d’Einstein est une interprétation du prin- cipe faible qui pose une équivalence locale entre la gravité et l’accélération dont les effets ne peuvent être distingués par une expérience locale. Il est équivalent de considérer qu’en tout point de l’espace il existe un référentiel local inertiel. Dans le cadre de la relativité générale, cela implique que ce référentiel soit un espace de Minkowski. Ce principe permet une extension du principe de relativité pour y inclure la gravitation, locale- ment et sous la forme de référentiels accélérés. C’est un des principes fondamentaux à l’origine de la théorie de la relativité générale. Le principe fort est une extension du précédent et est vérifié par la relativité générale. Il généralise le prin- cipe d’Einstein en affirmant que, localement, les effets d’un champ gravitationnel sur toute expérience, même portant sur la gravitation elle-même, sont identiques aux effets d’une accélération du référentiel de l’observateur. L’expérience Microscope nécessite des mesures d’ac- célérations inférieures au femto-g, soit un millionième de milliardième de la gravité terrestre, un environnement à bord du satellite particulièrement stable et une analyse soignée des perturbations en orbite. Le satellite com- prend pour l’essentiel : deux accéléromètres électros- tatiques différentiels comprenant chacun deux masses cylindriques concentriques ; un système de contrôle d’attitude et de compensation de traînée, et enfin un ensemble de micro-propulseurs électriques à effet de champ et à poussée modulable associés à leur électro- nique de commande et de puissance. Une des motivations principales de cette expérience vient du fait que la gravitation, première des interactions fondamentales connues, résiste aux tentatives d’unifica- tion avec les autres interactions fondamentales : électro- magnétique, nucléaire faible et nucléaire forte. Celles-ci sont décrites selon un modèle de théorie quantique des champs, le modèle standard de la physique des parti- cules, alors que la gravitation est décrite par une théo- rie classique, la relativité générale, qui relie la géométrie de l’espace-temps à la densité de matière-énergie qu’il contient. Les théories d’unification les plus récentes, telles que la théorie des cordes, cherchent ainsi à trouver une description cohérente de la gravitation et des autres interactions. Dans tous les cas, ces théories prédisent l’existence d’une nouvelle interaction dépendant de la composition des corps. Quelle que soit son origine, une éventuelle nouvelle force pourrait, en se superposant à la gravitation, être mise en évidence comme une violation du principe d’équivalence. Tester le principe d’équivalence, et en particulier l’universalité de la chute libre, c’est donc chercher aussi l’existence et les caractéristiques de cette nouvelle inter- action. Si Microscope observait une violation du principe d’équivalence, cela renforcerait la théorie des cordes selon laquelle l’Univers possède des dimensions d’es- pace supplémentaires. Cela implique en effet l’existence d’autres champs que celui de la gravitation, capables de faire varier les constantes de la physique dans le temps et l’espace, constantes qu’on ne sait absolument pas expli- quer aujourd’hui. Si Microscope confirmait une nouvelle fois le principe d’équivalence, la recherche ne s’arrêterait pas là. En effet, d’autres projets spatiaux encore plus ambitieux sont en attente. La mission Stequest de l’ESA pour 2018 propose de vérifier le principe d’équivalence au niveau atomique, en mettant en chute libre dans l’espace des atomes de nature différente. Aux États-Unis, un projet de mission spatiale nommée Step est aussi envisagé, visant, grâce à trois paires de matériaux différents à température cryogé- nique, une précision de 18 chiffres significatifs. L’aventure commencée il y plus de 400 ans n’est pas près de s’arrêter. ■ ADFigure 1 : Vue d’artiste du satellite Microscope – Source : CNES. 12 REE N°4/2016 FLASHINFOS Origine de l’eau : Rosetta relance le débat En décembre 2014, la sonde cométaire Rosetta a découvert que la vapeur d’eau contenue dans la comète Churyumov–Gerasimenko était différente de celle de la Terre. La mesure ne peut se faire que sur de l’eau sous forme de vapeur, car les conditions de température et de pression dans l’espace font que l’eau n’existe que sous forme solide ou gazeuse. Sous l’effet de la chaleur du soleil la glace des comètes se sublime directement en gaz. Cette découverte relance le débat de l’origine de l’eau sur notre planète. Les hypothèses sur l’origine de l’eau sur terre sont multiples et la question demeure. Certains pensent que l’eau était incluse dans le magma ayant donné naissance à la Terre et a été ensuite relâchée par un phénomène de dégazage. D’autres pensent que l’eau a été apportée par des micrométéorites, les chondrites, arrivées sur Terre au moment de son accrétion. D’autres enfin font le constat qu’il faisait si chaud quand la Terre s’est formée, il y a 4,6 milliards d’années, que l’eau qui aurait pu s’y trouver aurait dû s’évaporer. Et pourtant, les deux tiers de la sur- face du globe sont recouverts d’eau. Ils en concluent que l’eau aurait été apportée sur Terre après que celle-ci se soit refroidie, vraisemblablement lors de collisions avec des co- mètes ou des astéroïdes. Durant l’épisode du Grand Tack1 survenu dans les 20 ou 30 premiers millions d’années de l’histoire de la Terre, ou 600 millions d’années plus tard au cours du « bombardement tardif », certains de ces objets se sont écrasés sur notre sol et auraient apporté l’essentiel de cette eau. Mais cette hypothèse reste encore controver- sée et n’a pu être validée. Les mesures faites par la sonde Rosetta relancent le débat. Il faut rappeler que l’un des marqueurs visant à dé- terminer la provenance de l’eau réside dans la mesure du rapport D/H entre la quantité de deutérium et celle de protium, le protium étant l’isotope le plus courant de l’hydrogène, couramment appelé hydrogène. Ceci revient à mesurer le pourcentage de ce qu’on appelle communé- ment « l’eau lourde ». Le deutérium et l'hydrogène se sont formés juste après le big bang il y a environ 13,7 milliards d’années. Le rapport de l’un à l’autre peut varier d’une ré- gion à l’autre et d’une époque à l’autre, particulièrement quand une réaction chimique a pu se produire et créer 1 Le Grand Tack est une étape hypothétique de la formation du sys- tème solaire, proposée en 2011 par Kevin Walsh & al. de l'observa- toire de Côte d'azur. l’eau. La théorie montre que le rapport H/D devrait être modifié lorsque l’on s’éloigne du soleil et avec le temps, tout au moins dans les premiers millions d’années de for- mation du système solaire. La comparaison de ce rapport pour les océans et pour différents objets célestes pourrait ainsi apporter un élément de réponse à la question de l’origine de l’eau sur Terre. Les comètes sont des outils uniques pour sonder le système solaire primitif : elles ont peu évolué depuis leur formation et recèlent de la matière laissée par le disque protoplanétaire à partir duquel les planètes se sont for- mées. Elles reflètent donc la composition primordiale de leur région d’origine. Mais ce n’est pas si simple, car les comètes proviennent, a minima, de deux régions bien distinctes du système solaire : le nuage d’Oort et la cein- ture de Kuiper. Le nuage d’Oort est une zone encore théorique et très éloignée, jusqu’à une ou deux années-lumière du Soleil, recélant des objets dispersés dans l’espace par les effets gravitationnels des planètes géantes au cours de l’évolu- tion du système solaire. Ce serait un reliquat du disque protoplanétaire originel qui se serait formé autour du so- leil après l’effondrement de la nébuleuse solaire, il y a 4,6 milliards d’années. Les comètes à longue période, plus de 200 ans, sont réputées être issues du nuage d’Oort et s’être formées suffisamment loin du soleil pour que de la glace d’eau puisse subsister. Les comètes de période in- termédiaire (20 à 200 ans), dont la fameuse comète de Halley, pourraient également s’être échappées du nuage d’Oort mais ce point reste à valider. Les comètes à courte période, moins de 20 ans, de la famille dite « jovienne », proviennent d’une zone située beaucoup plus près de nous, au-delà de Neptune, que l’on appelle la ceinture de Kuiper. Cette zone est compo- sée de petits corps célestes, dont le plus connu est la pla- nète naine Pluton, qui sont autant de miettes issues de la formation du système solaire. Ces objets sont parfois délogés de leur course, injectés dans le système solaire intérieur et soumis notamment à l’attraction de Jupiter. Tel est le cas de la comète Churyumov–Gerasimenko ob- servée par Rosetta qui voyage autour du Soleil entre les orbites de la Terre et de Mars à son point le plus proche, et juste au-delà de Jupiter à son point le plus lointain, avec une période d’environ 6,5 années. La ceinture de Kuiper ne doit pas être confondue avec la ceinture d’astéroïdes connue depuis beaucoup plus longtemps et composée de quelques centaines de milliers de corps orbitant entre Mars et Jupiter parmi les- REE N°4/2016 13 FLASHINFOS quels la planète naine Cérès (qui présente toutefois un diamètre de 950 km). Les mesures du rapport D/H effectuées sur différents objets célestes ont montré des résultats assez dispersés (figure 1). Sur les onze comètes pour lesquelles des mesures ont été faites, seules celles de la comète jovienne 103P/ Hartley 2 correspondent exactement à la composition de l’eau sur Terre, comme le montrent les observations effectuées par l’instrument HIFI de la mission Herschel de l’ESA. L’eau contenue dans les météorites issues d’as- téroïdes de la ceinture d’astéroïdes entre Mars et Jupi- ter correspond également à la composition de l’eau sur Terre, mais ces objets contiennent peu d’eau. La figure positionne également le résultat de la mesure de D/H faite par la sonde Rosetta sur la comète Churyu- mov–Gerasimenko (67P). Ce résultat est surprenant pour une comète jovienne puisqu’il se situe à 5,3 ± 0,7 10-4 alors que sa valeur pour la Terre est 1,56 10-4 . Le ratio est même supérieur à celui mesuré pour les comètes issues du nuage d’Oort. Figure 1 : Variations du rapport D/H dans le système solaire – Source : ESA. Les planètes sont indiquées en bleu, les météorites issues de la ceinture des astéroïdes en gris, les comètes originaires du nuage d’Oort en violet et les comètes joviennes en rose. La comète 67P/C-G observée par Rosetta est en jaune, celle observée par l’observatoire spatial Herschel (103P) est en rose. Les diamants correspondent aux valeurs mesurées in situ, les cercles par des méthodes d’observations astronomiques. La ligne bleue horizontale correspond à la valeur terrestre du rapport D/H estimé à 1,56. 10 -4 . La valeur mesurée par la sonde Rosetta sur la comète Churyumov–Gerasimenko est de 5,3. 10-4 . Figure 2 : Vue de la comète Churyumov–Gerasimenko (67P C-G) prise à 30,8 km montrant en haut la trainée due à la sublimation de l’eau et à d’autres gaz plus rares – Source : ESA/Rosetta/NAVCAM. 14 REE N°4/2016 FLASHINFOS Cette découverte étonnante pourrait indiquer que les comètes joviennes ont des origines diverses et se sont peut-être formées au sein du jeune système solaire sur des distances plus grandes que nous le pensions précé- demment. Cette découverte exclut également l’idée que les comètes joviennes contiennent uniquement de l’eau comparable à celle des océans sur Terre, et apporte du poids aux modèles qui mettent en avant les astéroïdes comme étant le mécanisme principal d’apport d’eau sur Terre. « Nous savions que l’analyse in-situ de cette comète par Rosetta allait nous procurer des surprises à un niveau plus large, celui de la science du système solaire, et cette observation exceptionnelle alimente incontestablement le débat de l’origine de l’eau sur Terre » a déclaré Matt Taylor, le scientifique de la mission Rosetta . ■ AD Réalisation et test de la variante Kitaev de l’algorithme de Shor En 1980, Richard Feynman postulait qu’il serait pos- sible d’utiliser les lois de la physique quantique pour résoudre certains problèmes. Il créait ainsi une nouvelle discipline, l’informatique quantique, qui allait être consi- dérée comme un gadget de chercheurs jusqu’au milieu des années 90. En 1994, Peter Shor dévoilait un algo- rithme quantique qui était susceptible de permettre de décomposer un nombre en facteurs premiers beaucoup plus rapidement qu’un ordinateur classique (c’est-à-dire en un temps ne croissant pas de façon exponentielle en fonction de la taille du nombre à factoriser) ce qui remet- tait en question la sécurité du chiffrement RSA. Cette publication a marqué le point de départ des recherches pour le développement et la construction de calculateurs et ordinateurs quantiques, recherches qui se poursuivent activement aujourd’hui et dont la REE s’est faite à plu- sieurs reprises l’écho. Depuis plus de 15 ans, des variantes de l’algorithme de Shor ont été testées sur diverses plates-formes et ont montré sa faisabilité. En mars 2016, une équipe de chercheurs a fait état1 d’une implémentation pratique de l’algorithme réputé extensible de Kitaev, dérivé de celui de Shor, et ont réalisé la factorisation désormais classique du nombre 15 avec des ions calcium piégés. La structure 1 Thomas Monz, Daniel Nigg, Esteban A. Martinez, Matthias F. Brandl, Philipp Schindler, Richard Rines, Shannon X. Wang, Isaac L. Chuang, Rainer Blatt (2016). Realization of a scalable Shor algo- rithm. Science, 351(6277), 1068-1070. testée, qui a offert un taux de réussite de 99 %, pourrait évoluer pour factoriser des nombres plus grands. Le chiffrement RSA Le chiffrement RSA (initiales de Rivest Shamir Adleman, les inventeurs) est basé sur un partage de clés asymé- triques constituées d’une clé publique et d’une clé secrète. La solidité du procédé réside dans la très grande difficulté de décomposer en facteurs premiers un nombre N très grand ce à quoi les ordinateurs actuels les plus puissants ne parviennent pas en un temps accessible. Les propriétés mathématiques qui permettent d’inverser le chiffrement RSA sont celles des groupes finis des nombres inférieurs à N et premiers avec N, dotés de la multiplication modulo N. Ces groupes étant finis, chaque élément a du groupe fini G a une période r qui correspond au plus petit entier pour lequel ar = 1 (modulo N) ou encore, en utilisant les notations de l’arithmétique2 ar 1 [N]. Cette théorie des groupes est à la base de l’algorithme RSA. Pour une compréhension plus aisée, nous l’expliquons ci-après en termes plus conventionnels de congruence avant de reve- nir à cette théorie pour expliquer son portage en mode quantique. Le chiffrement RSA s’effectue de la manière suivante, en utilisant les conventions des prénoms habituellement utilisés en cryptologie : Bob veut recevoir d’Alice un message crypté et doit être le seul à pouvoir le décrypter. Il choisit deux nombres premiers p et q et diffuse par un canal public le pro- duit N de p et de q, appelé module de chiffrement. Ce nombre doit être très grand (au moins 2 048 bits)3 . Bob détermine également un autre gros entier c, appelé expo- sant de chiffrement de sa clé privée, qui servira à Alice au chiffrement de son message. Le choix de c est fait de manière à ce qu’il soit premier avec le produit W = (p-1) (q-1). W est la fonction d’Euler de p et q, (pq), 2 On rappelle que le signe est en arithmétique des nombres en- tiers le symbole de la congruence. A B [N] veut dire que A et B ont le même reste de division par N ou encore que (A-B) est divisible par N 3 A titre d’exemple le nombre suivant, répertorié RSA-155 : N=1094 17386415705274218097073220403576120037394544920599091 38421314763499842889347871799725789126733249762575289 978173379707653724402714643531593354333897 est le produit de deux entiers : p=1026395928297411057720541965739916759 00716567808038006680333419335211790711307779 et q=1066 03488380168455482092722036001287867920795857598929152 2270608327193062808643 mais ne s’écrit qu’avec 512 bits. Il avait fallu 3 mois et plusieurs centaines de machines pour le factoriser en 1999. REE N°4/2016 15 FLASHINFOS et représente le nombre d’entiers inférieurs à pq = N et premiers avec lui. C’est le nombre d’éléments du groupe fini modulo [N]. Bob calcule également d qui est l’inverse de c pour la multiplication modulo W et qui se calcule avec un algo- rithme d’Euclide étendu. « L’inverse modulo W » veut dire que le reste de la division de ed par W est égale à 1, soit : ed 1 [W]. Cet inverse est appelé exposant de déchiffre- ment car il sera utilisé pour le déchiffrement. Le couple (N,c) est la clé publique de Bob qu’il envoie à Alice afin de lui permettre de chiffrer son message. Bob conserve soigneusement la triplette de sa clé privée (p,q,d). Alice, après avoir traduit son message sous forme d’un entier (qui doit être inférieur à N), le chiffre par « expo- nentiation modulaire », c’est-à-dire le transforme en un message C(M) tel que : C Mc [N] Pour le déchiffrer, Bob fera à son tour une exponen- tiation modulaire de C mais en utilisant sa clé privée et, grâce à la formule M Cd Med [N] retrouvera le message M. Cette formule M Med [N] se démontre à partir du petit théorème de Fermat. En effet, comme p et q sont premiers, si M n’est pas un multiple de p ou de q, ce petit théorème permet d’écrire : Mp-1 1 [p] et, de la même façon, Mq-1 1 [q] Comme on sait que : ed 1 [W], on peut écrire : ed 1 + k (p-1) x (q-1) soit : Med = M x [M(p-1) ]k(q-1) d’où il résulte (application du petit théorème de Fermat) : Med M [p] M [q] Cette relation est triviale dans le cas ou M est un mul- tiple de p ou de q. On en déduit dans tous les cas que Med – M est un multiple de p et de q, donc de leur produit N, c’est-à-dire : Med M [N] L’algorithme de Peter Shor La solidité de l’algorithme RSA réside dans la com- plexité des calculs nécessaires à la factorisation de N qui croît de façon exponentielle en fonction de N. On a vu en introduction que chaque élément a du groupe fini modu- lo N était caractérisé par sa période r qui correspond au plus petit entier pour lequel ar 1 [N]. La détermination de la période d’un élément du groupe permet de facto- riser N si cette période est un nombre pair et si ar/2 ±1 [N]. Dans ce cas en effet, on peut écrire : (ar/2 +1)(ar/2 -1) 0 [N] et PGCD (ar/2 +1, N) et PGCD(ar/2 -1, N) sont des facteurs non triviaux de N que l’on peut déterminer par une re- cherche classique de PGCD. La factorisation de N revient alors à faire des essais successifs sur a jusqu’à trouver un candidat dont la pé- riode réponde aux critères indiqués. L’encadré 1 montre sur un exemple d’école classique comment cette mé- thode peut aboutir dans le cas où N = 15. Malheureusement, cette méthode est d’une com- plexité équivalente à celle des autres méthodes de fac- torisation connues. L’idée de Peter Shor a été d’utiliser le parallélisme quantique, en superposant 2n valeurs dans La factorisation de 15 Pour factoriser le nombre 15, en utilisant la mé- thode des groupes finis modulo N, on va choisir un nombre aléatoire x compris entre 2 et 15 qui sera la base. Cette base est tout d’abord testée vis-à-vis de 15 par l’algorithme d’Euclide : PGCD (x, 15). Si le résultat est différent de 1, on a trouvé un diviseur de 15 et le problème est résolu. C’est le cas pour x = {3,5,6,9,10,12}. Supposons que l’on ait choisi de tester 7 et de rechercher sa période. On va calculer ses exponen- tiations modulaires successives : 7r [15] en com- mençant par r = 1,2… afin de trouver la période r, c’est-à-dire le premier entier pour lequel 7r 1 [15]. La période r de 7 est 4 car 74 [15] = 2 401 - (160 X 15) = 1. 4 est pair et 74/2 = 49 4 [15] ±1 [15]. C’est donc un résultat exploitable. On trouve les facteurs premiers de 15 par les calculs PGCD (74/2 -1, 15) =3 et PGCD (74/2 +1, 15) = 5. Nota : Les valeurs de x non facteurs de N pour lesquelles une période peut être calculée, sont {2,7,8,11,13} avec des périodes {4,4,4,2,4}. On re- marque que, pour 11 et aussi 4, le calcul des fac- teurs avec une période 2 est très simple, en effet PGCD (112/2 -1, 15) = 5 et PGCD (112/2 +1,15) = 3 Ces cas sont considérés comme des cas faciles. Encadré 1. 16 REE N°4/2016 FLASHINFOS n qubits pour calculer simultanément les puissances suc- cessives de ax [N] pour de nombreuses valeurs de a afin d’en déduire leur période r. Le cœur de l’algorithme de Peter Shor est la transformée de Fourier quantique qu’il a inventée pour trouver la période de a (figure 1). Il montre alors que le nombre d’opérations nécessaires à la facto- risation de N croît de façon polynomiale en N3 . En fait, dans cette estimation en N3 , N2 sont imputables à chaque calcul de transformée de Fourier quantique (QFT) et N à la répétition de ces calculs pour lever l’indécision liée à la nature probabiliste des résultats pris isolément. Le modèle de Kitaev Dans le schéma original de Peter Shor, il est nécessaire, pour factoriser le nombre 15, d’utiliser un ordinateur quan- tique avec une transformée de Fourier quantique à 12 qu- bits. Bien que cela ne semble pas énorme, il est encore difficile aujourd’hui de réaliser un tel ordinateur. Le nombre de qubits est en effet dimensionnant compte tenu des problèmes liés à la décohérence et toute réduction de leur nombre est bienvenue si les conséquences en sont accep- tables. En 1995, Alexei Kitaev4 a remarqué que la transfor- mée de Fourier peut fonctionner avec moins de qubits si la réponse s’effectue avec un seul qubit à la fois, ce qui fait que, pour le nombre 15, cinq qubits deviennent suffisants. Kiatev a repris une proposition5 qui consistait à remplacer les portes à deux qubits sur le schéma de la TFQ de la figure 1 par une porte à un qubit qui agit ou non suivant le résul- tat d’une mesure sur le qubit qui contrôle un autre état du registre d’entrée. Dans le schéma de la figure 1, Kitaev se passe des portes R à deux qubits en sérialisant les résultats et en introduisant une mesure. Il emploie également une transformée de Fourier discrète dite semi classique. Une réalisation concrète utilisant des ions piégés C’est la version Kitaev de l’algorithme de Shor que Thomas Monz et son équipe d’Innsbruck en association avec Issac Chuang et son équipe du MIT ont réalisée. Pour cela ils ont utilisé cinq qubits constitués par des ions piégés de calcium 40. L’ordinateur est constitué par un piège de Paul qui confine les cinq ions dans une rangée. Les ions sont séparés de 5 µm et chacun d’entre eux peut être dans un état de spin différent correspon- dant à 1 ou 0. Chaque ion peut être commandé direc- tement par un pic laser de 1 µm. Quatre qubits sont utilisés pour le calcul quantique proprement dit, le cin- quième servant au transfert d’informations à l’intérieur Figure 1 : Schéma de la transformée de Fourier quantique (TFQ) proposée par Peter Shor. Les portes H à un seul qubit, génèrent une super- position d’états et les portes R à deux qubits réalisent le calcul avec un qubit de contrôle. Figure 2 : Schéma de l’algorithme de Shor modifié par Kitaev pour diminuer le nombre de qubits. L’exponentiation est réalisée par les rectangles verticaux. Les fonctions 90 et 45 sont là pour sérialiser à la suite des impulsions laser les commandes d’exponentiation. Les données entrent en qi . La boîte à cadran représente une mesure. 4 Kitaev, A. Y. (1995). Quantum measurements and the Abelian sta- bilizer problem. arXiv preprint quant-ph/9511026. 5 Griffiths, R. B., & Niu, C. S. (1996). Semiclassical Fourier transform for quantum computation. Physical Review Letters, 76(17), 3228. REE N°4/2016 17 FLASHINFOS du calculateur et aussi pour renvoyer vers l’extérieur les résultats du calcul. Le résultat n’est pas parfait lorsque l’on considère chaque calcul pris isolément mais la répétition par huit fois du même calcul fait tomber l’incertitude dans le ré- sultat à moins de 1 %. L’utilisation d’une version dérivée de l’algorithme de Peter Shor avec moins de qubits a donc donné de bons résultats. La réduction du nombre de qubits est indis- pensable face au défi de factoriser des nombres extrê- mement grands. Le chemin semble encore long car, rap- pelons-le, dans le cryptage RSA les valeurs de N doivent être au moins égales à 2 048 voire 4 096 bits. Références science CNRS Edition. ■ ML & JPH Figure 3 : le piège de Paul utilisé par Monz et ses collègues - Source : physicsworld.com SES-EUROPE Fondée en 2012, SES-EUROPE est la filiale européenne de SESTECH (Safe Engineering Services & Technologies) leader mondial dans les domaines de la mise à la terre, des interférences électromagnétiques et de la foudre. A ce titre, SES-EUROPE suit la philosophie de SES comme étant au plan européen un chef de file incontesté dans l'étude de l'influence de la nature du sol sur les mises à la terre et sur les interférences électromagnétiques dans plusieurs secteurs d’activité telles que la production, le transport et la distribution de l’énergie (nucléaire, solaire, éolien, pétrole, gaz,…), le ferroviaire, les télécommunications, etc. ANALYSE PARAMETRIQUE DES PERFORMANCES DE SYSTEMES DE MISE A LA TERRE DANS DES SOLS MULTICOUCHES Introduction Face aux enjeux grandissants de la transition énergétique actuelle, et à la croissance fulgurante de l’utilisation d’appareils électriques et électroniques de nos jours, la sécurité des personnes et des biens vis-à-vis des risques électriques industriels ou naturels demeure d’une importance capitale à notre époque [1,2]. L’objectif principal d’une mise à la terre étant d’assurer la protection des personnes et des équipements contre les risques d’électrocution, lors de l’écoulement d’un courant de court-circuit ou d’un impact foudre, il est alors primordial d’accorder un intérêt tout particulier à sa conception. A cet effet, l’analyse des systèmes de mise à la terre a été discutée au sein de plusieurs publications scientifiques et normes, parmi lesquelles l’influence de la nature du sol sur les performances d’un réseau de terre a été prouvée par le biais de comparaisons entre mesures et simulations [2,3]. Si dans certains cas des modèles de sol à deux couches permettent une représentation de la structure réelle du sol, l’utilisation de modèles de sol multicouche est requise pour représenter avec précision la plupart des sols, et par suite pour simuler avec précision les performances de systèmes de mise à la terre. L’application décrite ci-après, issue des travaux de SES, met en lumière en ce sens l’importance de considérer un modèle de sol multicouche pour l’analyse de mises à la terre. Analyse des performances d’une mise à la terre Dans cette analyse, les performances du système de mise à la terre étudié sont mesurées en termes de résistance de terre. Quatre types de modèles de sol multicouche sont considérés (voir le Tableau 1), chacun d’eux possédant une structure spécifique. Pour plus de simplicité, les épaisseurs de couche sont supposées égales. Le système de mise à la terre étudié est un réseau de terre modélisé par un carré de 20 m × 20 m avec un maillage de 5 m × 5 m, comme indiqué sur la Figure 1. Figure 1 : Configuration du réseau de terre étudié. Tableau 1 : Caractéristiques des modèles de sol étudiés. Modèle Couche Résistivité ( .m) Epaisseur (m) (a) 1 2 3 2000 100 1000 3,0 3,0 (b) 1 2 3 50 1000 100 3,0 3,0 (c) 1 2 3 4 5 6 1000 750 500 250 150 100 2,0 2,0 2,0 2,0 2,0 (d) 1 2 3 4 5 6 100 150 250 500 750 1000 2,0 2,0 2,0 2,0 2,0 20 m 5 m PUBLI-RÉDACTIONNEL Les résistances de terre obtenues pour plusieurs valeurs de la profondeur d’implantation du réseau de terre et pour différents types de sol sont présentées au sein des Tableaux 2 et 3. On peut aisément constater que les valeurs de résistance sont fortement dépendantes de la couche au niveau de laquelle le réseau de terre est implanté. En effet, lorsqu’il est dans une couche de faible (resp. forte) résistivité, la résistance de terre est faible (resp. élevée). Dans le cas d’un sol uniforme, la résistance de terre diminue lorsque la profondeur du réseau de terre augmente [3]. Cette observation n’est pas toujours vérifiée dans le cas d’un sol multicouche, même si la variation de la profondeur du réseau reste confinée au sein d’une seule et même couche. Pour illustrer ce fait, considérons par exemple le cas du modèle de sol (a). On peut voir que la valeur de résistance de terre est de 12,23 pour une profondeur de 7,5 m, et de 13,86 De plus, cette valeur reste croissante même pour une profondeur de 50 m. La raison de ce comportement est que l’influence de la couche de faible résistivité diminue Si la profondeur du réseau de terre est suffisamment grande de sorte que l’influence de la couche de faible résistivité soit négligeable, l’on s’attend à atteindre une valeur maximale de résistance suivie d’une décroissance de cette dernière. Ce phénomène a été notamment confirmé par le calcul de la résistance du réseau de terre étudié lorsqu’il se situe à une profondeur de 100 m dans le sol (a). En effet, la valeur de la résistance de terre à cette profondeur est de , ce qui est plus faible que celle obtenue pour une profondeur de 50 m qui est de 14,05 Tableau 2 : Résistances de terre à différentes profondeurs des modèles de sol (a) et (b). Profondeur (m) Couche Sol (a) Sol (b) 1,5 4,5 7,5 15,0 50,0 1 2 3 3 3 19,40 7,86 12,23 13,86 14,05 2,51 6,15 1,91 1,63 1,43 Dans le cas du modèle de sol (c), la valeur de résistance de terre décroît rapidement lorsque la profondeur du réseau est de plus en plus basse, à cause de la faible résistivité des couches les plus profondes. A contrario dans le cas du modèle de sol (d), la valeur de résistance de terre augmente avec la profondeur du réseau de terre étant donné que les couches les plus profondes sont hautement résistives. Dans ce dernier cas, l’on s’attend aussi à atteindre une valeur maximale de résistance de terre à une certaine profondeur, suivie d’une décroissance de la résistance de terre pour des profondeurs plus grandes que cette profondeur critique. Tableau 3 : Résistances de terre à différentes profondeurs des modèles de sol (c) et (d). Profondeur (m) Couche Sol (c) Sol (d) 1,0 3,0 5,0 7,0 9,0 15,0 50,0 1 2 3 4 5 6 6 10,48 7,24 4,87 3,12 2,34 1,75 1,45 6,86 6,98 7,50 8,85 10,47 13,16 13,94 Conclusion Une étude de la performance d’un système de mise à la terre dans différents types de sol multicouche a été réalisée. Elle démontre sans ambages à travers les résultats présentés, l’importance de considérer des modèles de sol multicouche pour l’analyse de systèmes de mise à la terre. Ainsi, vu le très grand intérêt de la modélisation de la structure des sols, c’est alors à nous ingénieurs de concevoir et de développer des méthodes toujours plus avancées permettant de parfaire cette technique, et par suite de prédire avec précision les Références [1] AFNOR. Conditions techniques auxquelles doivent satisfaire les distributions d’énergie électrique – Arrêté technique du 17 mai 2001 illustré. Norme française UTE C 11-001, Août 2001 : indice de classement C11-001U. [2] IEEE Std 80-2000, IEEE Guide for Safety in AC Substation Grounding. [3] F. P. Dawalibi and D. Mukhedkar, “Parametric On PAS Vol. 98, No. 5, Sept.-Oct. 1979, pp. 1659-1668. Attibaud KOUASSI Ingénieur de recherche CEM/Foudre SES-EUROPE Espace Saint-Germain – Bâtiment L’Ellipse 30 Avenue du Général Leclerc, 38200 Vienne FRANCE PUBLI-RÉDACTIONNEL 20 REE N°4/2016 La mission Quantum Experiment at Space Scale (QUESS) a été lancée le 16 août 2016 à 1h40, heure locale du centre de lancement Jiuquan au nord de la Chine. Le satellite, appe- lé Mozi (ou Micius) du nom d’un philosophe chinois, doit démontrer la faisabilité des commu- nications quantiques entre l’espace et la Terre et tester l’intrication de photons sur des distances sans précédent jusqu’à présent. Le programme QUESS résulte d’une collaboration entre l’Aca- démie chinoise des sciences et l’Académie autri- chienne des sciences. Rappels sur les techniques de chiffrement : l’apport de la cryptographie quantique De tout temps le chiffrement des messages a été utili- sé pour transmettre des données secrètes. Différentes mé- thodes ont été imaginées avec bien sûr, face à elles, le risque de voir percé le secret des données. Avec l’arrivée de l’infor- matique, le chiffrement est devenu électronique. Les don- nées à chiffrer devinrent des bits et les lettres de l’alphabet furent converties en binaire selon divers protocoles. Un grand apport des calculateurs électroniques a été la possibilité de programmer le chiffrement et d’offrir un grand éventail de choix et une grande rapidité. Ces caractéristiques ont fait de la clé de chiffrement l’élément le plus important de la chaîne de chiffrement mais aussi le point faible potentiel. Les travaux de Shannon ont ainsi démontré en 1948 qu’un chiffrement ne pouvait être parfaitement sécurisé qu’à la condition que la clé soit de même taille que la donnée et ne soit utilisée qu’une seule fois. La fabrication des clés et leur gestion de- vinrent rapidement un problème crucial au fur et à mesure que le nombre de transactions à sécuriser augmentait. Le concept de distribution de clés apparut alors comme une solution à ce problème. Et pour le résoudre, les cher- cheurs développèrent une méthode de transmission de clés dite « asymétrique », dans laquelle la clé de chiffrement et la clé de déchiffrement sont des nombres différents. Un émetteur garde secrète sa clé de déchiffrement appelée « clé privée » mais peut diffuser à tout le monde sa clé de chiffrement appelée « clé publique », ce qui permet d’éviter les échanges de clés devant rester secrètes. A la fin des an- nées 70, un groupe de trois chercheurs, Rivest, Shamir et Adleman, proposa une solution algorithmique permettant de mettre en œuvre le concept de clé asymétrique, connue sous l’acronyme RSA, qui est, depuis cette date, l’une des bases du chiffrement asymétrique classique. Figure 1 : Vue d’artiste montrant le projet de transmission de clés entre deux stations sol et le satellite de la mission QUESS. ACTUALITÉS Lancement par la Chine d’un satellite « quantique » REE N°4/2016 21 Toutefois les systèmes asymétriques risquent de ne pas rester inviolés indéfiniment. S’ils venaient à être craqués, il faudrait imaginer d’autres solutions et c’est là que la crypto- graphie quantique peut intervenir. Celle-ci consiste à utiliser les propriétés de la physique quantique pour établir des pro- tocoles de chiffrement qui permettent d’atteindre des niveaux de sécurité qu’on ne peut atteindre par la cryptographie clas- sique. Cette technique est particulièrement bien adaptée à la distribution quantique de clés secrètes (QKD: quantum key distribution) entre deux interlocuteurs distants, tout en assu- rant la sécurité totale de la transmission grâce à l’utilisation de paires de photons intriqués, c’est-à-dire qui possèdent des propriétés physiques qui restent corrélées quelle que soit la distance pouvant s’établir entre des photons « jumeaux ». Cette technologie permet à coup sûr de savoir si la clé a été intercep- tée lorsqu’elle a été distribuée et donc de revenir sans risque à des systèmes symétriques. Le premier protocole de cryptographie quantique proposé en 1984 par Charles Bennet et Gilles Brassard, connu sous le terme de BB84, s’appuie sur quatre états de polarisation. Les émetteur et récepteur du message utilisent un canal de transmission quantique par lequel ils s’échangent des photons polarisés en parallèle avec un canal public. L’intercepteur, s’il existe, peut intercepter le canal quantique et le canal public. Le canal public sert à échanger les séquences des choix de polarisation des photons. En premier lieu, l’émetteur envoie une série de photons de polarisation aléatoire. Le récepteur reçoit les photons et choisit au hasard l’une des polarisations. Il indique ensuite publiquement quel type de mesure il a ef- fectué mais sans révéler le résultat de la mesure. L’émetteur lui répond pour chaque cas s’il est bien en conformité avec le récepteur et se trouve alors en possession d’une clé secrète. Si l’intercepteur, qui connait les filtres utilisés par le récepteur, intercepte un photon, il a une chance sur deux de perturber le message en faisant une mauvaise mesure mais il est aus- si dans l’incapacité d’effectuer la mesure une deuxième fois. L’interception est prouvée de manière probabiliste si le taux d’erreur excède une certaine valeur. On remarquera que, dans sa version la plus simple, le protocole BB84 ne requiert pas de photons dans des états intriqués ou superposés. Si des photons dans des états intriqués sont utilisés, récepteur et in- tercepteur n’ont accès qu’au deuxième photon mais n’importe quelle mesure de ce dernier détruit l’intrication. Beaucoup de progrès ont été faits depuis le premier pro- tocole BB84. A la fin des années 90, des dispositifs pouvant transmettre des clés secrètes à un débit de l’ordre du kbit/s dans des fibres optiques ont été commercialisés. A la fin des années 2000, une nouvelle génération de produits a été mise au point en utilisant des détecteurs supraconducteurs. La transmission des clés a atteint alors une distance de 250 km lors de l’expérimentation effectuée par l’équipe de Nicolas Gi- sin à Genève. En parallèle, Philippe Granger a étudié non plus des photons uniques mais des états cohérents de la matière qui pouvaient être détectés par des photodiodes. Mais à ce stade la transmission par fibre semblait avoir atteint ses limites du fait de l’atténuation des lignes et il s’avérait impossible prati- quement de dupliquer des états cohérents pour les réémettre. C’est ainsi que les spécialistes de cryptographie quantique se sont tournés vers la transmission en air libre. Distribution de clés quantiques via des satellites Dans les années 2000, l’intérêt s’est donc porté vers les communications optiques en air libre en menant des expé- riences au sommet des montagnes, là où les perturbations atmosphériques sont moins élevées qu’au sol pour la trans- mission de clés. Les moyens de transmission et de réception sont devenus alors le laser et le télescope. Des impulsions laser très atténuées sont utilisées comme sources de pho- tons. Par rapport aux fibres optiques, la transmission dans l’atmosphère présente l’avantage d’une moindre absorption et de l’absence de biréfringence ce qui permet un maintien de la polarisation. Elle est toutefois soumise aux conditions météorologiques et autres causes de turbulences atmosphé- riques et bien sûr sensible à l’interposition d’obstacle sur la ligne de visée. L’utilisation de satellite en orbite basse – entre 500 et 2 000 km – constitue l’une des solutions pour remé- dier à ces inconvénients. Plusieurs expériences de validation de ces principes ont été réalisées ces dernières années. En 2005, C.-Z. Peng et ses collègues ont rapporté la première distribution de paires de photons intriqués sur une distance de plus de 13 km, au-delà de l’épaisseur effective de l’aérosphère. C’était une première étape importante vers la communication quantique globale par satellite car elle a montré que l’intrication des photons émis se maintenait après la propagation dans l’at- mosphère malgré les turbulences. En 2007, deux expériences ont été réalisées dans les îles Canaries dans le cadre d’une collaboration européenne de plusieurs laboratoires spécialisés. La distribution quantique de clés était réalisée selon le protocole BB84 au moyen de photons intriqués, et en utilisant une technique dite des « états leurres »1 . La transmission a été réalisée en espace libre sur une distance de 144 km, reliant La Palma à Tenerife. Pour ces expériences, la station sol de l’Agence spatiale euro- péenne, conçue pour l’étude des communications optiques standard entre les satellites et la Terre, a été adaptée aux 1 La technique des états leurres (decoy states) consiste à utiliser des sources multiphotons à niveaux d’intensité différents qui permettent d’augmenter la longueur de transmission sans altérer son intégrité. ACTUALITÉS 22 REE N°4/2016 communications quantiques (figure 2). Il est important de souligner que la source à deux photons a pu atteindre des taux de coïncidence temporelle suffisants pour compenser l’atténuation du canal satellite-sol. Cette expérience a fini de démontrer la faisabilité des communications quantiques entre le sol et des satellites en orbite basse et le papier qui lui est associé2 a été abondamment cité. Le programme chinois QUESS C’est dans ce contexte que se situe le dernier lancement effectué par les Chinois dans le cadre de la mission QUESS. En effet, dans ce cas, l’essentiel du parcours des photons se fait dans le vide et seule une fraction du parcours, environ 10 km, s’effectue dans l’atmosphère. Commencé en 2011, le programme chinois Quess a conduit au lancement, le 16 août 2016, du satellite Mozi de 600 kg, mis en orbite depuis la Terre à environ 500 km au-dessus du sol. L’instrument principal est un interféromètre « Sagnac » qui est utilisé pour générer deux photons infrarouges intriqués en braquant un laser ultraviolet sur un cristal optique non-linéaire. Les principaux objectifs de QUESS visent à démontrer la fai- sabilité de la distribution de clés quantiques (QKD) entre le satellite et deux stations distantes de 2 500 km sur le terrain : Nanshan, un télescope de 25 m à l’observatoire astronomique du Xinjiang en Chine occidentale, et l’observatoire Xinglong à Yanshan, à environ 200 km au sud de Pékin. Ces expérimen- 2 Schmitt-Manderbach, T., Weier, H., Fürst, M., Ursin, R., Tiefenbacher, F., Scheidl, T. & Zeilinger, A. (2007). Experimental demonstration of free-space decoy-state quantum key distribution over 144 km. Physical Review Letters, 98(1), 010504. tations seront effectuées uniquement par l’équipe chinoise, a indiqué Jianwei Pan de l’Université de la science et de la tech- nologie chinoise, qui est le directeur scientifique de QUESS. Celle-ci va ensuite collaborer avec le Pr. Anton Zeilinger et ses collègues de l’Université de Vienne en vue de créer un canal QKD intercontinental entre Pékin et Vienne, avec la possibilité d’y associer des stations en Italie et en Allemagne. QUESS sera le premier test de la communication quantique par satellite, a indiqué Anton Zeilinger. Le programme européen Space-QUEST L’Agence spatiale européenne (ESA) a également lancé à partir de 2002, dans le cadre de son programme de re- cherche, plusieurs études dans le domaine des communi- cations quantiques pour les systèmes spatiaux. À la suite de ces travaux, un consortium européen de recherche dirigé par le professeur Zeilinger déjà cité, a présenté le programme de la mission Space-QUEST3 (Quantum Entanglement for Space Experiment : Intrication quantique dans des expérimenta- tions spatiales) dans le cadre des programmes de sciences physiques dans l’espace de l’ESA, visant à une expérimenta- tion de communication quantique espace-sol depuis la sta- tion spatiale Internationale ISS. Ce programme est en cours 3 Ursin, R., Jennewein, T., Kofler, J., Perdigues, J. M., Cacciapuoti, L., de Matos, C. J., ... & Barbieri, C. (2009). Space-quest, experiments with quantum entanglement in space. Europhysics News, 40(3), 26-29. et Armengol, J. M. P., Furch, B., de Matos, C. J., Minster, O., Cacciapuoti, L., Pfennigbauer, M., ... & Baister, G. (2008). Quantum communications at ESA: Towards a space experiment on the ISS. Acta Astronautica, 63(1), 165-178. Figure 2 : Schéma de l’expérimentation des Canaries. BS : séparateur de faisceau. PBS : séparateurs de faisceau polarisé. HPW : semi réfléchissant. ACTUALITÉS REE N°4/2016 23 et il présente de grandes similitudes avec le programme chinois à ceci près que le programme européen utilise la station spatiale internationale au lieu d’un satellite. On no- tera l’implication dans ces deux programmes du laboratoire d’Anton Zeilinger de Vienne ce qui montre la volonté des Chinois de collaborer avec l’Europe tout en restant maître d’œuvre du programme d’expérimentation à bord de leur sa- tellite dit « quantique ». Conclusion Le lancement du satellite chinois s’inscrit dans les expé- rimentations de distribution de clés quantiques dans l’air et dans l’espace qui se sont développées depuis une bonne dizaine d’années. Depuis longtemps la Chine a mis en place de nombreux laboratoires de recherche spécialisés dans l’ex- ploitation de la cryptographie quantique pour développer un chiffrement hyper-sécurisé. Face aux expérimentations pré- vues en Europe avec l’ISS dans ce domaine, il existait de fortes probabilités que ce pays développe son propre pro- gramme en s’appuyant sur un satellite d’émission lancé de- puis le sol chinois afin de ne pas se faire distancer au plan international. Ceci n’exclut pas d’ailleurs des interactions, voire des recherches en commun avec d’autres programmes spatiaux comme le montre la collaboration entamée avec un laboratoire autrichien. Marc Leconte ACTUALITÉS Les radiocommunications à ondes millimétriques arrivent à maturité L’encombrement du spectre électromagnétique, tout par- ticulièrement, dans les fréquences les plus faciles d’utilisa- tion, est un obstacle au développement des nouvelles appli- cations des radiocommunications. Par ailleurs, les utilisateurs sont de plus en plus friands de fréquences libres qui évitent d’avoir à souscrire un contrat de licence auprès des autorités compétentes et permettent de mettre sur le marché des pro- duits d’usage universel dès lors que les bandes de fréquence se trouvent suffisamment ouvertes dans le monde. Dans les Actualités de la REE 2016-3, nous avons évoqué l’élargissement envisagé en Europe et en France de la bande libre des 865-868 MHz afin de donner de nouvelles possi- bilités de développement aux RFID et à l’Internet des objets. Dans le présent article, nous appelons l’attention de nos lecteurs sur le potentiel offert par la bande EHF (Extrême- ment haute fréquence) allant de 30 à 300 GHz, qui corres- pond à des longueurs d’onde de 1 à 10 mm. Cette bande est aujourd’hui utilisée pour des applications relevant des domaines militaires, de l’astronomie et de la sécurité (scree- ning des passagers dans les aéroports). Elle offre pour les radiocommunications des ressources en bande passante très importantes qui permettent notamment d’envisager le dé- veloppement de nouvelles technologies de transmission en ultra-large bande. Mais l’utilisation des ondes millimétriques se heurte à de grosses difficultés. Il faut bien évidemment disposer de com- posants électroniques présentant la dynamique nécessaire – c’est un point sur lequel nous revenons ci-après –, mais il faut également composer avec la forte atténuation par les murs, les feuillages et les gaz de l’atmosphère. En particulier, les signaux aux alentours de 60 GHz correspondent à une fréquence de résonance de la molécule O2 et sont sévère- ment atténués. La vapeur d’eau présente également des pics d’absorption, quoique plutôt entre 20 et 30 GHz. Les ondes millimétriques sont donc a priori limitées aux transmissions à courte distance, typiquement sur des distances inférieures à 1 km. Cependant, les inconvénients peuvent constituer des avantages : la forte atténuation rend plus facile la réutilisation des fréquences et la propension à la diffusion et à la dif- fraction des ondes multiplie les chemins de propagation et ouvre la voie à l’usage de technologies MI-MO. Les courtes longueurs d’onde permettent de réaliser de petites antennes en plus grand nombre, avec des faisceaux plus étroits. L’organisation des fréquences La bande des 60 GHz est à présent reconnue comme une bande libre d’accès dans la plupart des pays, avec une largeur comprise entre 5 et 9 GHz qui dépend des réglementations locales. Le tableau 1 donne un extrait du tableau annexé à la dé- cision Arcep 2014/1263 du 6 novembre 2014 qui intègre les décisions les plus récentes prises au niveau européen, notamment la décision d’exécution de la Commission 2013/752/UE du 11 décembre 2013 relative à l’harmoni- sation du spectre radioélectrique en vue de l’utilisation de dispositifs à courte portée. Aux Etats-Unis, la FCC (Federal Communications Commis- sion) a étendu le 18 juillet 2016 la bande libre 57-64 GHz jusqu’à 71 GHz. Selon les pays, des fréquences à des niveaux divers peuvent être concédées sous licence pour les applications de radiocommunications et en particulier pour la 5G. Ainsi, 24 REE N°4/2016 aux Etats-Unis, les bandes 37-38,6, 38,6-40, 71-76, 81-86 et 92-95 GHz, qui ne souffrent pas de l’absorption par l’O2 , donnent ainsi lieu à licence par la FCC. Wi-Fi 802.11ad et réseaux 5G Aujourd’hui deux applications principales des ondes mil- limétriques se dessinent dans le domaine des radiocommu- nications : distances, dans le cadre du WI-Fi IEEE 802.11ad ; 1 entre stations de base des futurs réseaux 5G. Le Wi-Fi 802.11ad, promu sous le nom commercial de WiGig, est un standard approuvé en octobre 2012 mais ap- paru commercialement seulement début 2016. Il utilise la bande des 60 GHz (57 à 66 GHz en Europe) et est destiné au monde du multimedia. Tout en utilisant une puissance maximale à l’émission de seulement 10 mW (le 1/10e du Wi- Fi 802.11ac), ce standard vise les très hauts débits (jusqu’à 6,76 Gbit/s) mais sur de très courtes distances (moins de 10 m) et à l’intérieur d’une seule pièce (les ondes à 60 GHz ne pouvant traverser les murs). Le débit de plusieurs Gbit/s est obtenu en utilisant de larges canaux de 2,16 GHz et les technologies multi-antennes de beamforming. réseaux mobiles et le cœur de réseau est différent. Le ré- seau 5G vise à offrir aux usagers de très hauts débits qui nécessiteront un réseau très dense de petites cellules. La connexion entre elles de ces petites cellules par un réseau traditionnelle par fibres optiques se heurte à des difficultés pratiques de mise en œuvre et n’offre pas la flexibilité né- 1 En téléphonie mobile, les réseaux de « backhaul » servent à rapatrier l’information depuis les stations de base vers le cœur de réseau. Les fibres optiques ou les faisceaux hertziens sont largement utilisés. Il n’ex- iste pas de traduction satisfaisante du terme « backhaul » en français. Les canadiens utilisent le vocable « réseau d’amenée » mais cette ap- pellation reste peu usitée. cessaire. Dans ces conditions le recours à des solutions par ondes millimétriques, dans la bande des 60 GHz ou au-des- sus est envisagé. L’arrivée de nouveaux composants Le développement au stade du prototype ou l’arrivée sur le marché de nouveaux composants destinés aux ondes mil- limétriques ont fait l’objet récemment de plusieurs annonces. Nous avons retenu deux d’entre elles. La première est l’annonce par le centre de recherches belge imec à Louvain et par l’université libre de Bruxelles (Vrije University) d’un chip développé en technologie CMOS 28 nm assurant l’émission et la réception des ondes à 60 GHz Ce chip de 7,9 mm2 a été validé IEEE 802.11ad sur une dis- tance de 1 m. Il comporte un faisceau de quatre antennes accordables afin de réaliser le beamforming et permet un débit de transmission de 4,62 Gbit/s. Il consomme 630 mW en émission et 431 mW en réception à 0,9 V. L’autre annonce vient du Japon et a trait au dévelop- pement par le Tokyo Institute of Technology et par les Fujitsu Laboratories d’un transmetteur capable de traiter Tableau 1 : Extrait du tableau de l’annexe 1 à la décision Arcep 2014/1263 du 6 novembre 2014. Figure 1 : Chip 60 GHz à quatre antennes développé par l’imec et l’Université libre de Bruxelles – Source : imec. ACTUALITÉS Bande de fréquences Catégorie de dispositifs Limite de puissance /d'intensité de champ / de densité de puissance Paramètres supplémentaires Autres restrictions d'utilisation 57-64 GHz Dispositifs à courte portée non spécifiques 100 mW PIRE, puissance émise max- imale de 10 dBm et densité spectrale maximale de 13 dBm/MHz PIRE. 57-66 GHz Dispositifs de transmission de données à large bande 40 dBm PIRE et une densité de PIRE de 13 dBm/MHz Doivent être utilisées des techniques d’accès au spectre et d’atténuation des interférences au moins aussi performantes que celles décrites dans les normes harmonisées adoptées en vertu de la directive 1999/5/CE. Les installations extérieures fixes sont exclues. REE N°4/2016 25 des signaux dans des bandes de fréquence supérieures à 72 GHz et ayant démontré en laboratoire, sur une distance de 10 cm, un débit de 56 Gbit/s, ce qui constitue un re- cord mondial. Le chip, développé en technologie CMOS et le module qui l’incorpore (figure 2), comportent deux tech- nologies-clés : bande la connexion entre le circuit imprimé et l’antenne en forme de guide d’onde cylindrique. Au niveau du chip, le signal est décomposé en deux parties, chacune dans différentes bandes de fréquence : 72-82 GHz et 89-99 GHz. Cette approche permet de mo- duler le signal sur une ultra large bande de 20 GHz tout en gardant les mêmes performances que celles obtenues par les systèmes existants de modulation sur 10 GHz (figure 3). Fujitsu prévoit la mise en œuvre de ces solutions dans les systèmes de téléphonie cellulaire de 5e génération aux environs de 2020. Jean-Pierre Hauet Figure 2 : Chip et module développés par le Tokyo Institute of Technology et par les Fujitsu Laboratories – Source : Fujitsu.com. Figure 3 : Schéma de principe du fonctionnement de l’émetteur-récepteur en ultra large bande – Source : Fujitsu.com. FORMATION PROFESSIONNELLE CERTIFICATIONS IPC DU PERSONNEL PRESTATIONS DE SERVICES : INSPECTION, MESURES, ANALYSES DISTRIBUTEUR DE NORMES IPCAuthorized Distributor ® « L’ÉTAT DE L’ART ET LA MAÎTRISE DES PROCÉDÉS DE LA FABRICATION DES CARTES ÉLECTRONIQUES ( DE LA CONCEPTION JUSQU’AU TEST ) » IFTEC - 33 rue Ravon - 92340 Bourg-la-Reine - France - Tél : +33 (0)1 45 47 02 00 - E-mail : iftec@iftec.fr ACTUALITÉS 26 REE N°4/2016 À RETENIR... N O V E M B R EN O V E M B R E ESARS + ITEC 2016 International Conference on Electrical Systems for Aircraft, Railway, Ship Pro- pulsion and Road Vehicles and the Inter- national Transportation Electrification Conference 2-4 novembre 2016 ENSEEIHT Toulouse (France) The Toulouse area is known to be one of the largest research hubs in the field of aeronautics, space and embedded systems. It will welcome the next ESARS-ITEC confe- rence in the premises of INP-ENSEEIHT institute of engineering and LAPLACE Lab (Plasma and Energy Conversion Labora- tory). Experts from industry and academia are invited to present their latest develop- ments in the fields of aeronautics, space, electrical or hybrid vehicles and railway systems. The conference program includes numerous oral sessions, poster sessions as well as industrial workshops. Technical visits will be proposed on the last day. Six main topics have been selected for the 2016 edition: - cles: cross-border topics The conference will also include a number of Special Sessions on highly specialized topic areas reporting technical trends and breakthroughs within the scope of the conference. Pour plus d’informations: http://www.esars-itec.org/ Numat 2016 - Conférence sur les matériaux nucléaires 7-10 novembre 2016 Montpellier (France) The Nuclear Materials conference has been created in association with The Journal of Nuclear Materials and serves as an umbrel- la for international meetings on nuclear ma- terials science related to fission and fusion reactors and the overall nuclear fuel cycle. NuMat 2016 will combine eight topic tracks in four parallel sessions, covering nuclear fuels, structural materials, molten salts and materials for the waste management. Topics are as follows: of Nuclear Fuels Fission and Fusion Reactors Materials - dents and Accident Tolerant Fuels and Complex Microstructures and Nuclear Fuels The last topic covers molten salts and mate- rials for the waste management. NuMat 2016 Poster Award The best poster will be selected by the Nu- Mat 2016 committee. NuMat 2016 Young Researcher Award Awardedtothebestyoungoralpresentation 2016 committee. The organizers encourage scientists in- volved in experimental and theoretical studies to participate, particularly in studies aimed at understanding fundamental pro- perties of nuclear fuels and materials under irradiation. Pour plus d'informations : http://www.nuclearmaterialsconference.com/ Data Center World 29-30 novembre 2016 Paris, Porte de Versailles (France) entreprises sont à la recherche de solutions innovantes et performantes qui répondent World répond à ces besoins grâce à une plateforme professionnelle rassemblant tous les acteurs de l’industrie. Après Londres, Francfort, Singapour et Hong Kong, cette manifestation s'implante désormais à Paris, parallèlement au salon Cloud Expo Paris. Les Conférences qui se tiendront dans ce cadre traiteront de : par des conférenciers de renom - équipement et gestion de services des data centres - data centres du futur - gestion des coûts et rendement énergé- tique Pour plus d'informations : http://www.datacentreworld.fr 6th Electronic Drives Production Confe- rence (EDCP’16) 30 novembre - 1er décembre 2016 Nuremberg (Allemagne) Increasing power consumption, CO2 reduc- tion, growing mobility or progressing auto- mation – none of these future megatrends is possible without powerful electric drives. The electrification of the automobile powertrain is considered crucial, as the whole sector is facing difficulties resulting from the substitution of the conventional ideas on the design of powerful electric drives, the organization of the manufac- turing processes and systems are of great importance. The 6th - tion Conference offers an outstanding plat- form for the exchange of experiences for developers, researchers and potential users. The focus of the conference is set on the pre- sentation of highly innovative products from various industries as well as manufacturing processes and strategies. Following the conference, there will be an industrial exhi- bition, tutorials, a poster presentation, tech- nical tours and an accompanying program. Topics: - gies Pour plus d’informations : http://www.edpc.eu/home/home.html D E C E M B R ED E C E M B R E Complex Systems Design & Management (CSD&M' 16) 13-14th December, 2016 Paris (France) th edition of the international Conference created by the French Center of Excellence on Systems Strategy (CESAMES). The core principles that lead to the success of former editions a balance between academia, government and industry partners. December 13: Industrial and Societal Challenges & A la carte Program The first half-day is dedicated to the presen- complex systems engineering. It consists of REE N°4/2016 27 À RETENIR... a number of high-profile seminars who will give a synthetic vision of the domain around th edition. It is also devoted to systemic methodologies and fun- damentals emerging from academic as well as industrial environments. The second part of the day is an “a la carte program” com- posed of Partner workshops and contributed talks. The poster workshop and a cocktail should end the day. December 14, 2016: A la carte Program & Opportunities of Systems Engineering The first half-day will continue the “a la carte program” of the day before. The se- cond part and last conference will takeover other presentations focused on systems announced at the end of the day, before the final closure cocktail. In addition: - tors and industrial companies to present offers, services and the latest technologi- cal news conference Pour plus d’informations : http://www.2016.csdm.fr/ Nanophotonics and Micro/Nano Optics International Conference (NANOP’16) 7-9th December, 2016 Paris (France) The Nanophotonics and Micro/Nano Optics International Conference is an annual event that hosts high-profile plenary speakers, world class researchers, oral and poster presentations, workshops, sponsor exhibits and afterworks. If light-matter interaction control appears today more and more rele- vant for numerous applications and asso- ciated societal needs (telecommunications, security, health, energy and environment), key issues and new concepts can only be solved and brought to the fore by gathering people from different areas. Optics at the frontiers: Key issues and fron- tiers will be the two keywords of the first Nanophotonics and Micro/Nano Optics International Conference. Main topics: - noscale scale nanostructuring) and microscopy Pour plus d’informations : http://premc.org/nanop2016/ F E V R I E RF E V R I E R 13th International Conference on AC ad DC power transmission (ACDC 2017) 14-16 février 2017 Manchester (Royaume-Uni) and share your latest research with AC been changes in the marketplace, with further de-regulation and the growth of - lions of pounds are being invested as the need to transmit power over longer dis- tances, including cross-country borders, - gathering pace, structure and importance for the power sector. New technologies have developed with potential benefit to asset managers and system operators, particularly with regards to high voltage transmission. What will be covered? in the market, including: - ciency of ageing grid systems Which benefits of attending? FACTS devices being implemented worldwide environmental, regulatory, political and social factors, and how they impact on the development of transmission networks. Programme There will be more than 100 sessions and posters and two workshops over three days at industry experts from all around the world. Pour plus d’informations : http://conferences.theiet.org/acdc/about/index.cf M A R SM A R S 11th International Renewable Energy Sto- rage Conference (IRES 2017) 14-16 mars 2017 Düsseldorf (Allemagne) Organised by the Eurosolar Association and the World Council for Renewable Energy, the conference is based on two thematic foci: the scientific research on storage technology (IRES) and the intro- duction of this technology to the market (ESE). The conference is accompanied technologies. The proximity between the conference and the exhibition guarantees the opportunity of scientists and entre- preneurs to meet and discuss the recent developments of the newest technologies. Tickets to the exhibition as well as to the networking events are included in the registration fee for presenters. Papers will be presented in parallel sessions (“oral presentations”) or the poster exhibi- tion (“poster presentation”). Topics: storage research in various countries) Pour plus d’informations : www.energystorageconference.org M A IM A I IEEE ICC’17: International Conference on Communications 21-25 mai 2017 Paris (France) Located in the heart of the City of Lights, - will also feature high-quality Tutorials and Workshops, Industry Panels and Exhibi- tions, as well as Keynotes from prominent research and industry leaders. Important dates: Pour plus d’informations : http://icc2017.ieee-icc.org/ 28 REE N°4/2016 VIENT DE PARAÎTRE Ouvrage collectif Tessier et Ashpool. Observation spatiale de la terre - Optique et radar. La France et l’Europe pionnières Librairie Eyrolles - Juin 2016 -396 p. - 49,5 Chaque jour, des di- zaines de satellites nous fournissent des images et des informations sur la Terre. Surveillance et gestion des territoires, continentaux ou côtiers, urbains ou agri- coles, bénéficient d’informations perti- nentes, fréquentes et à différentes échelles. Grâce à des programmes comme Pléiades ou d’autres, les utilisateurs ont accès à des résolutions métriques. Si l’Europe n’a pas été la première à compter sur les moyens satellitaires d’observation, elle a, avec de fortes initiatives de la France, de l’Agence spatiale européenne et d’autres États euro- péens, rejoint le meilleur niveau mondial. Avec l’arrivée de nouveaux acteurs dans l’observation de la terre, les règles ont changé et l’imagerie satellitaire à haute résolution constitue désormais un marché dont les opérateurs sont en majorité privés. Les industriels européens y occupent une place de premier rang dans l’exportation des systèmes d’observation. Cet ouvrage présente les 50 premières années de cette aventure spatiale. Conçu et écrit par des acteurs qui l’ont menée et vécue en France et en Europe, Il relate les progrès techniques, les décisions politiques et les contextes géopolitique et juridique qui ont été nécessaires pour arriver à la situation actuelle et aux perspectives de de- main. Les nombreux témoignages recueillis révèlent la compétence et la volonté qui ont permis à la France et à l’Europe de conce- voir, réaliser et mettre en œuvre des projets majeurs de rang international. Jean-Marcel Rax. Physique de la conversion d’energie EDP sciences, Collection des savoirs ac- tuels, Février 2015 - 335 p. - 45 Cet ouvrage fait partie de la 28e sélection du prix Rober- val, catégorie Enseignement supérieur. Les gradients des variables thermodynamiques inten- sives, potentiels mécanique et électrique, pression, température et potentiel chimique, constituent des écarts à l’équilibre thermo- dynamique permettant d’extraire du travail de notre environnement. Les processus de conversion d’énergie utilisant ces sources d’énergies libres sont accompagnés d’une production d’entropie qui dégrade l’efficacité de conversion. Cet ouvrage de Physique de la conversion d’énergie est issu de plusieurs cours enseignés en France et à l’étranger, principalement en Master 1 et 2 à la Faculté des sciences d’Orsay et à l’École Polytech- nique. Il est articulé autour de deux axes principaux : physique des processus irréversibles, orien- tée vers l’identification et l’analyse des mécanismes de production d’entropie ; principes et limitations des générateurs magnétohydrodynamiques, thermoé- lectriques, thermo-ioniques, photovol- taïques et électrochimiques. Ce livre vise à offrir aux étudiants de nos facultés, aux élèves de nos écoles et aux chercheurs de nos instituts, une monogra- phie permettant d’aborder les questions de l’efficacité et du rendement des systèmes de conversion d’énergie dans la continuité des cursus de physique appliquée, de phy- sique fondamentale, ou d’ingénierie géné- raliste, aux niveaux Masters et Doctorat. Aleksandra Kroh, Madeleine Veyssie Top 14 des decouvertes scientifiques qui n’ont servi a rien [Encore que ça reste à démontrer] Ed. Flammarion, avril 2016, 186 p. - 17 Voici un petit ouvrage qui n’engendre pas la mélancolie. Les deux auteures sont de très sérieuses physiciennes qui se sont intéressées aux « inventions » les plus extravagantes et généralement les plus controversées, revendiquées par des scien- tifiques, parfois de grand renom, en marge de leurs travaux officiels. Lesdites inventions ont valu à leurs auteurs le titre parodique d’Ig-Nobel (contraction d’Ignoble + Nobel), décerné chaque année par ‘les Annales de la recherche improbable’, organisation dont le simple intitulé donne le ton! Les auteures passent ainsi en revue des innovations ou prétendues telles, dans des domaines aussi différents que la “mémoire de l’eau” due à notre compatriote Jacques Benveniste, aux « cercles de culture » (crop circles) de MM. Chorley et Bower qui firent s’inviter les extra- terrestres au milieu de nos champs avant que la supercherie ne soit mise à jour. De la « fusion froide » qui a encore ses tenants malgré sa violation flagrante des principes de la thermodynamique, au mécanisme de cassure des spaghettis (!), en passant par un avatar du principe de Peter dû à trois physiciens italiens prédisant que les entre- prises et les institutions seraient plus per- formantes si les promotions étaient le fruit du hasard, le lecteur va de découverte en découverte... improbable. De quoi réfléchir aux dérapages surprenants, souvent dus à un ego surdimensionné, de chercheurs au- thentiques que rien ne prédestinait à sortir – imprudemment et pour notre plus grand plaisir – des sentiers battus de la physique! Rapport de l’Academie des sciences Sous la direction de Yves Brechet et Robert Dautray. Sciences du demantelement des installations nucleaires1 EDP Sciences - Collection Académie des Sciences - novembre 2015 -236 p. -39 En France, neuf des réacteurs nucléaires de production d’électricité sont arrivés en fin de vie et sont en phase de démantèlement, afin de rendre leurs sites libres pour d’autres usages. En outre, sur les 58 réacteurs électronucléaires en fonc- tionnement, 48 devraient arriver en fin d’exploitation avant 2050. Or ces chantiers contiennent par définition des matières radioactives, dont l’exposition externe aux rayonnements, l’ingestion ou l’inhalation accidentelle constituent des dangers poten- tiels, ce qui implique que la radioprotection joue un rôle central dans les techniques de démantèlement. Des procédés et des appareils spécifiques ont été mis au point par les opérateurs spécialisés, activités dans lesquelles les équipes françaises ont développé un savoir-faire scientifique et technique reconnu internationalement. En octobre 2014, l’Académie des sciences a consacré un séminaire aux sciences et tech- niques du démantèlement des installations nucléaires, dont cet ouvrage rend compte, 1 Rappelons pour les lecteurs particulièrement intéressés par le sujet que la REE a consacré un dossier au démantèlement des centrales nucléaires, dans son numéro 2016-1. REE N°4/2016 29 VIENT DE PARAÎTRE au cours duquel ont été débattus tous les aspects de ces disciplines. Le rapport dresse un panorama des besoins et conditions du démantèlement, recense les phénomènes scientifiques clés, décrit les recherches en cours et identifie celles qui restent à mener pour permettre un retour au libre usage des sites d’installations électronucléaires, tout en assurant la protection des travailleurs et du public pour le présent et pour l’avenir. Pauline Gagnon. Qu’est-ce que le boson de higgs mange en hiver? Ed. Multimondes - Librairie Eyrolles - juin 2016 - 266 p.- 25 En juillet 2012, le CERN annonçait fièrement la preuve expérimentale de l’existence du boson de Higgs et cette découverte fut logiquement suivie de l’attribution du prix Nobel de physique en 2013 pour les théoriciens François Englert et Peter Higgs qui en avaient prédit l’existence 48 ans auparavant. Le boson de Higgs était le chaînon man- quant du modèle théorique actuel qui dé- crit les particules qui composent la matière visible. Ce livre explique comment tout cela fonctionne et en particulier quel rôle joue exactement le boson de Higgs dans l’édifice. Mais il s’aventure ensuite au-delà car cette théorie ne s’applique qu’à la matière visible, celle qu’on trouve sur Terre, dans les étoiles et les galaxies, mais qui ne compte que pour 5 % du contenu de l’Univers. L’ouvrage s’in- téresse donc aussi aux 95 % restants, cette “matière sombre” et son corollaire “l’éner- gie sombre”, des entités bien mystérieuses sur lesquelles on connaît encore peu de chose. Comment sait-on qu’elles existent et a-t-on des chances de la découvrir bientôt ? C’est ce que tente d’expliquer l’auteur. Ce livre précise notamment comment les recherches sur le grand collisionneur de hadrons du CERN auquel une soixantaine de pays contribuent, permettent de faire avancer les connaissances scientifiques et d’apporter peut-être des éléments de ré- ponse à l’une des énigmes essentielles de la physique moderne. Ecrit en termes simples, ce livre s’adresse à un lecteur curieux qui n’a pas nécessairement une base scientifique très étendue. D’une lecture agréable, il nous fait voyager dans un monde où se côtoient l’infiniment petit et l’infiniment grand. Sophie Caclin. Lexique de l’eclairage professionnel Editions Light Zoom Lumière, mai 2016, 160 p. - 16 Comment parler de la lumière en français et en anglais? Ce petit guide pratique présente la traduction de 1400 termes utilisés par les professionnels de l’éclairage et un index thématique sur le vocabulaire. Il met en valeur la diversité des métiers de la filière. Un ouvrage bilingue qui peut être recommandé pour sa facilité d’emploi et l’exhaustivité des termes recen- sés aussi bien aux architectes et concep- teurs utilisant la lumière qu’aux fabricants, installateurs maîtres d’ouvrage privés et publics, francophones ou anglophones. Lettres a Alan Turing - Rassemblées par Jean-Marie Lévy- Leblond Ed. Thierry Marchaisse, mai 2016, 242 p. – 17,50 Quelle bonne idée que celle de J-M. Lévy-Leblond d’avoir sollicité cette ving- taine de Lettres à Alan Turing : c’est une façon originale et riche de rendre hommage à ce génie du siècle passé, dont il souligne en prologue, qu’il est resté dans l’ombre plu- sieurs décennies, après une carrière d’une quinzaine d’années seulement. Le grand public n’ignore plus le triple motif de ce retard dans l’accès à la gloire : le caractère abstrait de ses contributions scientifiques, le secret de son action pendant la seconde guerre mondiale avec le décryptage des codes Enigma, sa condamnation pour ho- mosexualité et son très probable suicide, à l’origine du logo d’Apple. Les raisons de cette reconnaissance tar- dive contribuent même à expliquer l’aura qui entoure Alan Turing. La machine de Turing est bien connue, largement au-delà des spécialistes de l’informatique, même si seuls des spécialistes peuvent apprécier la richesse des concepts du logicien ; la néces- sité sociétale de crypter l’information rend plus sensible le tour de force que constitua la maîtrise du dispositif Enigma. Les évolu- tions sociétales enfin contribuent à rendre insupportables le traitement infligé à Alan Turing et à faire de lui un martyr : la Reine elle-même n’a-t-elle pas accordé, plus de 50 ans après la condamnation, un « pardon royal » ? A la variété des thèmes abordés par Alan Turing dans sa trop brève carrière corres- pond une diversité des lettres : chacun des spécialistes commence évidemment par expliquer comment il a découvert une œuvre multiforme et comment celle-ci a influencé à la fois sa pratique profes- sionnelle et stimulé sa propre recherche. Certains s’efforcent d’expliquer la profon- deur et la fécondité des idées de Turing et leur connexion avec des développements contemporains, que ceux-ci touchent à la logique, la cryptologie, l’algorithmique ou la théorie de la complexité aussi bien qu'à la biologie évolutive ou la morpho- génèse… Il serait difficile, et fastidieux, d’analyser ce que tant de scientifiques éminents ana- lysent et même simplement de les citer ; que le lecteur soit convaincu de la richesse des textes, du caractère passionnant de l’ouvrage tout entier ; qu’il soit toutefois averti de la difficulté technique de cer- tains développements ! Soulignons pour conclure la prégnance des considérations méthodologiques et/ou philosophiques : oui, ce génie a su, par ses réflexions sur les fondements, aborder des questions essen- tielles qui le placent au niveau de Russell, Gödel, Wittgenstein ou Kolmogorov. Mathias Fink, Michel Le Bellac, Michele Leduc. Le temps : mesurable, reversible, insaisissable ? EDP sciences, 180 p. - 19 Nous reviendrons dans notre prochain numéro sur cet ouvrage récent et de grande impor- tance ; il aborde en effet, par la physique, cette question essen- tielle du temps et apporte des éclairages technologiques, historiques et philoso- phiques passionnants. 30 REE N°4/2016 Le choix d’une poli- tique énergétique adaptée aux besoins des sociétés des siècles à venir est plus que jamais à l’ordre du jour. Un rapport récent de la Banque mondiale [1] indique que glo- balement 1,2 milliard de personnes vivent encore sans accès à l’électricité et que 2,8 milliards sont dans la nécessité d’utiliser uniquement des produits d’origine végétale, fossiles ou non, pour préparer leurs repas et se chauffer. Ces combustibles solides sont, au-delà de leur impact négatif sur l’environne- ment et le climat, une source de pollution dange- reuse pour la santé humaine qui contribue à près de quatre millions de morts prématurées par an. Par ailleurs, la population mondiale continue de croître et, en dépit des nécessaires mesures d’économie, la demande en énergie croît encore plus vite, particu- lièrement dans les pays en voie de développement qui voient heureusement leur niveau de vie s’élever rapidement. Malgré la contribution liée au dévelop- pement des énergies renouvelables, cette demande supplémentaire est, à l’échelle mondiale, satisfaite dans une très large mesure par un recours croissant aux combustibles fossiles, en particu- lier au charbon, le plus polluant d’entre eux. Les climato- logues, de leur côté, lancent des cris d’alarme sur les effets catastrophiques du réchauffement climatique, largement dus aux gaz à effet de serre, résultats de ces combustions. En 2012, 81,7 % de la consomma- tion énergétique provenait encore de la combustion des énergies fossiles (figure 1). C’est donc l’un des défis majeurs de ce siècle que de répondre à la croissance inévitable de la consom- mation énergétique mondiale par le développement de sources d’énergie qui respectent l’environne- ment et dont la disponibilité puisse être assurée à très long terme. Pour y parvenir, seule une approche globale est envisageable : économiser l’énergie de façon drastique pour limiter le défi, réduire le relâ- chement des gaz à effet de serre par leur recyclage, simultanément accentuer l’effort de recherche et de développement pour un usage, optimisé et combi- né, des ressources renouvelables et des ressources nucléaires disponibles, sûres et respectueuses de l’environnement. En l’absence de la découverte de moyens de stockage efficaces, massifs et de coût abordable, de l’énergie intermittente et diffuse en provenance des sources renouvelables, il est en effet improbable qu’elles puissent à elles seules rempla- cer les sources génératrices de gaz à effet de serre. Le recours aux énergies nucléaires pour la fourniture de l’électricité de base des grandes concentrations humaines et des grandes installations industrielles paraît inévitable, mais les évènements tragiques qui se sont produits en mars 2011 au Japon renforcent chaque jour davantage les exigences de la sûreté face aux risques nucléaires. LE GRAND DOSSIER Introduction L’énergie de fusion thermonucléaire de l’hydrogène Jean Jacquinot Iter Organisation Robert Aymar Iter Organisation Bernard Bigot Iter Organisation Figure 1 : Production mondiale d’énergie primaire en 2012, d’après les données du Key World Energy Statistics 2014 de l’AIE. REE N°4/2016 31 Introduction LE GRAND DOSSIER On sait que l’énergie tirée de la fusion des iso- topes de l’hydrogène, si elle pouvait devenir dis- ponible industriellement, éviterait l’essentiel des risques associés à l’énergie de fission (Cf. l’article de Jean Jacquinot) : pas de risque d’emballement (pas de réactions en chaîne et, à chaque instant, pas plus de quelques grammes de combustible dans la machine sous forme d’un plasma très ténu), faible chaleur résiduelle de l’installation décrois- sant très vite dès l’arrêt du réacteur, pas de maté- riaux fissiles permettant la confection d’un explosif nucléaire (donc pas de risque de prolifération), pas de déchets radioactifs à extrêmement longue ou longue durée de vie. Un deuxième atout majeur de l’énergie de fu- sion est l’abondance naturelle des sources de son combustible. Dans sa version la plus accessible, elle brûle (‘fusionne’) deux isotopes de l’hydro- gène, le deutérium et le tritium. Le tritium, qui n’est pas disponible naturellement, sera fabriqué dans l’enceinte même du réacteur de fusion à partir du 6 Li qui constitue environ 7,5 % du lithium naturel. On trouvera dans l’article précité les propriétés des réactions nucléaires correspondantes. On trouvera aussi dans un article récent une évaluation des ré- serves de combustibles [2] dont les résultats sont représentés sur la figure 2. Il est clair que la fusion pourrait fournir l’énergie du monde entier pendant des millions d’années. Ce sont ces avantages indiscutables qui ont convaincu les stratèges de tous les pays industriali- sés de lancer des programmes de recherche impor- tants sur la fusion de l’hydrogène par confinement magnétique en dépit des défis scientifiques et tech- niques majeurs à affronter. En effet la fusion doit être réalisée dans un gaz à très haute température où il prend l’état plasma, sujet à des interactions collectives complexes, dont les zones de stabilité sont étroites. Il doit être bien isolé thermiquement des parois sous peine d’être immédiatement re- froidi. L’isolation thermique implique des champs magnétiques intenses créés par des aimants supra- conducteurs et les matériaux de première paroi sont par endroits soumis à des flux thermique et neutro- nique intenses. Ces défis constituent la trame de ce dossier, car ITER doit les affronter pour la première fois de manière intégrée et en vraie grandeur. En Europe, dès la signature à Rome du traité EURATOM (1957), un réseau des laboratoires euro- péens de recherches sur la fusion a été constitué. Le laboratoire du CEA en a été le premier maillon et n’a pas arrêté depuis de contribuer de façon magis- trale aux progrès dans le domaine. L’Europe a en particulier construit le JET (Joint European Torus) qui constitue véritablement le précurseur d’ITER en produisant 16 MW de puissance fusion et en défi- nissant les dimensions nécessaires pour obtenir un gain de puissance substantiel. Le Tore Supra au CEA Cadarache a de son côté démontré la possibilité d’utiliser de façon fiable des aimants supraconduc- teurs. Ces aimants fonctionnent parfaitement à une température (1,8 K) proche du zéro absolu en pré- sence d’un plasma de 50 millions de degrés situé à environ un mètre. Le JET et Tore Supra sont tou- jours en opération préparant activement la mise en service d’ITER. Les contributions des autres grandes expériences en Europe et dans le monde sont bien loin d’être en reste. On notera en particulier la mise en service récente en Allemagne du Stellarator supraconducteur W7X et le développement rapide des programmes de fusion en Asie : quatre ma- chines supraconductrices de taille moyenne sont en construction ou en opération au Japon (JT-60- SU), en Corée du Sud (KSTAR), en Chine (EAST) et en Inde (SST-1). Ce sont ces progrès continus scientifiques et tech- niques qui ont permis de confirmer les espoirs de maîtrise de la fusion thermonucléaire de l’hydrogène et donc de poursuivre avec confiance la stratégie de recherche retenue il y a un demi-siècle par quelques pays visionnaires, et maintenant partagée par Figure 2: Réserves approximatives exprimées en unité de l’actuelle production mondiale d’électricité (en weu ou World Energy unit – 1 weu = 2,4 térawatt.années). Les réserves connues au coût actuel sont indiquées en rouge et en bleu le lithium contenu dans les mers (extraction économique à dé- montrer), en sus des ressources terrestres existantes. Source : [2]. 32 REE N°4/2016 LE GRAND DOSSIER Introduction l’ensemble des grandes nations. En 2006, après une longue période d’études techniques, puis de négocia- tions sur le choix du site (Cf. encadré 2 de l’article de Robert Aymar & al.) sept partenaires – l’UE qui offre le site, la Corée du Sud, la Chine, les Etats-Unis, l’Inde, le Japon et la Russie – ont signé un accord international d’une durée minimale de 40 ans pour la construction et l’exploitation d’ITER. Ce projet constitue la plus importante collaboration scientifique internationale ayant existé à ce jour, faisant de la fusion un objectif planétaire dont les résultats seront une propriété col- lective pour le bénéfice de tous. Au-delà du défi que constituent la construc- tion et le fonctionnement de cette installation de recherche exceptionnelle qu’est ITER, une ques- tion qui est naturellement souvent posée lorsque le sujet de la fusion thermonucléaire de l’hydro- gène est abordé est celle de son industrialisation à grande échelle dans des conditions économique- ment avantageuses après l’atteinte des objectifs d’ITER. La réponse à cette légitime question est à l’évidence complexe et à ce stade de développe- ment de cette technologie nécessairement enta- chée d’incertitudes. L’objet d’ITER est justement de rechercher une optimisation des conditions de constructibilité et d’opérabilité qui permettront de simplifier les fabrications et de réduire les coûts. Pour la réalisation d’ITER, la contribution de chaque partenaire, exprimée en fraction de la valeur totale de la construction, est de 46 % pour l’UE et de 9 % pour chacun des six autres partenaires. Environ 90 % de cette valeur doit être fournie en nature et prise en charge par des agences domestiques consti- tuées par les partenaires. L’équipe centrale du projet, dont les bureaux sont installés à Cadarache en Pro- vence, est en charge des spécifications techniques, de la sûreté, des normes de qualité, de l’intégration et de la coordination de l’ensemble, de l’assemblage et de l’installation et, plus tard, de l’opération. La France intervient à deux niveaux, d’abord comme partenaire au sein de l’UE, mais aussi avec une responsabilité particulière comme pays hôte (viabilité et mise en condition du site, locaux du siège, école internationale et itinéraire d’accès au site pour convois exceptionnels). Cette responsabi- lité est exercée par l’agence ITER France (AIF) dont le siège est aussi à Cadarache au sein du centre du CEA. Le choix de Cadarache comme site pour ITER doit beaucoup à l’excellence de l’environnement scientifique constitué par le centre du CEA et, sur le plan sociétal, par le soutien des collectivités ter- ritoriales qui contribuent à hauteur de 467 millions d’euros au coût d’ITER incombant à la France. Cette contribution a permis d’éviter une ponction équi- Bernard Bigot, ancien professeur des universités, est un physico-chimiste, spécialiste de l’étude quantique de la réac- tivité chimique. Il a participé à la création de l’Ecole normale supérieure de Lyon, dont il a été successivement directeur adjoint en charge des études (1983-93), puis de la recherche (1998-2000) avant d’en être le directeur (2000-2003). Il a par ailleurs été directeur général de la recherche et de la technologie (1993-1997), avant d’assumer les fonctions de Haut-Commis- saire à l’énergie atomique et de directeur général du CEA entre 2003 et 2015. Il est depuis mars 2015 directeur général de ITER Organization. Jean Jacquinot est physicien des plasmas. Il a participé aux recherches sur la fusion par confinement magnétique, dans un premier temps au CEA à Fontenay aux Roses (1963-81) puis entre 1981 et 1999 au JET joint Undertaking, la grande expérience européenne construite à Culham au Royaume-Uni. Il y a exercé plusieurs responsabilités : responsable du chauf- fage HF du plasma, directeur adjoint puis directeur général. Il rentre en France au tout début de 2000 pour prendre la direction des recherches sur la fusion au CEA et contribuer à la candidature de Cadarache pour ITER. Il est à présent Senior Adviser auprès du directeur général d’ITER. Robert Aymar, après les années de formation en physique des plasmas à la sortie de l’Ecole Polytechnique, a dirigé le projet Tore Supra de sa conception en 1977 jusqu’à sa mise en service en 1988 en passant par sa construction sur le site de Cadarache. Un nouveau laboratoire a été construit à cette occasion, préparé dans la perspective de pouvoir accueillir à proximité un futur réacteur à fusion nucléaire, ce qui est main- tenant réalisé avec l’implantation d’ITER. Directeur de la recherche fondamentale du CEA de 1990 à 1994, puis en 1994 nommé directeur de la Collaboration internationale ITER, Robert Aymar s’est entièrement consacré jusqu’en 2003 à la définition du projet et à son approbation par les différents pays participants formalisée par l’accord international ITER signé en 2006 à Paris. Le Conseil du CERN l’a nommé en 2003 directeur général pour conduire l’organisation à terminer efficacement la construction du grand collisionneur de protons LHC. Il est depuis 2009 conseiller scientifique auprès de l’admi- nistrateur général du CEA. REE N°4/2016 33 Introduction LE GRAND DOSSIER valente sur les budgets de la recherche française et offre dès maintenant un retour important sur le plan économique puisque, au début 2016, environ 51 % des contrats d’ITER et de l’AIF, soit 2,26 mil- liards , ont été passés aux entreprises françaises. Une vingtaine de ces entreprises ont déjà créé plus de 400 emplois. Après des débuts difficiles, le projet a pu, en mars 2015, être réorganisé en une véritable structure de projet. Un an plus tard on constate une accéléra- tion très significative de la construction et ITER estime maintenant à 40 % le degré d’achèvement des fabrications des systèmes nécessaires au début de l’exploitation, qui correspond à l’obtention d’un premier plasma en 2025 selon un calendrier validé par le Conseil ITER de juin 2016. L’idée de ce dossier sur ITER a germé à la suite d’une visite sur le site ITER du groupe Cen- trale Energies qui réunit les associations de cinq Ecoles Centrales à laquelle participait le rédacteur en chef de la REE [3]. Cette visite étayée par une série de conférences a permis un tour d’horizon scientifique assez complet du projet et il a été proposé de réunir ces conférences en un dossier pour la REE. L’objectif proposé aux auteurs de sept articles est de donner, pour un lectorat non spé- cialisé, les bases scientifiques et techniques ainsi que l’état d’avancement du projet ITER. Ces sept articles fournissent des coups de projecteurs sur les concepts de base de la production de l’éner- gie de fusion par confinement magnétique, dé- crivent les principales technologies innovantes (e. g. les supraconducteurs, le vide, la cryogénie, l’électrotechnique, la mécanique et les matériaux) et donne l’état d’avancement du projet en juin 2016. Bibliographie [1] http://www.banquemondiale.org/fr/news/ feature/2013/05/28/Global-Tracking-Framework-Puts- Numbers-to-Sustainable-Energy-Goals [2] Steven C. Cowley Nature Physics vol. 12 May 2016. [3] http://www.centrale-energie.fr/ La fusion thermonucléaire Enjeux, principes, réalisations Par Jean Jacquinot ........................................................................................................................................................ p. 34 Le projet ITER Objectifs, choix des paramètres et état du projet Par Robert Aymar, Bernard Bigot et Jean Jacquinot ..................................................................................... p. 44 Un site et une logistique exceptionnels Par Erwan Duval ........................................................................................................................................................... p. 56 La distribution électrique du site et les alimentations électriques de puissance Par Joël Hourtoule ...................................................................................................................................................... p. 65 Les aimants supraconducteurs d’ITER Par Paul Libeyre ............................................................................................................................................................. p. 76 ITER : vide et cryogénie Par Eric Fauve, David Grillot ................................................................................................................................... p. 85 La chambre à vide Fonction et matériaux Par Jean-Marc Martinez ............................................................................................................................................. p. 97 LES ARTICLES 34 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER Introduction Dès 1934, Lord Rutherford et son équipe [1] découvrait, grâce aux premiers accélérateurs de particules, la réaction de fusion de deux atomes d’hydrogène lourd (le deutérium composé d’un pro- ton et d’un neutron). L’accélérateur por- tait à 100 kV des atomes de deutérium qui venaient ensuite frapper une cible contenant du deutérium. Par la même occasion, deux nouveaux éléments produits par cette fusion étaient décou- verts : le tritium (hydrogène super lourd, un proton et deux neutrons) et l’hélium 3 (deux protons et un neutron) ; une ex- périence de rêve ! Bien que la réaction soit exothermique, Rutherford notait que l’énergie dépensée pour accélé- rer les deutérons était bien supérieure à celle produite par la fusion des deux atomes. La probabilité que la réaction ait lieu était faible. Cependant, quelques années plus tard, le monde réalisait que Dame Nature faisait beaucoup mieux les choses : le soleil et tous les astres visibles dans le ciel nocturne étaient de gigantesques réacteurs à fusion qui synthétisaient tous les atomes connus jusqu’au fer en fusionnant des atomes plus légers au cours d’une longue cas- cade avec comme point de départ la fusion des atomes d’hydrogène. Depuis ce temps, comme Prométhée, l’homme rêve de la réaliser sur terre. Le soleil, grâce, à sa gravité retient (le confinement est essentiel) l’hydrogène ainsi que les produits de fusion dont l’apport de chaleur permet à la réaction de s’entretenir. Cependant, la gravité est une force faible et le feu nucléaire ne peut s’allumer et se maintenir que si la dimension du système est de l’ordre du million de kilomètres. Sur terre, le principe du confinement doit être très différent ; il faut donc compter soit sur l’inertie après compression à très haute densité ce qui permet de créer la fusion pendant un instant très court, la bombe thermonucléaire adopte ce principe, soit sur la force électromagnétique qui per- met de confiner des particules dans des La fusion thermonucléaire Enjeux, principes, réalisations Par Jean Jacquinot1 Senior Adviser to the ITER Director-General The basic principles underlying the magnetic fusion energy production are discussed. The highest fusion probabili- ties are found in the deuterium/tritium reactions. Energy gains are obtained with plasmas of about 200 million o C with a pressure of circa 1 atmosphere and with an energy confinement time of a few seconds. Toroïdal magnetic confinement experiments, benefiting from an active international cooperation, have tested systems capable of confining such plasmas. The largest devices have produced significant amount of fusion power (16 MW in JET, the European experiment, and 10 MW in TFTR, Princeton, USA). A world-wide data base as well as theory and modelling show that plasma volumes need to exceed a critical size in order to be a net producer of energy. ITER will be the first experiment meeting this condition. It is dimensioned to produce 500 MW of D/T fusion with a gain of 10 in power amplification of the auxiliary heating power. ABSTRACT 1 L’auteur est seul responsable des faits énoncés et opinions émises dans cet article L’essentiel à retenir La fusion des atomes légers, en premier lieu celle des isotopes de l’hydro- gène, est la source d’énergie des étoiles. Pouvoir la contrôler sur terre de manière efficace fournirait à l’humanité une énergie quasi-inépuisable avec d’excellentes conditions de sûreté et de respect de l’environnement. La réac- tion de base est bien comprise sur le plan théorique et on sait la réaliser expérimentalement mais, jusqu’à présent, sans gain net d’énergie bien qu’une puissance significative (16MW) ait été démontrée sur la grande expérience européenne JET qui utilise le confinement magnétique dans une configura- tion toroïdale de type tokamak. La physique des plasmas, ce quatrième état que prend la matière élevée à très haute température, indique qu’un réacteur de fusion basé sur le principe du tokamak doit nécessairement être dimen- sionné au-delà d’une certaine taille critique. Ces dimensions ont été précisées par les résultats de nombreuses expériences de la communauté scientifique internationale qui collabore activement sur ce sujet depuis plusieurs décen- nies. ITER, sera la première réalisation capable de dépasser ce seuil. Elle pro- duira une puissance de 500 MW avec un gain de 10. Avec un volume plasma de 800 m3 confiné dans une configuration magnétique de type tokamak, elle est en cours de réalisation et fait l’objet de la plus grande collaboration scientifique mondiale REE N°4/2016 35 La fusion thermonucléaire pièges magnétiques de dimensions rai- sonnables et de fonctionner de manière contrôlée en régime continu. C’est sur cette dernière solution qu’est basé le principe d’ITER que nous décrivons ici. Sans aller dans les détails, nous don- nons les grandes lignes de la physique sous-jacente ainsi que les résultats ex- périmentaux qui ont permis de dimen- sionner ITER avec comme objectifs d’obtenir pour la première fois une puis- sance de fusion de 500 MW et un gain d’amplification de 10. Nous chercherons ensuite à dégager les principaux défis scientifiques et technologiques que doit affronter cette très grande expérience internationale. Les principales réactions de fusion nucléaires Dans le soleil, la réaction de fusion initiale est celle qui combine, à environ 14 millions de Kelvin, quatre noyaux d’hydrogène pour former un noyau d’hélium, deux positrons et deux neu- trinos. Sa section efficace est extrême- ment faible, heureusement d’ailleurs, car cela permet au soleil, grâce à une cinétique lente, de briller pendant environ 10 milliards d’années mais, avec une aussi faible réactivité, il est inenvisageable de l’utiliser sur terre. Heureusement, d’autres atomes et en particulier les deux isotopes lourds de l’hydrogène, le deutérium D et le tritium T, se prêtent à des réactions beaucoup plus probables : Les sections efficaces de ces réactions, < v>, moyennées sur une distribution maxwellienne de température T sont données sur la figure 1. La réaction D-T est de beaucoup la plus facile à mettre en œuvre : sa valeur maximum est nettement plus grande que celle de la réaction D-D et est atteinte à une tem- pérature bien plus faible. En pratique, même pour la réaction D-T, il faudra réaliser des températures supérieures à 100 millions de degrés (1 eV = 11 600 0 C). A ces températures, le mélange gazeux devient un plasma, un nouvel état ionisé de la matière où les électrons se séparent du noyau de l’atome. Nous verrons que les plasmas ont des propriétés physiques très particulières. Gains et nécessité du confinement Chaque réaction de fusion D-T produit une énergie considérable de 17,59 MeV : la fusion d’un seul gramme de mélange D-T est équivalent à brûler huit tonnes de pétrole. Cependant, la réaction de fusion nécessite de mainte- nir le mélange D-T à très haute tempéra- ture pendant que la puissance de fusion est produite. Mais des pertes d’énergie sont inévitables. Elles sont de diverses natures (transports de l’énergie, pertes de particules et rayonnement). Le bilan énergétique global du processus, en régime stationnaire, ne sera favorable que si les pertes d’énergie sont plus que compensées par la production d’énergie de fusion. Il est fondamental de minimiser ces pertes grâce à un bon confinement du plasma. On définit deux quantités qui permettent d’établir un tel bilan : Figure 1 : Sections efficaces des principales réactions de fusion au sein d’un plasma de température T – Source : [2]. 36 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER Le facteur Q = Pfusion /Pin où Pin est la puissance injectée pour maintenir la température du plasma et le temps de confinement de l’énergie : = W/ Pperte où W est l’énergie cinétique conte- nue par le plasma et Pperte est la puis- sance perdue. Les sections efficaces permettent de calculer la valeur du produit n (n densité de particules du plasma) nécessaire pour obtenir un gain Q (figure 2, [2]). Pour la réaction D-T, n passe par un minimum à 26 keV. L’ignition (Q = ) est obtenue pour n = 1,5.1020 m-3 .s, condition connue sous le nom du critère de Lawson. Pour les réactions D-D, on a tenu compte de l’énergie, non négligeable, de la fusion du tritium produit in-situ par la réaction D-D. La fusion D-D requiert un produit n 20 fois plus grand que la fusion D-T. Les pertes par rayonnement de freinage (bremsstrahlung) rendent inaccessible la région à haute densité. En pratique, compte tenu des contraintes de la phy- sique des tokamaks, on visera, pour la fusion D-T dans ITER, une densité de 1020 p.m-3 , une température de 10 keV et un confinement de l’énergie de 3 s. Les valeurs des deux premiers para- mètres ont été obtenues dans les ma- chines existantes mais le confinement de l’énergie s’est avéré plus difficile à atteindre. C’est pour relever ce défi qu’ITER a été conçu. Avantages et intérêts de la fusion Les combustibles de la fusion sont abondants et bien distribués sur la planète : le deutérium, l’un des deux combustibles de la fusion D-T est, sous forme d’eau lourde, abondant dans les océans (33 g de D2 par tonne d’eau). Le tritium, un élément radioactif à vie courte (12,3 ans), doit être fabriqué à partir du lithium. Le concept du réacteur à fusion est de faire réagir, in-situ, selon les réactions n + 6 Li T + 4 He (+ 4,78 MeV) Confinement impératif pour un gain d’énergie : le critère de Lawson Dès 1934 on a su réaliser la fusion d’atomes légers grâce aux premiers ac- célérateurs de particules. Ce fut une découverte fondamentale en physique atomique. Chaque réaction de fusion dégageait beaucoup d’énergie mais la pro- babilité (section efficace) de réaliser une fusion pour chaque collision d’atome étant très faible, le rendement énergétique global était totalement inadapté au besoin d’une source d’énergie. La solution pour augmenter le rendement est de confiner les atomes après avoir atteint la température requise pour les réactions de fusion de façon à permettre un grand nombre de collisions de particules avant que leur énergie ne soit perdue. On rentabilise ainsi l’énergie consentie pour chauffer les atomes. Le confinement est réalisé par un piège magnétique. Un gain net d’énergie est obtenu non seulement si la température requise est atteinte mais aussi si le produit de la densité des atomes par le temps de confi- nement de l’énergie dépasse un certain seuil. C’est le critère historiquement proposé par Lawson : n > 1,5.1020 m-3 .s. On utilise maintenant le triple produit n T qui inclut aussi la contrainte sur la température. Ce triple produit est équi- valent au produit P (pression x temps de confinement de l’énergie) qui utilise des unités familières. On voit sur la figure 9 que l’objectif est d’atteindre P = 10. En pratique, on dispose d’une certaine latitude dans le choix des paramètres ; on pourra par exemple fonctionner avec une pression de trois atmosphères et une énergie confinée pendant plus de trois secondes. ITER est la première expérience dimensionnée pour atteindre cet objectif. Figure 2 : Produit n pour les réactions D-T (courbes pleines) et D-D (courbes en pointillé) et pour différentes valeurs du gain Q – Source : [2]. REE N°4/2016 37 La fusion thermonucléaire n + 7 Li T + 4 He + n (- 2,47 MeV) les neutrons générés par la réaction D-T avec du lithium disposé autour du plas- ma dans des modules de couvertures (couvertures fertiles, figure 7), dont la fonction principale est de ralentir ces neutrons de grande énergie et ainsi de transférer la puissance de fusion à un fluide caloporteur. Il est prévu de rendre le réacteur surgénérateur en tritium en installant un multiplicateur de neutrons (Be ou Pb) dans les couvertures fertiles. Le lithium et le deutérium apparaissent donc com- me les combustibles de la fusion D-T. Le lithium est abondant dans la croûte terrestre et plus encore dans les océans bien qu’en dilution bien plus importante que le deutérium. Sur le plan de la sûreté, le réacteur, amplificateur à gain limité, ne peut pas s’emballer ; il ne comporte en son sein pas plus d’une minute de combustible. Il n’y a pas de combustibles usés à re- froidir ni de matières fissiles pouvant servir à la prolifération. Le réacteur com- porte cependant une grande quantité de tritium, élément radioactif qui exige des barrières de confinement. Elles con- stituent un élément structurel essentiel de la machine mais même en cas d’acci- dent ultime, il ne sera pas nécessaire de procéder à l’évacuation du public situé en dehors de l’enceinte de l’installation. D’importantes parties de la machine elle-même deviendront radioactives sous l’effet des neutrons issus de la réaction. Il s’agit là d’une radioactivité induite dont l’intensité dépendra beau- coup du choix des matériaux structurels mais, dans tous les cas, sa décroissance sera bien plus rapide que celle des pro- duits de fission (figure 3) d’un réacteur à fission. Les pièges magnétiques et l’instabilité des plasmas Le critère de Lawson, qui souligne le rôle fondamental du confinement, date de 1955 et rapidement ont fleuri plu- sieurs concepts permettant en théorie de piéger les particules ionisées dans un champ magnétique et de les isoler ainsi des parois. En effet, aux tempé- ratures requises par la fusion, les par- ticules du plasma sont toutes ionisées (ions et électrons) et leurs trajectoires s’enroulent autour des lignes de champ magnétique (figure 4) ; leurs excursions radiales sont ainsi réduites au rayon de Larmor, R = (2mT)1/2 /ZeB. R est de quatre millimètres pour des ions D de 10 keV et un champ magnétique de cinq teslas, ce qui procure un bon confi- nement radial. Pour éviter les fuites aux deux extrémités, on a proposé soit de renforcer le champ aux deux bouts pour réfléchir les particules (configuration en miroir magnétique) soit de refermer les lignes de champ en une configuration toroïdale (figure 4). On pouvait croire à l’époque de Lawson, que le temps de confinement se trouverait alors limité uniquement par la diffusion des particules à travers les lignes de champ magnétique résultant des collisions entre particules. Le calcul Figure 3 : Décroissance de la radiotoxicité après arrêt des réacteurs, fission ou fusion, de même puissance – Source : [4]. 38 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER donnait des valeurs acceptables de pour des dimensions de machines très modestes. C’était ignorer que les plas- mas confinés dans un champ magné- tique sont sujets à une physique, tout à fait nouvelle à cette époque, caracté- risée par l’importance des interactions collectives. Chaque particule ionisée du plasma est en interaction avec beau- coup d’autres (le libre parcours moyen est très grand) et de nombreuses ins- tabilités de nature collective peuvent se développer. Elles s’alimentent de l’éner- gie libre apparaissant dès qu’un plasma est confiné. On peut distinguer deux grandes classes d’instabilité : les micro- instabilités produisant des fluctuations à l’échelle du rayon de Larmor des parti- cules et les macro-instabilités qui pro- duisent des mouvements d’ensemble du plasma. Ces dernières, les plus dangereuses, sont en général fatales à l’intégrité du plasma. Les progrès de la physique des plas- mas sur plusieurs décennies ont permis de comprendre et de maîtriser les ins- tabilités macroscopiques dans plusieurs types de configuration magnétique de confinement. A titre d’exemple, offrir au plasma une courbure moyenne convexe des lignes de champ ou bien limiter le courant circulant dans le plasma des to- kamaks (voir plus loin) permet d’éliminer les instabilités majeures de type magné- tohydrodynamique. Les micro-instabili- tés sont aussi maintenant bien décrites par la théorie, mais il s’est avéré impos- sible de les éliminer complètement. Elles ont été fatales aux configurations à miroir créant des fuites longitudinales qu’il n’a pas été possible d’éviter et qui sont prohibitives. Dans les configura- tions toroïdales, elles conduisent à une turbulence complexe qui domine le processus de diffusion de la chaleur au travers des lignes de champ : c’est cette turbulence qui contrôle les dimensions des plasmas pour obtenir une valeur du gain Q. Le dimensionnement d’ITER prend bien sûr pleinement en compte ces effets. Les configurations toroïdales – Le tokamak La configuration toroïdale la plus simple est de révolution autour d’un axe vertical ; elle consiste à disposer Figure 4 : Confinement des particules dans un champ magnétique. REE N°4/2016 39 La fusion thermonucléaire des bobines régulièrement autour d’un tore (les bobines rouges de la figure 5). On crée ainsi un champ toroïdal dont les lignes de champ sont des cercles concentriques. Cependant la courbure de ces lignes crée une dérive verticale des particules qui sont très rapidement perdues sur les parois. Pour éviter cet effet, il est nécessaire d’ajouter un champ poloïdal pour forcer les lignes de champ à s’enrouler autour de l’axe ma- gnétique du plasma, formant ainsi des surfaces magnétiques fermées (figure 6). La dérive dans la partie supérieure est compensée par celle dans la par- tie inférieure. Ce champ poloïdal peut être créé soit entièrement par des bobi- nages extérieurs, on a alors affaire à un Stellarator, soit principalement par un courant toroïdal circulant dans le plasma lui-même, on a alors affaire à un ‘pinch’ toroïdal dont la plus célèbre variété est le tokamak (figure 5). On doit la configuration tokamak aux physiciens russes de l’institut Kurtchatov dans les années 60. C’est une confi- guration toroïdale axisymétrique dans laquelle le plasma est parcouru par un courant important. Un solénoïde placé au centre de la configuration (en orange sur la figure 6) est utilisé pour induire une variation de flux magnétique qui, par effet transformateur, induit un champ électrique dans la chambre à vide. Si on introduit au même moment de l’hydrogène dans la chambre on peut obtenir un claquage dans ce gaz, puis la formation d’un plasma et la génération du courant nécessaire à un bon confine- ment. On remarque aussi sur le schéma des figures 5 et 6 les grandes bobines concentriques à axe vertical (en vert sur le schéma de la figure 5) qui servent à ajuster la position et la forme du plasma à l’intérieur de la chambre. Le cycle d’opération d’un tokamak est donc constitué de plusieurs phases : chambre et établissement du champ Figure 5 : Schéma montrant les principaux éléments d’un tokamak. Son plasma (en jaune) est par- couru par un courant toroïdal dont le champ poloïdal est une contribution essentielle au confinement. Figure 6 : Section poloïdale d’ITER. Les surfaces magnétiques (en mauve) sont engendrées par la combinaison des champs toroïdaux et des champs poloïdaux créés d’une part par le courant plasma de 15 MA et d’autres par les différentes bobines concentriques à axe vertical (CS et PF). Les courants dans ces dernières sont programmées pour maintenir les ‘gaps’ g1 à g6 et la position de la séparatrice (en rouge) par rapport au divertor en partie basse – Source : Fig. 1.2.1-5 de [5]. 40 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER principal statique (bobines de champ toroïdal) ; - tialement complètement chargé, son courant s’inversera au cours du cycle) pour produire une variation de flux ma- gnétique et, simultanément, de l’hy- drogène est introduit dans la chambre à une pression adéquate pour qu’un claquage ait lieu. Un plasma se forme. La position et la forme du plasma sont ajustées en programmant le courant dans les bobines de champ poloïdal. En particulier une séparatrice magné- tique est formée, elle comporte une ligne (point X sur la section transver- sale, figure 6) où le champ poloïdal est nul. Elle sépare la zone de confinement où les surfaces magnétiques sont fer- mées de celle où elles sont ouvertes et où elles dirigent les écoulements au bord du plasma vers le divertor, situé en général dans la partie basse de la machine (figure 6), en y déposant une grande puissance par unité de surface. Le plasma qui diffuse vers les parois de la chambre y entraine les impure- tés ; il est neutralisé et évacué par pompage (le combustible pourra être recyclé). La température du plasma s’élève sous les actions combinées du chauffage ohmique résultant du courant plasma et des systèmes de chauffage auxiliaires (ondes haute fré- quence et/ou injection de neutres) ; la fusion est atteinte, le chauffage par l’énergie de l’hélium né de la réac- tion de fusion devient dominant et on peut réduire les chauffages auxi- liaires. Les neutrons issus de la réac- tion s’échappent librement du plasma. Ils sont ralentis dans des modules de couverture qui tapissent l’intérieur de la chambre à vide et leur énergie est récupérée dans le fluide caloporteur qui les refroidit ; plasma, il faut augmenter continu- ment le flux magnétique produit par le solénoïde central. On ne peut pas bien sûr le faire indéfiniment et il fau- dra soit arrêter la décharge lorsque que le courant limite du solénoïde est atteint, soit créer le courant plasma d’une autre manière. On pourra utiliser par exemple la génération de courant par des ondes progressives (e.g. les ondes hybrides utilisées dans l’expé- rience Tore Supra [3]). On peut aussi se placer dans un régime plasma qui engendre spontanément un fort cou- rant interne (courant de “bootstrap”). Le schéma d’un réacteur à fusion basé sur le principe du tokamak est don- né par la figure 7. Les couvertures qui tapissent la chambre à vide ralentissent les neutrons et produisent du tritium qui peut ensuite être réinjecté comme combustible. Elles sont parcourues par un caloporteur qui refroidit l’ensemble et alimente le générateur de vapeur actionnant la turbine électrogène. Le divertor situé dans la partie basse de la machine permet l’évacuation des cendres (l’hélium) et des impuretés. Le rendement énergétique global impose que le champ magnétique soit produit par des aimants supraconducteurs et que le gain physique Q défini précé- demment soit supérieur à 30. Figure 7 : Schéma d’un réacteur à fusion basé sur le principe du tokamak. REE N°4/2016 41 La fusion thermonucléaire Historique et état des recherches en fusion magnétique En 1958, à l’occasion de la seconde conférence de Genève ‘Atoms for peace’, les recherches sur la fusion ont été déclassifiées par l’ensemble des pays appartenant à l’AIEA. Les défis à relever pour réaliser le potentiel de cette nou- velle source d’énergie sont apparus bien plus difficiles que prévus initialement et exigeant une collaboration internationale intense. Effectivement, 1958 marque le début d’une collaboration totalement ouverte sur les recherches en fusion ma- gnétique qui s’est avérée extrêmement fructueuse. ITER se place naturellement dans le prolongement de cette collabo- ration. Cinquante ans plus tard, en 2008, la communauté scientifique a pu faire un bilan et examiner les orientations futures. Suivant le tableau de la référence [4], on peut, décennie par décennie, identifier les faits plus marquants : 1958-68 : Fondations de la physique des plasmas. Les découvertes sur les instabilités conduisent aux déboires des machines à miroir mais en 1968, les Russes obtiennent 1 keV sur le to- kamak T3 du Kurtchatov, résultat très en avance sur l’Occident (son plasma est macroscopiquement stable) ; 1969-78 : L’Occident se convertit au Tokamak. L’équipe française de Fontenay-aux-Roses construit le TFR, premier tokamak occidental à confirmer les résultats des Russes, à les améliorer de manière significative et à installer des moyens de chauffer le plasma ; 1979-88 : L’Europe construit le JET à Culham (UK), les Etats-Unis le TFTR et le Japon le JT 60. Ce sont des tokamaks de taille largement supérieure à celle de la génération précédente. Capables de courant plasma de plusieurs mil- lions d’ampères, ils peuvent confiner les atomes d’hélium de 3,56 MeV issus des réactions de fusion et approcher ainsi les conditions thermonucléaires. Les pre- miers résultats sont décevants. Le confi- nement se dégrade avec l’application du chauffage additionnel. Cependant, le Tokamak Asdex en Allemagne installe un divertor et découvre fortuitement le mode H, une bifurcation spontanée qui restaure un confinement acceptable. Le temps de confinement est doublé. Dans ce mode, une barrière de confi- nement s’établit au bord du plasma. Elle relaxe périodiquement par de brèves instabilités : les ELM (Edge Localised Modes), impulsions qui mettent à rude épreuve le divertor. Le Tore Supra est construit à Cadarache ; il démontre la possibilité de fonctionner avec des ai- mants supraconducteurs ouvrant la voie au fonctionnement en continu, en utili- sant la génération de courant par ondes et en développant les composants à haut flux activement refroidis ; 1989-2001 : Le JET et le TFTR pro- duisent de l’énergie de fusion avec un mélange D-T, respectivement 16 MW [6] et 10 MW. Le chauffage par l’hélium est observé pour la première fois. Il est en accord avec les prédictions bien que limité à 10 % du chauffage to- tal. Une base mondiale de données du confinement des tokamaks établit les lois d’échelle du confinement (figure 8) en utilisant une approche non dimen- sionnelle, type ‘essais en soufflerie’. Elles permettent de dimensionner une machine selon la performance voulue. Le produit nT (produit de Lawson mul- tiplié par la température) atteint pour la première fois la région du ‘breakeven’ (figure 9). Un groupe d’études interna- tional est créé sous l’égide de l’AIEA : l’ITER EDA (Engineering Design Ac- tivities) avec mission de définir une machine capable de faire la démonstra- tion de l’énergie de fusion (cf. l’article sur le projet ITER). Sa proposition est acceptée par les partenaires en 2001. Figure 8 : Loi d’échelle du confinement établie à partir d’une base de données de 13 tokamaks de différentes tailles et champs magnétiques. Elle prédit un temps de 4 s dans ITER. Les données ont été mises sous la forme non dimensionnelle des équations de transport du plasma. Source : JET Joint Undertaking. 42 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER 2001-temps présent : La construction d’ITER est lancée (2007) après de lon- gues négociations sur le choix du site. En parallèle, les machines existantes préparent son exploitation (utilisation du tungstène et mitigation des ELMs et des disruptions sur plusieurs machines européennes et américaines). Le Tore Supra fait des progrès dans l’opération en continu et porte la durée d’opération à six minutes. Sur le plan théorique [7], le transport de la chaleur peut mainte- nant être abordé à partir des premiers principes en utilisant la puissance de calcul de la nouvelle génération d’ordi- nateurs. Les résultats de l’approche non dimensionnelle sont confirmés. Défis sur la route du réacteur électrogène ITER a été dimensionné pour Q=10, une puissance fusion de 500 MW et une combustion initialement de 400 s. Son succès constituera la solution à de nombreux défis sur la route du réacteur à fusion. Sur le plan de la physique, on aura fait la démonstration de l’existence d’un plas- ma en « combustion thermonucléaire » où l’énergie apportée par l’hélium né de la réaction constitue le chauffage domi- nant du plasma. On aura ainsi établi les propriétés de stabilité de ces particules durant leur ralentissement depuis leur très haute énergie. Pour en arriver là, il aura fallu maitriser la tenue sous des flux intenses d’énergie des matériaux face au plasma, contrôler les ELM dont l’impact sur le divertor peut conduire à une éro- sion excessive et les disruptions, mou- vement incontrôlé brutal du plasma qui peut induire des efforts considérables sur les structures dans la chambre à vide. Sur le plan de la technologie, on aura démontré la possibilité de réalisation, à une échelle industrielle sans précédent, des indispensables grands aimants su- praconducteurs ainsi que leur fonction- nement dans un environnement hostile (rayonnement, champs fluctuants) et la maîtrise des autres technologies spéci- fiques de la fusion (ultra vide dans des volumes de très grandes dimensions, électrotechnique, systèmes de chauf- fage, etc.). Sur le plan de la sûreté, on aura aussi démontré les avantages de la fusion : impossibilité de l’emballement du processus et absence de déchets radioactifs à très longue durée de vie. La maîtrise du cycle d’utilisation du tritium et de la télémanipulation, déjà abordée avec succès sur le JET, devra atteindre un haut niveau de fiabilité et d’efficacité. Cependant les résultats d’ITER de- vront être complétés par le développe- ment de matériaux capables de résister à une dose plus importante de flux de neutrons de 14 MeV. Cet aspect fait par- tie de l’approche élargie des recherches sur la fusion menées par l’Europe et le Japon, qui inclut le programme IFMIF (International Fusion Materials Irradiation Facility). En ce qui concerne la généra- tion de tritium in situ, ITER a prévu l’inté- gration dans la couverture de plusieurs petits modules tritigènes. Ils pourront dé- montrer la validité des concepts de base ; cependant, vu la taille de ces modules, la production de tritium sera très inférieure à la consommation. La démonstration de l’autosuffisance en tritium devra donc être faite dans une nouvelle étape. Celle-ci pourrait être constituée par une machine de démonstration. Pour être électrogène, cette machine devrait avoir un Q ~ 30 et disposer d’une couver- ture tritigène complète. Les différentes étapes de la fusion ont été schématisées sur la figure 10. La Chine étudie en ce moment la construction d’une machine autosuffisante en tritium d’une taille voi- sine de celle d’ITER. Conclusions Depuis plusieurs décennies, les re- cherches sur la fusion thermonucléaire Figure 9 : Progrès des performances vers le milieu des années 90. L’échelle de l’axe vertical qui est exprimée en atmosphère.secondes est équivalente au produit nT . En 1997, ces résultats seront confirmés avec un mélange DT par le JET. Une puissance de 16 MW sera produite. Source : JET Joint Undertaking. REE N°4/2016 43 La fusion thermonucléaire contrôlée par confinement magnétique ont bénéficié d’une collaboration interna- tionale très active ; des bases scientifiques et techniques solides sur la physique du confinement dans les tokamaks ont pu être établies. Les grandes expériences européenne, américaine et japonaise ont pu les confirmer et atteindre des perfor- mances proches du “breakeven” (Q ~ 1). Les dimensions d’un réacteur capable d’un gain supérieur à 1 doivent dépasser un seuil critique. C’est le cas d’ITER qui doit atteindre Q = 10 et entrer dans le nouveau domaine physique où l’énergie provenant des collisions de l’hélium, né de la réaction de fusion, avec les autres atomes du plasma constitue la princi- pale source de chauffage permettant d’entretenir le processus. La stabilité de la population d’hélium à haute énergie devra être confirmée ainsi que les lois de confinement du tokamak qui ont dû être extrapolées à partir d’une machine huit fois plus petite en volume (le JET). De nombreux défis devront aussi être rele- vés sur le plan de la technologie ; ils sont abordés dans l’article sur le projet ITER. Bibliographie [1] M. L. E. Oliphant, P. Harteck, and Lord Rutherford, Proceedings of the Royal Society, A, vol. 144, p. 692-703 (1934). [2] « La Fusion thermonucléaire Contrô- lée par Confinement Magnétique », Masson (1987) ; voir aussi : S. Cowley, “the quest for fusion power”, Nature Physics, vol. 12, May 2016, 384-386. [3] J. Jacquinot & al., “Recent develop- ments in steady-state physics and te- chnology of tokamaks in Cadarache”, Nuclear Fusion 43 (2003) 1583. [4] J. Jacquinot, “Fifty years in fusion and the way forward”, (2010) Nuclear Fusion 50 014001 [5] “ITER Technical Basis”, ITER-EDA- DS24, IAEA (2002) [6] M. Keilhacker & al., “High fusion performance from deuterium-tritium plasmas in JET”, Nuclear Fusion 39 (1999) 209. [7] X. Garbet, P. Mantica & al., “Physics of transport in Tokamaks”, Plasma Phys. Control. Fusion 46 (2004) B557–B574. Figure 10 : Quelques étapes de la fusion vers le réacteur électrogène. Tore Supra est caractéristique des machines nationales en fonctionnement. JET, construite et opérée par l’Europe est la machine la plus performante en fonctionnement. ITER est en construction à Cadarache. DEMO est un concept préliminaire de la prochaine étape devant fonctionner en régime continu (CW). De haut en bas sont indiqués : – le volume du plasma – la puissance fusion – le gain Q – la durée de la décharge – le niveau de chauffage par les particules alfa. L'AUTEUR Jean Jacquinot est physicien des plasmas. Il a participé aux recherches sur la fusion par confinement ma- gnétique, dans un premier temps au CEA à Fontenay aux Roses (1963- 81) puis de 1981 jusqu’à fin 1999 au JET joint Undertaking, la grande expérience européenne construite à Culham au Royaume Uni. Il y a exer- cé plusieurs responsabilités : respon- sable du chauffage HF du plasma, directeur adjoint puis directeur géné- ral. Il rentre en France au tout début de 2000 pour prendre la direction des recherches sur la fusion au CEA et contribuer à la candidature de Cadarache pour ITER. À partir de 2004, il est conseiller scientifique au CEA et est à présent Senior Adviser auprès du directeur général d’ITER. 44 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER Les objectifs stratégiques Faire de la fusion thermonucléaire d’isotopes de l’hydrogène une source d’énergie pérenne exige de définir les développements scientifiques et tech- niques qui permettront la construction d’une station de puissance électrogène. Dans ce cadre, les recherches sur le confinement magnétique des plasmas chauds, en particulier dans la configu- ration magnétique des tokamaks (Cf. l’article précédent de Jean Jacquinot), sont parvenues à des résultats suffi- samment cohérents pour convaincre l’ensemble des acteurs à l’échelle mon- diale de s’associer et collaborer à la réa- lisation en deux étapes, d’un réacteur utilisant la combustion thermonucléaire deutérium-tritium (D-T) et dévelop- pant une puissance quasi stationnaire de 500 MW. La première étape d’une dizaine d’années d’“Engineering Design Activities” (EDA) a défini les plans détail- lés du dispositif tokamak et réalisé les développements nécessaires à leur qua- lification tant en matière de physique que de technologie. La deuxième étape en cours depuis 2006 doit construire le dispositif à Cadarache (France) dans le cadre d’un traité (Joint ITER Agreement: JIA) entre sept gouvernements : six ont des contributions égales au projet, Chine, Corée du Sud, Etats-Unis, Inde, Japon, Russie et celle de l'UE, en tant que partenaire hôte, est cinq fois plus importante que celle des autres parte- naires ; chacun d’eux bénéficiera de la totalité des résultats. La signature de l’accord ITER exprime la confiance acquise par les gouverne- ments dans l’avenir de la fusion thermo- nucléaire à partir des résultats exposés dans l’article précédent. Elle confirme les options proposées par l’EDA et dé- crit les objectifs stratégiques à atteindre avec ITER qui permettront ensuite la conception d’un démonstrateur électro- gène de puissance (DEMO) : quasi stationnaire, développant au moins 500 MW pendant plus de 400 s et une valeur Q = 10 (rapport de Pfus à Pin ) quand le courant plasma est main- tenu uniquement par l’action du solé- noïde central (plasma “inductif”) ; vers les conditions stationnaires de 500 MW pendant 3 000 s et Q = 5 quand le courant plasma est maintenu par des sources auxiliaires de courant en cours de développement (injection de particules neutres énergétiques et ondes électromagnétiques) en plus des sources internes liées aux gra- dients de pression plasma ; - logies spécifiques (aimants supracon- ducteurs à haut champ magnétique ; maintenance robotisée ; pompage gazeux à hauts débits et ultravide) et une qualité qui permette une dispo- nibilité de 90 % pendant une à deux semaines avec un facteur d’utilisation de 25 %, la réalisation d’au moins 30 000 pulses et d’une irradiation de 0,3 MW.a/m2 de la paroi face au plas- ma par les neutrons de 14 MeV issus des réactions D-T avec une intensité de 0,5 MW/m2 . - pendante sans profiter de la pleine collaboration de tous les partenaires d’ITER, des modules de couverture tritigènes à haute température et une installation (IFMIF) dédiée à l’irradia- tion par des neutrons de 14 MeV des matériaux candidats pour DEMO. Comment choisir et sur quelles bases les paramètres du dessin d’ITER qui per- mettent d’atteindre les objectifs ci-des- sus avec le maximum de confiance, le minimum de risques et de coûts : c’est l’ambition de ce court exposé qui met l’accent sur les méthodes, en rappelant que le projet ITER demeure un instru- ment de recherche extrapolant des résultats expérimentaux dont la com- préhension n’est pas encore complète. Les programmes de développement Pour atteindre ces objectifs straté- giques, les EDA ont proposé une archi- tecture globale pour ITER intégrant tous les concepts fonctionnels innovants du Le projet ITER Objectifs, choix des paramètres et état du projet Par Robert Aymar1 , Bernard Bigot2 et Jean Jacquinot3 Conseiller scientifique auprès de l’administrateur général du CEA1 , Director-General of ITER Organization2 , Senior Adviser to the ITER Director-General3 The goal of ITER is to demonstrate the scientific and technical mastering of fusion energy, building on several decades of worldwide magnetic confinement research, as well as dedicated engineering design activities and prototyping. ITER is the world’s largest and most complex energy research project. To meet this challenge, an international collaboration of seven partners has been established in order to build, operate ITER and share the scientific results. This article summarises the objectives, the methods for choosing the parameters, the scope and the status of the project. ABSTRACT REE N°4/2016 45 Le projet ITER projet. Des prototypes, ou au moins des modèles extrapolables, ont été réalisés par les firmes industrielles des parte- naires, testés dans les laboratoires de manière à qualifier techniquement les technologies, mesurer les difficultés de fabrication et de maintenance et éva- luer leurs coûts. Sept importants pro- grammes de développement ont ainsi été mis en œuvre. Ils comprennent la ré- alisation de deux modèles à échelle ré- duite de bobines du champ magnétique respectivement toroïdal et poloïdal, un module pleine échelle de chambre à vide et de pompe cryogénique, des modules de couverture et de divertor, leurs matériaux et leurs dispositifs de maintenance robotisée pleine échelle. Les résultats de ces développements [1] constituent le cœur des concepts fonc- tionnels du dessin d’ITER et justifient la confiance en leur mise en œuvre. Pendant la même période, les par- tenaires ont conduit des analyses coor- données des expériences réalisées avec tous les tokamaks opérationnels de différentes tailles, de manière à définir leurs meilleures conditions d’exploita- tion et les règles d’extrapolation paramé- trique de leurs dimensions et de leurs performances. Cette base de données physiques, publiée et continûment mise à jour dans “ITER Physics Basis” [2], est le complément de la base de données technologiques décrite plus haut. Elle permet de choisir l’architecture d’ITER la mieux adaptée au meilleur confinement du plasma pour atteindre les objectifs prioritaires du plasma “inductif”. Cette architecture sera utilisée ensuite pour se rapprocher du fonctionnement continu par l’introduction de nouveaux moyens de génération de courant plasma en cours de développement, qui permet- tront de bénéficier du contrôle de son profil. L’architecture souhaitable pour ITER mode à confinement amélioré (mode H, Cf. article de Jean Jacquinot), avec un fort gradient de la densité au bord, modifié par des relaxations pério- diques (“Edge Localized Modes”, ELM) dont l’intensité doit être contrôlée ; pour atteindre ou maintenir ce mode H, la puissance des pertes transpor- tées au bord par diffusion (n’incluant pas les pertes rayonnées) doit être suffisamment grande (>PLH ) ; souhaitée, la densité au centre du plasma doit être suffisamment grande sachant qu’elle est limitée par les pro- cessus physiques (limite radiative dite de “Greenwald” ou pression plasma limite N (Cf. encadré 1) ; donnée au plasma (élongation verti- cale, triangularité) et du cisaillement local du champ magnétique qu’elle produit, tout en respectant la limite imposée par l’instabilité de la posi- tion verticale (corrigée en partie par des bobines de contrôle internes à la chambre à vide) et la stricte limitation du courant plasma défini par le facteur de sécurité q>2,6 pour éviter le cou- plage des instabilités MHD centrales avec le bord (Cf. encadré 1). Ces caractéristiques du plasma dé- pendent de la configuration magnétique établie suivant la valeur de paramètres sans dimension et contrôlée par les courants des bobines coaxiales. Un seul paramètre sans dimension A=R/a demeure indépendant ; les autres dé- pendent de A ; les expériences de la base de données ont utilisé des valeurs de A entre 2,5 et 4. La méthode de dé- termination des valeurs retenues pour ITER est exposée plus bas. Fonctions et structures des principaux composants d’ITER L’architecture ne peut aboutir à des dessins réalisables sans prendre en compte les contraintes technologiques qui déterminent la structure mécanique globale ; ces contraintes sont géné- riques des tokamaks et doivent donc Les paramètres du plasma tokamak Le dimensionnement d’ITER repose sur une extrapolation des dimen- sions du plasma des machines existantes tout en restant à l’intérieur du domaine de stabilité et de performance défini par les principes physiques. Les limites du domaine ont été vérifiées par toutes les expériences simi- laires, c’est à dire fonctionnant avec des paramètres plasma identiques à l’exception de la taille. Par exemple, la densité moyenne ne peut dépasser une valeur limite ng ( a2 /I), la pression normalisée du plasma, N, ne peut excéder une valeur liée à la pression magnétique et la puis- sance traversant la frontière du plasma, Ploss , doit dépasser une valeur minimum PLH pour accéder au mode de bon confinement, le mode H. Ces limites donnent les deux diagrammes de la figure 3 qui prédit la puissance accessible. Le courant I doit aussi être strictement limité pour éviter des instabilités violentes (disruptions de courant). En pratique on se limitera prudemment au facteur de sécurité q>2,6. q=2 a2 B /µ0 IR, où a est le rayon moyen et R le grand rayon du plasma, B est le champ toroïdal sur l’axe magnétique. Encadré 1. 46 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER être analysées en parallèle avec le choix des technologies retenues pour les prin- cipaux composants d’ITER. L’ingénierie détaillée de ces composants est présen- tée dans les articles suivants ; les nom- breux diagnostics du plasma ne seront pas traités. Les bobines supraconductrices Une technologie est particulièrement importante: celle les bobines supracon- ductrices pour créer des champs ma- gnétiques permanents sans dissipation résistive, pouvant atteindre des valeurs très élevées (>13 T sur le conducteur), associés généralement à de grandes énergies stockées et de grandes forces. Le courant de ces bobines peut être très élevé (75 kA) ; il est porté par un câble à nombreux filaments transposés, en NbTi ou en Nb3 Sn suivant la valeur du champ magnétique respectivement inférieur ou supérieur à environ 6 T, protégés par un tube épais en acier dans lequel circule un flux d’hélium, refroidi à 4,5 K dans une installation cryogénique ; si cette température s’élève au-dessus d’un seuil (<20 K), température critique dépen- Figure 2 : Section poloïdale montrant les bobines de champ poloïdal (PF 1 à PF 6), les modules de couvertures (en vert et bleu), la chambre à vide (en rouge) – Source : figure 2.1-1 de la référence [4]. Figure 1 : Ecorché d’ITER représentant les principaux éléments. Ils seront fournis en nature par les partenaires selon la répartition schématisée par les drapeaux (voir aussi la figure 5) – Source : ITER. REE N°4/2016 47 Le projet ITER dant du champ, le câble devient résistif et l’énergie magnétique de la bobine doit être dissipée rapidement à l’extérieur, condition impérative de sûreté. Cette technologie est employée dans ITER avec des conducteurs de diffé- rentes dimensions (Cf. l’article consacré aux aimants) pour les six bobines du solénoïde central (CS), les 18 bobines du champ toroïdal (TF), les six grandes bobines coaxiales du champ poloïdal (PF) et une série de petites bobines dites de correction (CC). Les câbles de liaison des bobines avec leurs alimen- tations électriques sont réalisés avec des conducteurs à haute température critique (HTC) récemment développés. le solénoïde central : la variation totale du flux magnétique de cette bobine par l’inversion du courant (+ et - 45 kA) à sa valeur maximum, doit induire la tota- lité du courant plasma, mais préserver la variation (faible) de flux nécessaire pour ensuite le maintenir constant pen- dant 400 s malgré sa dissipation. Le solénoïde supraconducteur est donc pulsé pour chaque expérience, une condition peu appréciée pour cette technologie. Le solénoïde est consti- tué de six modules coaxiaux alimentés séparément ; le champ magnétique atteint 13 T et le niveau des contraintes de compression azimutale et verticale doit limiter les problèmes de fatigue (deux fois 30 000 pulses) ; le schéma de l’aimant toroïdal est celui d’un ensemble de 18 bobines su- praconductrices, chacune dans un boi- tier soudé en acier, équilibrant toutes les forces appliquées par des réactions internes (sauf la gravité) en particulier par la formation d’une voûte entre les nez des bobines avec un niveau de compression statique toroïdale impor- tant, ainsi que celui du cisaillement entre bobines, tout au long de leur péri- mètre, dû à l’interaction avec le flux du champ vertical d’équilibre du plasma. Les 18 bobines sont alimentées en sé- rie par un courant de 70 kA créant un champ maximum de 11,5 T sur la face interne des bobines. L’aimant toroïdal doit être axisymétrique autour d’un axe vertical défini avec une précision inférieure à 5 mm ; la modulation du champ magnétique au bord du plasma (due au nombre fini de bobines) doit être minimisée par la distance des bobinages et l’emploi d’un matériau ferromagnétique placé entre les deux parois de la chambre à vide ; Les grandes bobines coaxiales sont attachées à l’aimant toroïdal qui par- ticipe à leur équilibre mécanique ; elles sont réalisées avec un câble en NbTi dans un tube d’acier de section carrée, bobiné en doubles galettes. Leur fonction est d’assurer la position verticale d’équilibre (souvent instable) de l’anneau de plasma en contrôlant sa frontière par le courant de chacune des bobines. Une bobine coaxiale en cuivre refroidi par un circuit d’eau est construite à l’intérieur de la chambre à vide, donc plus proche du plasma, pour stabiliser cet équilibre. La chambre à vide C’est une double structure toroïdale en acier austénitique entièrement sou- dée (parois de 60 mm d’épaisseur), construite en neuf modules de 40 de- grés reliés in-situ avec des précautions qui permettent de respecter le même axe de révolution que l’aimant toroïdal. Des fenêtres, situées dans des plans verticaux entre les bobines du champ to- roïdal, donnent accès vers l’extérieur au travers du cryostat. Les besoins d’accès et leurs dimensions (pour les chauffages par injection de neutres énergétiques et par ondes haute fréquence, le change- ment de modules de couverture et du divertor, les diagnostics, etc.) doivent être compatibles avec le nombre des bobines et leurs dimensions. Entre les deux parois, des briques métalliques, certaines ferromagnétiques, participent à la protection vis à vis des neutrons ; la chambre est refroidie par un circuit d’eau pressurisée, conservant la tempé- rature constante autour de 100 °C sauf pour un étuvage occasionnel à 200°C. La chambre à vide est évacuée par un puissant système de six pompes cryogéniques fonctionnant de manière cyclique : adsorption à 4.5 K sur 2x5 m2 de charbon par pompe, suivie par un isolement et réchauffage pour désorp- tion sous pompage primaire mécanique en assurant la séparation de l’hélium du combustible D et T qui est envoyé à l’ins- tallation tritium pour reconditionnement. La plupart des interactions magné- tiques et thermiques du plasma avec les parois de la chambre sont axisymétriques (dues au vide ou à une pression gazeuse accidentelle, aux décharges rapides des champs, aux disruptions de courant qui peuvent conduire à de très dangereux électrons découplés en énergie, etc.) et peuvent donc être reprises par des contraintes internes (sauf la faible dissy- métrie entre haut et bas) ; néanmoins, certains contacts non-axisymétriques du plasma avec la paroi (“VDE”, Vertical Disruption Events) aboutissent à y faire circuler une partie du courant plasma, créant ainsi de larges forces localisées d’interaction entre la chambre et les ai- mants, qui doivent être reprises par des liens mécaniques courts. Couverture et divertor La face interne de la chambre est protégée soit par des modules de cou- verture qui par leur épaisseur doivent ralentir et absorber les neutrons de la réaction D-T, soit par des modules du divertor chargés d’accepter la très forte puissance échangée dans le contact localisé avec le plasma et d’assurer le pompage des impuretés. Ces deux systèmes de modules extraient la puis- sance totale, due à la combustion D-T et aux auxiliaires de chauffage, et la transfèrent à un système de refroidisse- 48 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER ment à eau pressurisée. Faisant partie de la première paroi vis à vis du plasma, ces deux systèmes sont soumis à des courants induits et donc à des efforts qui doivent être analysés et maîtrisés par leurs attachements à la chambre à vide. Ces deux systèmes sont les moins robustes de l’installation, ce qui explique leur structure modulaire et le poids li- mité de chaque module, qui permettent le remplacement de certains modules endommagés à l’aide de systèmes ro- botisés spécifiques. Ecran thermique Entre l’aimant toroïdal et la chambre, il faut installer un écran thermique dont la structure toroïdale est complexe car elle s’étend ensuite autour de toutes les structures internes au cryostat. Refroidi par une circulation d’hélium à 50-70 K, cet écran doit faire en sorte qu’aucune de ces structures internes ne subisse le contact ou le rayonne- ment direct de surfaces portées à des températures supérieures à 300 K, en particulier quand la chambre à vide est étuvée à 200 °C et que la face interne de l’aimant du champ toroïdal est à 4,5 K (avant d’obtenir leur équilibre thermique, les deux ensembles se dé- placent radialement en sens opposés depuis 300 K). L’intérêt d’utiliser au mieux les zones à fort champ magnétique toroïdal pousse à réduire la distance entre bobines, écran et chambre, entraînant éventuellement des difficultés lors de l’assemblage. Le même intérêt pousse à réduire l’épaisseur des modules de couverture de la face interne de la chambre à vide, et même celle de la chambre, au prix de l’acceptation d’une irradiation neutronique plus importante et d’un refroidissement cryogénique plus puissant. Cryostat Autour des ensembles précédents et les maintenant sous vide, est installée une grande enceinte de 30 m de dia- mètre et 30 m de hauteur, percée de nombreuses pénétrations pour l’accès à l’intérieur de la chambre à vide et pour les connexions électriques et cryogé- niques des bobines supraconductrices ; la présence de nombreux orifices exige une étanchéité sans faille malgré la dif- ficulté des tests dans une aussi grande enceinte. Le cryostat est équipé de deux pompes cryogéniques semblables à celles de la chambre à vide. Les chauffages auxiliaires du plasma Ces chauffages sont indispensables à la création du plasma et à la crois- sance de sa température, avant que la configuration divertor et le mode H ne soient établis ; ils participent ensuite à l’équilibre thermique global du plasma, mais ils peuvent aussi être utilisés pour agir sur une zone particulière du plasma, modifiant le profil local de courant et changeant la stabilité de certains modes de fluctuations. Une puissance totale de chauffage de 73 MW est prévue, distri- buée en différentes sources : faisceau d’hydrogène ou deutérium neutralisé après accé- lération à grande énergie (< 1 MeV) permet de créer un courant localisé au voisinage du centre du plasma, zone de tangence de la trajectoire du fais- ceau avec le cercle de rayon R ; la zone peut être modifiée par inclinaison ver- ticale du faisceau autour d’un axe hori- zontal à l’extérieur du cryostat. Deux injecteurs sont préparés, un troisième est seulement prévu. Chaque injecteur est équipé de deux pompes cryogé- niques fonctionnant en cycles. ondes électromagnétiques gui- dées, créées par 20 gyrotrons de puis- sance continue unitaire de 1 MW à 170 GHz soit au total 20 MW, peuvent être focalisées par des antennes pla- cées dans les fenêtres équatoriales ou supérieures, sur différentes régions du plasma où elles sont absorbées au voi- sinage de la résonance cyclotronique des électrons ; et absorbées par le plasma au voisi- nage de la fréquence cyclotronique ionique (40 à 55 MHz) ; une ou deux antennes dans une fenêtre équatoriale peuvent coupler 20 MW au plasma. Les systèmes auxiliaires de support Alors que les systèmes précédents sont spécifiques des outils de recherche sur la fusion thermonucléaire, les sui- vants peuvent être réalisés à partir de l’expérience industrielle : le système de refroidissement par eau pressurisée est important par sa taille et le nombre d’utilisateurs aux besoins différents. Un aspect spéci- fique doit retenir l’attention : la possi- bilité de contamination par le tritium et la difficulté de traiter l’eau tritiée exigent l’isolement des circuits dans un réseau avec le plus faible volume possible, en particulier lors d’une fuite d’eau petite ou grande dans la chambre à vide ; le système cryogénique fournit du froid à 4,5 K pour le refroidissement des bobines (75 % de la consom- mation) et celui des pompes cryogé- niques (25 %), et à 80K pour celui de la circulation d’hélium dans les écrans thermiques. Une fraction de ces be- soins est pulsée pour suivre les cycles de fonctionnement d’ITER ou ceux des systèmes de pompage cryo. L’usine de production du froid, 75 kW à 4,5 K par liquéfaction d’hélium et 600 kW à 80K par liquéfaction d’azote, utilise 25 compresseurs et 35 MW de puissance électrique : c’est donc une installation exceptionnelle par sa taille, mais aussi par les exigences techniques de son fonctionnement (nombreux circula- teurs d’hélium à température cryogé- nique) ; REE N°4/2016 49 Le projet ITER la distribution de puissance élec- trique est réalisée à partir d’une connexion sur le réseau 400 kV (déjà utilisée à Cadarache pour Tore Supra) : elle comprend un réseau classique de charge quasi permanente d’environ 120 MW (en 22 kV - 6,6 kV - 400 V), un réseau pulsé très particulier avec des variations rapides de puissance distribuée à partir de 3x300 MVA en 66 kV pour les convertisseurs d’ali- mentation des bobines et en 22 kV pour les chauffages du plasma, et un réseau redondant à partir de die- sels pour les fonctions de sécurité de l’INB. Une contrainte particulière est imposée au réseau pulsé : malgré la grande puissance de court-circuit du réseau 400 kV, les perturbations dues aux grandes variations de puissance réactive doivent être corrigées par une compensation suivie en temps réel ; la configuration des bâtiments est associée à des besoins spécifiques : la protection du bâtiment principal vis-à-vis des séismes et la maintenance robotisée de chaque dispositif expéri- mental installé autour du plasma dans sa cellule de protection biologique. Le dispositif doit être séparé de la chambre et transporté par des robots le long de galeries menant aux cellules chaudes pour y être reconditionné, avant son retour en position initiale par les mêmes moyens robotiques ; le contrôle permanent de tous ces systèmes et la conduite de leurs modes de fonctionnement sont des éléments essentiels qui uti- lisent tous les mêmes outils logiques et numériques, mais en tirent en cas d’incident de fonctionnement des bénéfices d’autant plus grands que la compréhension des écarts au mode principal a été poussée pendant le développement du système. Les dia- gnostics du plasma, beaucoup plus nombreux, ne sont qu’en partie gérés par ces outils. Choix des paramètres d’ITER Il est bien évident que l’intégration des contraintes précédentes dans la conception des composants d’ITER n’a pas pu être faite en une seule étape. Des concepts indépendants de chaque composant important (sans néces- sairement respecter à ce stade une cohérence d’ensemble) ont d’abord été établis pour permettre leur ana- lyse mécanique et thermique détail- lée, celle des méthodes de fabrication et des contraintes d’interface géomé- trique et fonctionnelle. Ce fut le cas pendant le programme de développe- ment mentionné précédemment. Cette étape a permis d’assurer la maîtrise conceptuelle de la future installation, sa construction et son fonctionnement. Ce n’est qu’après cette étape qu’ont pu être discutés les compromis et adapta- tions nécessaires pour assurer la cohé- rence globale entre la recherche des meilleures performances plasma et la réalisation d’une qualité structurelle irré- prochable. Une dernière contrainte n’a pas été considérée jusque-là, le coût écono- mique de réalisation du dispositif. Parmi toutes les conceptions autorisées par le choix des paramètres et le niveau des contraintes mécaniques permettant de délivrer 500 MW, existe-t-il un minimum du coût ? S’il existe, est-il compatible avec la valeur de Q recherchée, avec le choix des paramètres physiques du plasma qui apparaissent conduire aux meilleures performances ? Pour aboutir à la définition d’ITER, trois types d’études paramétriques ont été menées en parallèle durant les EDA : thermique, entre sources de puis- sance (combustion D-T et chauffages auxiliaires) et pertes du plasma, défini par les valeurs moyennes des para- mètres physiques et leurs limites (avec des profils plasma hypothétiques mais plausibles), les lois d’échelle per- mettent de déterminer la température et les domaines d’obtention d’une puissance de 500 MW de combustion D-T avec Q=10 (figures 3a et 3b) ; Figure 3 a : Domaine de fonctionnement d’ITER en grisé donnant la puissance de fusion en fonction du facteur de confinement H. Ce domaine est limité, en bas, par l’accès au mode H, en haut par la pression plasma maximum et à gauche par la densité moyenne maximum. Source [3]. 50 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER employer un algorithme pour décrire une série de concepts de machine in- tégrant de manière cohérente tous les résultats des études de performance plasma et d’ingénierie précédentes. En conservant la valeur des paramètres sans dimension et variant le niveau de puissance D-T, l’algorithme conduit à des dessins du dispositif de formes sem- blables dans leur coupe transversale ; comme élément du choix, le coût éco- nomique de réalisation des machines possibles. A l’algorithme précédent, il faut ajouter une base de données des coûts de fabrication : les industriels concernés ont établi le coût de fabrica- tion de chaque composant et sa varia- tion (au moins la tendance) suivant celle des paramètres principaux du dispositif. Le nombre de composants à prendre en compte est restreint : aimants, chambre à vide et modules internes, bâtiments et puissance électrique sont les seuls déterminants (beaucoup d’autres sont constants ou ne dépendent que de la puissance totale). L’application de ces méthodes durant les EDA a permis de choisir les para- mètres géométriques d’ITER (figure 4). Une série de machines, satisfaisant les objectifs et les contraintes, a pu être dé- terminée avec un rapport d’aspect com- pris entre 2,8 et 3,6, mais dont le coût de réalisation est quasi constant dans cette gamme (la valeur haute du rapport conduit à des aimants plus coûteux et une chambre à vide équipée plus éco- nomique et l’inverse pour la valeur basse du rapport). Le choix ultime a donc été fondé sur une évaluation des avantages et des risques présentés par les deux tendances et une valeur moyenne a été retenue (la plus courante dans les toka- maks exploités à ce jour). Les figures 3a et 3b indiquent le domaine opérationnel « inductif » d’ITER-15 MA avec les paramètres de la Figure 3 b : Domaine de fonctionnement d’ITER (en blanc) dans le diagramme densité moyenne en fonction de la température électronique moyenne. Ce domaine est limité, en bleu, par l’accès au mode H, en violet par la puissance de chauffage disponible (73 MW), en orange par la pression plasma maximum et en vert par la densité limite – Source : [5]. Figure 4 : Les principaux paramètres d’ITER. Reproduction d’un tableau du rapport final (2001) qui conclut les EDA - Source [4]. REE N°4/2016 51 Le projet ITER figure 4 ; il est inclus à l’intérieur des li- mites associées aux valeurs moyennes des différents paramètres physiques (densité et pression du plasma, main- tien du mode H, etc.). H=1 correspond à la qualité du mode H observé dans la base de données des expériences actuelles. Mise en œuvre de la collaboration à l’échelle mondiale pour construire ITER En 2006, après une longue période d’études techniques puis de négociations sur le choix du site (voir encadré 2) les sept partenaires – l’UE qui offre le site, la Corée du Sud, la Chine, les Etats-Unis, l’Inde, le Japon et la Russie – signent un accord international, ayant valeur de trai- té chez la plupart des partenaires, pour la construction et l’exploitation d’ITER. Ce projet constitue la plus importante collaboration scientifique internationale à ce jour. La répartition de la contribution, Quelques dates-clés d’ITER 1988-1990 : phase CDA (Conceptual Design Activities), études conceptuelles. Quatre partenaires : Europe, Etats Unis, Japon et Russie. 1992-2001 : EDA (Engineering Design Activities), études d’ingénierie et d’optimisation, retrait des Etats Unis en 1998 puis retour en 2003. Acceptation du FRD (Final Design Report) par les partenaires en 2001. 2003-2005 : La Chine, la Corée du Sud et l’Inde demandent à faire partie du processus ITER. 2006 : Signature de l’accord ITER par les sept partenaires après de longues négociations pour le choix du site ; les agences domestiques se constituent dans les pays partenaires (à Barcelone pour l’UE). L’équipe centrale s’installe sur le site de construction à Cadarache. 2010 : Les bulldozers commencent à préparer le site. 2015 : Le conseil ITER adopte le plan d’action du nouveau directeur général recadrant l’organisation dans une structure de projet. 2025 : Date estimée du premier plasma, début de l’exploitation. Encadré 2. Figure 5 : Répartition entre les différents partenaires des fournitures en nature pour la construction du complexe ITER. Elles constituent environ 90 % du coût total. Le reste, en particulier l’assemblage, est attribué à l’équipe centrale dont les bureaux sont installés à Cadarache – Source : ITER. 52 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER exprimée en fraction de la valeur totale de la construction, est de 46 % pour l’UE et de 9 % pour les six autres parte- naires. Environ 90 % de cette valeur doit être fournie en nature (figure 5) et pris en charge par les agences domestiques constituées par les partenaires. Les élé- ments de haute technologie, comme ceux qui interviennent dans la construc- tion des aimants supraconducteurs, sont souvent partagés entre plusieurs parte- naires, ce qui donne lieu à des interfaces complexes. L’équipe centrale dont les bureaux sont installés à Cadarache est en charge des spécifications techniques, de la sû- reté, des normes de qualité, de l’intégra- tion et de la coordination de l’ensemble, de l’assemblage et de l’installation et, plus tard, de l’opération. La France intervient à deux niveaux, d’abord comme partenaire au sein de l’UE, mais aussi avec une responsabilité particulière comme pays hôte (viabilité et mise en condition du site, locaux du siège, école internationale et itinéraire d’accès au site pour convois exception- nels). Cette responsabilité est mise en application par l’agence ITER France (AIF) dont le siège est aussi à Cadarache au sein du centre du CEA. En particulier l’AIF a supervisé la création de l’itinéraire entre Fos-sur-Mer et Cadarache pour le trans- port d’éléments de taille et de poids très exceptionnels, construits par les parte- naires dans le monde entier. Cet itinéraire est maintenant pleinement opérationnel et un certain nombre de composants ont déjà été acheminés sur le site avec suc- cès. Le choix de Cadarache comme site pour ITER doit beaucoup à l’excellence de l’environnement scientifique consti- tué par le centre du CEA et, sur le plan sociétal, par le soutien des collectivités territoriales qui contribuent à hauteur de 467 millions d’euros au coût d’ITER incombant à la France. Ce choix s’avère dès maintenant très judicieux sur le plan économique puisque, au début 2016 en- viron 51 % des contrats d’ITER et de l’AIF, soit 2,26 milliards , ont été passés aux entreprises françaises dont la majorité se trouve en région PACA. Une vingtaine de ces entreprises ont déjà créé plus de 400 emplois. Débuts difficiles de l’orga- nisation mais création d’une nouvelle dynamique Les engagements pris par la France ont été réalisés en temps et en heure. Cependant, au niveau international, la mise en place d’une structure de projet efficace a demandé beaucoup plus d’efforts et de temps que prévu. Initialement, l’équipe centrale a été constituée davantage comme une orga- nisation où les cadres supérieurs repré- sentent leur pays d’origine que comme une équipe recrutée pour sa compé- tence technique et dévouée à la seule réussite du projet. Les relations entre les différentes équipes de l’organisation étaient trop complexes et formelles ; l’intégration et la coordination des dif- férents éléments du projet n’étaient pas assurées. Ces manques ont été signalés par plusieurs évaluations externes et, en Figure 6 : Vue aérienne du site prise en avril 2016 – Source : ITER. REE N°4/2016 53 Le projet ITER 2015, d’importantes modifications ont été apportées à l’organisation générale pour pallier ces manques. Le directeur général est maintenant pleinement in- vesti de la responsabilité technique de l’ensemble du projet ; il dispose d’un fond de réserve pour imprévus tech- niques ; il peut choisir ses directeurs selon des critères de compétence pour le poste et a la possibilité de créer des équipes de projet pour les réalisations qui exigent une intégration poussée entre l’équipe centrale et celles des agences domestiques. Depuis que ces changements ont été mis en place, une nouvelle dynamique est observée qui évite les blocages et conduit à l’accélé- ration de la construction. Etat d’avancement du projet Les cinq articles qui suivent celui-ci dans le présent dossier décrivent les ins- tallations et composants majeurs d’ITER, leurs aspects innovants et l’état d’avan- cement de leurs réalisations. Nous nous limiterons donc ici aux aspects généraux ou à ceux qui se trouvent sur le chemin critique. Les équipes du projet sont en place ; elles doivent s’adapter en permanence aux activités qui évoluent de la concep- tion à l’exploitation en passant par l’as- semblage et les campagnes d’essais. L’équipe centrale de l’organisation inter- nationale ITER emploie actuellement ~ 650 personnes, représentant 35 nationa- lités. Un nombre à peu près égal de sous- traitants et d’experts travaille directement pour ITER sur son site de Cadarache à Saint-Paul-lez-Durance. Dans le monde entier, le programme ITER mobilise plus de 2 000 scientifiques, ingénieurs et techniciens qui sont employés par les agences domestiques des partenaires ou par les laboratoires nationaux. En mars 2016, ITER a estimé à 40 % le degré d’achèvement des systèmes né- cessaires au début de l’exploitation, qui correspond à l’obtention d’un premier plasma prévu pour 2025 selon un calen- drier validé par le Conseil ITER de juin 2016. Cette estimation inclut l’ensemble des éléments à fournir par l’équipe cen- trale et les agences domestiques. Sur le chemin critique, on trouve la chambre à vide, les bâtiments, l’assemblage de la machine et l’installation des systèmes de support. L’aménagement du site et la con- truction des bâtiments (figure 6 et article d’Erwan Duval sur la logistique) constituent des opérations majeures placées principalement sous la res- ponsabilité de l’agence domestique européenne F4E (Fusion for Energy). C’est un chantier de 90 hectares où sur une étendue horizontale de 42 hectares seront construits les 39 bâti- ments d’ITER. Sur la figure 6, on dis- tingue en particulier : le siège de l’organisation internatio- nale et les bureaux de l’équipe cen- trale, qui sont en service depuis 2012 (bâtiment agrandi en 2014) ; le grand hall d’assemblage de la machine (60 m de hauteur et de largeur, 97 m de longueur) où deux ponts roulants pouvant lever simulta- nément 750 tonnes chacun, sont en cours d’installation ; le complexe tokamak (90 m x 130 m) qui, une fois construit, atteindra 77 m de haut. Il comporte trois bâtiments mitoyens partageant les mêmes fon- dations : le hall réacteur, celui des dia- gnostics et l’usine de recyclage tritium. Il repose sur 493 patins antisismiques placés entre deux radiers de 1,5 m d’épaisseur chacun ; l’atelier cryostat construit par l’agence domestique indienne responsable de la fabrication du cryostat (hauteur 30 m, diamètre intérieur de 28 m) qui sera la chambre à ultra vide la plus grande jamais construite (16 000 m3 ). L’atelier abrite désormais la base du cryostat livré sur site en décembre 2015 (figure 7) ; l’usine de fabrication des grandes bobines de champ poloïdal (8 à 24 m de diamètre) qui seront fabri- quées sur place par l'UE, sauf deux d'entre elles de plus petit diamètre. L’outillage est en cours d’installation (figure 8) ; la connexion aux lignes 400 kV, à l’origine de la distribution de l’énergie Figure 7 : Base du cryostat assemblée provisoirement en Inde et livrée en décembre 2015 – Source : ITER. 54 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER électrique sur l’ensemble du site (Cf. article de Joël Hourtoule sur la distribution électrique) qui comprend trois réseaux : l’un pourra délivrer 120 MW à variation lente, l’autre une puissance pulsée pour les besoins du tokamak qui portera la puissance totale consommée à un total de 500 MW pendant la durée du pulse (plateau de 400 s maximum initia- lement). Pendant la phase pulsée, une puissance réactive importante est engendrée ; un dispositif original doit la compenser en temps réel. Un troisième réseau redondant, alimenté par diesel, assure l’alimentation des fonctions de sécurité La vue actuelle du site ne rend bien sûr pas compte des avancées considé- rables réalisées dans les industries des agences domestiques. On notera en premier lieu que les aimants supracon- ducteurs (Cf. article de Paul Libeyre) qui constituent un coût majeur d’ITER ont atteint le stade initial de la fabrica- tion en série après avoir passé le cap des tests sur des prototypes. En parti- culier, le solénoïde central est en cours d’assemblage aux Etats-Unis et il en est de même pour la première bobine de champ toroïdal (figure 9). La fabrication industrielle de plus de 200 km de câbles supraconduc- teurs (2 800 tonnes), requis pour le système magnétique du tokamak, est une opération pratiquement terminée ; elle est de très loin la plus importante fabrication de toute l’histoire de cette industrie. C’est certainement un très grand succès de la collaboration inter- nationale qui a impliqué six partenaires d’ITER travaillant en étroite coopéra- tion. Conclusions L’objectif d’ITER est de démontrer la maîtrise scientifique et technique de l’énergie de fusion. Sa base physique s’appuie sur plusieurs décennies de recherches menées en collaboration in- ternationale étroite dans les laboratoires des pays industrialisés. Sa conception technique a démarré en 1992 par la constitution d’une équipe de projet internationale formée par quatre grands partenaires sous l’égide de l’AIEA et chargée de faire aboutir les “Engineering Design Activities”. Les résultats de ces études et la réalisation de tests et de prototypes des éléments clefs ont convaincu, en 2006, les partenaires et trois nouveaux membres, de conclure un accord ayant valeur de traité, pour construire et exploiter en commun le projet ITER. Il constitue la collabora- tion scientifique internationale la plus importante à ce jour. Après des débuts difficiles, une structure de projet plus efficace a été introduite pour relever les défis technologiques considérables que comporte un tel projet et assurer désormais un rythme de construction conforme aux attentes. En avril 2016, ITER a estimé à 40 % le degré d’achè- vement des systèmes nécessaires au début de l’exploitation qui correspond à l’obtention d’un premier plasma prévu pour 2025, calendrier approuvé par le Conseil ITER de juin 2016. Figure 8 : Les plus grosses bobines de champ poloïdal seront fabriquées sur le site par l’Europe dans ce bâtiment où on voit les outillages en cours d’installation – Source : ITER. Figure 9 : Installation pour le traitement thermique des bobines de champ toroïdal (Mitsubishi, Futami, Japon). Le traitement thermique à 650 °C dure environ 200 h dans un four à atmosphère contrôlée - Source : ITER. REE N°4/2016 55 Le projet ITER Bibliographie [1] Y. Shimomura for the ITER Central Team and Home Teams, ITER Technology R&D, Fusion Engineering and Design 55 (2001), 97 - 358. [2] ITER Physics Basis, Nuclear Fusion 39 (1999), pages 2137-2638. [3] ITER Technical Basis, ITER EDA doc series no 24, IAEA Vienna (2002) [4] Summary of the ITER final design report, ITER EDA documentation series no 22, July (2001) [5] R. J. Hawryluk & al., “Principal Physics Developments Evaluated in the ITER Design Review” Nuclear Fusion, 49, 065012 (2009). [6] Consulter le site ITER pour une mise à jour de l’avancement de la construction : https://www.iter.org/fr LES AUTEURS Robert Aymar, après les années de formation en physique des plasmas à la sortie de l’Ecole Polytechnique, a dirigé le projet Tore Supra de sa conception en 1977 jusqu’à sa mise en service en 1988 en passant par sa construction sur le site de Cadarache. Un nouveau laboratoire a été construit à cette occasion, pré- paré dans la perspective de pouvoir accueillir à proximité un futur réacteur à fu- sion nucléaire, ce qui est maintenant réalisé avec l’implantation d’ITER. Directeur de la recherche fondamentale du CEA de 1990 à 1994, puis en 1994 nommé directeur de la Collaboration internationale ITER, Robert Aymar s’est entièrement consacré jusqu’en 2003 à la définition du projet et à son approbation par les dif- férents pays participants, formalisée par l’accord international ITER signé en 2006 à Paris. Le Conseil du CERN l’a nommé en 2003 directeur général pour conduire l’organisation à terminer efficacement la construction du grand collisionneur de protons LHC. De 2008 à 2012, Robert Aymar a été l’un des 21 membres de l’“ERAB” (European Research Area Board). Il est depuis 2009 conseiller scienti- fique auprès de l’administrateur général du CEA. Bernard Bigot, ancien professeur des universités, est un physico-chimiste, spé- cialiste de l’étude quantique de la réactivité chimique, notamment par activation photonique ou catalytique. Il a participé à la création de l’Ecole normale supé- rieure de Lyon, dont il a été successivement directeur adjoint en charge des études (1983-93), puis de la recherche (1998-2000) avant d’en être le directeur (2000-2003). Il a par ailleurs été directeur général de la recherche et de la tech- nologie (1993-1997), puis directeur de cabinet (2002-2003) auprès du ministre en charge de l’enseignement supérieur et de la recherche avant d’assumer les fonctions de Haut-Commissaire à l’énergie atomique et de directeur général du CEA (Commissariat à l’énergie atomique et aux énergies alternatives) entre 2003 et 2015. Il est depuis mars 2015 directeur général de ITER Organization. Jean Jacquinot : voir l’article « La fusion thermonucléaire ». REE N°4/2016 56 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITER DOSSIER Un site et une logistique exceptionnels Par Erwan Duval Facility Management Officer, Construction Department - Ingénieur au département Construction. ITER Organization The ITER project is not only a reactor, but a whole industrial site. On one hundred hectares, around fifty buildings will emerge. Assembling the ITER subsystems, providing cryogenic helium to superconducting coils, transforming electrical power… each building will provide a key function to the project. To make all this possible, France – the host country – has offered the necessary land, close to Cadarache and neighbour of the CEA nuclear research centre. During several years also, crucial in-kind contributions have been brought in by France, Europe and regional authorities: levelling, terracing, and securing the area, building an international school close-by and building the ITER headquarters. Meanwhile, millions of components are being built all over the world, and some have already arrived on site. For most of them, the delivery takes place in the harbour of Marseille-Fos (the largest port in France, 4th in Europe). They then have to travel 104 km to reach the ITER site, on a custom-made itinerary for the biggest ones. Altogether, 200 to 300 “Highly Exceptional Load” and thousands of “Conventional Exceptional Load” convoys will deliver these internationally made components in the very five next years. ABSTRACT ITER et le voisin CEA-Cadarache © MatthieuColin.com – Source : www.iter.org. Introduction Ils sont rares, les chantiers industriels de cette ambition : autour du tokamak d’ITER ce sont en fait plus de 50 bâti- ments qui sortent de terre, sur près de 100 hectares. Pré-assembler le réacteur, produire du froid, transformer l’énergie, diagnostiquer le plasma… : tous auront une fonction-clé, un rôle indispensable au fonctionnement d’ITER. Sur un site mis à disposition par la France et bénéficiant du précieux sup- REE N°4/2016 57 Un site et une logistique exceptionnels port du CEA, ces bâtiments sont une contribution en nature (in kind) de l'Europe et de la France : l’agence ITER France (AIF) a ouvert la voie en terras- sant, viabilisant, sécurisant le site. Elle a dans le même temps réalisé l’aménage- ment routier – l’Itinéraire ITER – pour permettre d’acheminer les composants sur le site. La Région Provence-Alpes-Côte d’Azur a de son côté construit une école inter- nationale à proximité (Manosque) pour accueillir dans les meilleurs conditions le personnel ITER et leurs familles. La collaboration entre ITER Orga- nization, l’AIF et Fusion for Energy (ou F4E, côté européen) a aussi permis de réaliser le siège et les bureaux d’ITER où travaillent près de 1 500 personnes. Dans le même temps, la fabrication des équipements bat son plein dans le monde entier. Les premiers d’entre eux n’attendent pas les bâtiments et arrivent déjà sur le site. Par la mer pour la plupart, ils arrivent à Fos-sur-Mer puis suivent l’itinéraire ITER, long d’une centaine de kilomètres. Deux à trois cents convois très exceptionnels et des milliers de convois « exceptionnels normaux » doivent ainsi les acheminer sur le site avant leur assemblage, puis les essais. Cet article présentera plus particulièrement le site ITER, ses bâti- ments puis la logistique associée à la construction. Le site Cadarache, une histoire avec l’atome La présence d’ITER sur le site de Cadarache ne doit rien au hasard. Le centre du CEA-Cadarache, fondé le 14 octobre 1959, y concentre déjà un nombre particulièrement important de recherches dans le domaine nucléaire. Encore aujourd’hui, 480 bâtiments oc- cupent les 1 670 hectares du centre et constituent 21 installations nucléaires de base (INB). Environ 5000 personnes y travaillent (hors ITER), dont près de 200 cher- cheurs étrangers d’une vingtaine de nationalités intervenant sur des colla- borations scientifiques internationales. Ce pôle d’excellence a été un argument essentiel de la candidature du site à l’accueil d’ITER. Les recherches y sont nombreuses et variées : réacteurs d’enseignement, études sur la propulsion pour les sous- marins et porte-avions nucléaires, réac- teurs à neutrons rapides (RNR). Aussi et surtout, on y trouve le réacteur de fusion Tore Supra : ce grand tokamak à aimant supraconducteur, lancé par l’as- sociation européenne EURATOM/CEA, a été mis en service en 1988. Son implan- tation à Cadarache, ainsi que la zone choisie (à l’est du centre CEA), posaient déjà un jalon en faveur de la candidature française pour accueillir ITER. En effet, cette situation stratégique lui permettait tout autant de trouver une place parmi les autres réacteurs du centre que d’offrir un voisinage disponible pour le projet international (déjà évoqué à l’époque du choix du site de Tore Supra). Tore supra détient à ce jour le record de durée de fonctionnement pour un tokamak (6 minutes 30 secondes et 1 000 MJ d’énergie injectés puis extraits en 2003). Il a en outre permis de tester de nombreux systèmes nécessaires au fonctionnement d’ITER. Actuellement, Tore Supra joue plei- nement son rôle de pilier du projet ITER avec le projet WEST (“W Environment in Steady-state Tokamak” où W est le sym- bole du tungstène). Cette nouvelle version du Tokamak français, d’une forme de plasma « en D » (se rapprochant de celle d’ITER) sera parée d’un divertor1 aux parois en tungstène et refroidies à l’eau. Les résul- tats obtenus permettront au projet inter- national de gagner un temps précieux et limiteront les risques sur ce point-clé. Le choix du site : retour sur une ample négociation internationale Définir l’emplacement du site a donné lieu, entre 2001 et 2005, à des discussions diplomatiques serrées. En 2001, le Canada proposait déjà un site pour accueillir le projet. Le Japon prenait rapidement la suite, en juin 2003, avec le site de Rokkasho-Mura. Entre temps 1 Partie basse du réacteur, véritable chambre de recyclage du plasma. Figure 1 : Intérieur du Tokamak Tore Supra – Source : www.iter.org. 58 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER la Chine, les États-Unis et la Corée deve- naient membres à part entière du projet. A cette date, l’Europe n’avait pas encore tranché entre les sites de Vandellòs (en Espagne) et de Cadarache. Le 26 novembre 2003, la candida- ture française est unanimement retenue par les 25 ministres européens de la science et de la recherche. L’Espagne obtenait de son côté le siège de l’agence domestique européenne, F4E. Il ne restait alors plus que deux em- placements possibles pour la construc- tion d’ITER : Rokkasho-Mura, au Japon (soutenu par les Etats-Unis et la Corée) et Cadarache dont la candidature sem- blait plutôt épaulée par la Chine et la Russie. Enfin, le 28 juin 2005, le choix de Cadarache est officialisé lors d’une réu- nion ministérielle à Moscou. Bruxelles et Tokyo entérinent en parallèle le lan- cement au Japon d’un ensemble de programmes de soutien d’ITER : « l’ap- proche élargie ». Un an après, l’Inde devenait la sep- tième et dernière agence domestique. L’agencement du site actuellement, les bâtiments déjà construits Avril 2009 : préparation de la plate-forme ITER Premier engagement de la France « pays hôte » et de l’Europe « partenaire hôte » : la préparation du site (défriche- ment, terrassement, viabilisation). Ce chantier de préparation des 90 hectares du site a été dirigé par l’Agence ITER France pendant deux ans, s’achevant en avril 2009. La moitié (42 hectares) est une étendue plate constituant la « plate- forme ITER », destinée à recevoir les 39 futurs bâtiments. Septembre 2010 : l’Ecole internationale Engagement pris par la France, pays hôte d’ITER, le tout premier bâtiment inauguré sur le projet ITER se situe… à une vingtaine de kilomètres du site. Il s’agit de l’Ecole internationale de Manosque, terminée en septembre 2010 (figure 3). Conçue par les architectes Riccioti et Battesti et financée par le Conseil régional de PACA à hauteur de 55 M , l’École internationale Provence-Alpes- Côte d’Azur accueille maintenant 410 élèves de 27 nationalités différentes. La moitié d’entre eux sont des « enfants d’ITER », l’autre vient de la région. Dans cet établissement public rele- vant de l’Éducation nationale, les cours sont dispensés pour moitié en français et pour moitié dans l’une des langues des participants au projet (chinois, an- glais, allemand, hindi, italien, japonais, coréen, portugais, russe et espagnol). Figure 2 : Un réseau hydraulique de plus de 20 km, des bassins de rétention et de traitement d’eau, ainsi que plusieurs zones d’accueil d’entreprises ont été réalisés sous la responsabilité de l’agence ITER France (CEA). Les marchés ont atteint la hauteur de 150 millions d’euros financés à 40 % par l’Europe et 60 % par la France. – Crédit photo : Altivue/AIF. Figure 3 : La construction du bâtiment bénéficie du label Haute Qualité Environnementale (HQE). L’école s’étend sur une surface de 26 000 m², est équipée de capteurs solaires qui couvriront 100 % des besoins en éclairage de l’établissement – Source : www.iter.org. REE N°4/2016 59 Un site et une logistique exceptionnels Les inaugurations suivantes se sont depuis lors rapidement succédées : 2011 : bâtiment de réalisation des bobines de champ poloïdal (PF-Coil) Sur ces six bobines en niobium-titane (en forme d’anneaux horizontaux autour du réacteur), quatre sont trop volumi- neuses pour emprunter le réseau rou- tier (les deux bobines « équatoriales » atteignant jusqu'à 24 m de diamètre). Elles sont donc fabriquées sur place, dans ce bâtiment dédié, inauguré fin 2011, de 12 000m2 et 257 m de longueur (figure 4). 2012 : siège ITER Conçu par deux architectes de la ré- gion : Rudy Ricciotti (Bandol) et Laurent Bonhomme (Vinon-sur-Verdon), ce bâti- ment de 20 500 m2 accueille plus de 800 personnes. Financé par l’Europe et la France, il est notamment équipé de salles de réunion, d’un amphithéâtre de 500 places, d’une bibliothèque, d’un res- taurant et d’une salle de « réalité virtuelle ». Agrandi de 3 500m2 en 2014, il mesure plus de 200 m. Son design re- marquable est directement lié à un ma- tériau de pointe: le BFUP (Béton Fibré Ultra Performant). Ce béton innovant, particulièrement léger et résistant, est largement utilisé en façades. Plusieurs rangées de panneaux solaires sont aussi déployées en toiture pour y produire l’eau chaude. 2014 : l’atelier Cryostat Plus grand encore que les bobines poloïdales qu’il enveloppe, le cryostat, même divisé en quatre parties (figure 5), n’est pas transportable par la route : avec leurs 30 m de diamètre, 10 m de hauteur et leurs 1 250 t (maximum), ces parties sont bien trop imposantes pour n’importe quel itinéraire routier. Un bâtiment, l’atelier Cryostat, a été spécialement édifié sur place pour réali- Figure 4 : Bâtiment des bobines de champ poloïdal (PF Coil) – Source : www.iter.org. Figure 5 : Le cryostat, une des plus grandes chambres à vide au monde - Source : www.iter.org. 60 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER ser ses quatre sections à partir d’une cin- quantaine d’éléments provenant d’Inde. Ce bâtiment de 5 500 m2 et de 30 m de hauteur a été financé par l’agence domestique indienne (figure 6). Il a été conçu et réalisé sous la responsabilité de la société Larsen & Toubro Ltd. Spie- Batignolles, qui avait précédemment construit le bâtiment PF-Coil, en a assu- mé la construction. 2014-2015 : les zones de stockage Afin de permettre le stockage des équipements arrivés sur site avant leur assemblage, plusieurs entrepôts ont été construits au cours des deux dernières années, ainsi qu’une plate-forme logis- tique de 10 000 m2 de capacité. Les bâtiments Les bâtiments en construction : les fonctions-clé et la structure logique du site L’agencement du site ne doit rien au hasard. Conçue avant le choix du site d’accueil, cette organisation a été soi- gneusement pensée et l’emplacement de chaque bâtiment est toujours le résul- tat d’une fine optimisation de l’espace. Le complexe Tokamak Au centre se trouve le cœur d’ITER, dénommé « complexe Tokamak ». Il s’agit en fait de trois bâtiments mitoyens parta- geant les mêmes fondations : Les installations destinées au chauf- fage du plasma2 jouxtent ce complexe : Ouest (des injecteurs projettent dans le plasma des particules électrique- ment neutres et très énergétiques. Par le biais de multiples collisions, celles-ci 2 Les trois techniques de chauffage externe sont détaillées sur le lien suivant : https://www.iter.org/fr/mach/heating transfèrent leur énergie aux particules Est (permettant de chauffer le plasma par l’intermédiaire de deux sources d’ondes électromagnétiques de haute fréquence (chauffage cyclotronique ionique et électronique). D’ouest en est : l’entrée et la sortie des énergies L’arrivée côté ouest de la ligne haute tension est à elle seule responsable du po- sitionnement d’une dizaine de bâtiments : l’hélium cryogénique. A l’opposé du tokamak, donc côté est, la place est mise à profit pour l’implantation des bâtiments de refroi- dissement (tours aéro-réfrigérantes, échangeurs, bassins). On peut ainsi voir que l’énergie arrive par l’ouest, et ressort sous forme de chaleur à l’est (figure 7). Figure 6 : l’atelier Cryostat – Source : www.iter.org. Figure 7 : Le flux des énergies (de droite à gauche) et des équipements (de haut en bas). Source : www.iter.org. REE N°4/2016 61 Un site et une logistique exceptionnels Cette zone orientale est bien placée vis-à-vis du vent dominant (le mistral), qui dissipera rapidement tout brouillard. Cycle de vie des matériaux : l’assemblage au sud et la cellule chaude au nord Premier bâtiment définitif à être construit sur la plate-forme, au sud du tokamak, le hall d’assemblage permet- tra le pré-montage des principaux élé- ments du réacteur grâce, notamment, à deux ponts roulants de 750 t chacun. Avec ses 60 m de hauteur et autant de largeur, 97 m de longueur et 6 000 t d’acier au total, il est la véritable porte d’entrée des équipements du réacteur. A l’autre bout de la chaîne, la « cel- lule chaude » hébergera le traitement, la réparation, la remise en état, l’analyse et l’élimination des composants activés par l’exposition aux neutrons. La résistance au séisme Même si les contraintes sismiques sont de bien moindre ampleur qu’au Japon, la résistance aux séismes est une donnée prise en compte sur le projet. Ainsi, en maîtrisant cette contrainte, ITER aura pu démontrer la disponibilité de l’énergie de fusion pour de nom- breux pays ayant une moyenne activité sismique (et pas nécessairement non plus proches de la mer). Comment est articulée la conception parasismique d’ITER ? La plupart des bâtiments, même clas- siques, sont soumis à une stricte régle- mentation parasismique. Anciennement françaises (les PS92) et à présent euro- péennes (« l’Eurocode 8 »), ces règles protègent dans leur conception les structures des bâtiments et donnent une maîtrise du risque d’effondrement en vue de protéger les personnes. Tous les édifices sur le site ITER y sont évi- demment soumis, même les simples bureaux ou ateliers. Schématiquement, on considère pour ces bâtiments conventionnels une période de retour d’environ 500 ans. Pour les bâtiments à risque nucléaire, les études et travaux sont évidemment plus poussés : il convient de protéger non seulement les murs mais aussi certains équipements (les boucles d’eau de refroi- dissement par exemple : ces systèmes sont appelés PIC “Protection Important Component”, équipements importants pour la sûreté nucléaire). L’encadré 1 pré- cise la démarche les concernant. La technologie employée Protéger ainsi le complexe Tokamak (90 m x 130 m sur 77 m de hauteur, totalisant une masse de 330 000 t) est un défi à part entière. Pour y parvenir, on a fait appel à deux solides radiers d’environ 1,50 m d’épais- seur chacun, rattachés par 493 colonnes et patins antisismiques (figures 8 et 9). La protection parasismique d’ITER repose sur la démarche de la règle fondamentale de sûreté (RFS 2001-01). Celle-ci régit la protection des ins- tallations nucléaires et repose sur la démarche suivante: 1. Détermination du séisme maximal historiquement connu (SMHC), sur environ 1 000 ans Magnitude 5,5 à 7,5 km en 1708, Manosque Magnitude 6/6,2 à 16,5 km en 1909, Lambesc 2. Détermination du séisme maximal historiquement vraisemblable (SMHV) intégrant le voisinage et les paléoséismes : Celui de de Valveranne (magnitude 6.5 entre -26 000 et -9 000ans) 3. Séisme majoré de sécurité (SMS) + 0.5 (majoration forfaitaire de la magnitude) 4. Placement au plus proche : Ce séisme est considéré apparaître sur le point de la faille le plus proche du site ITER (8 km). Encadré 1 : Méthode de détermination du risque sismique maximal – Source : www.iter.org. Figure 8 : Les fondations du complexe Tokamak - Source : www.iter.org. 62 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER Cette technologie a été utilisée pour le tokamak Tore Supra et sur de nombreux bâtiments publics dans des pays à activité sismique plus importante. Les avancées récentes et à venir L'avancée du chantier est bien illustrée par la figure 10 (photo aérienne d'avril 2016) et en vue plus rapprochée par la figure 11 (photo de mars 2011). Figure 9 : Détail d’un patin antisismique – Source : www.iter.org. Figure 10 : Etiquettes grises : bâtiments réceptionnés – Etiquettes vertes : chantiers en cours – Crédit photo : MatthieuColin.com – Source : www.iter.org. Figure 11 : De gauche à droite, l’atelier Cryostat, l’arrivée d’un des deux ponts de 750 t du hall d’assemblage et le bâtiment d’assemblage. www.iter.org REE N°4/2016 63 Un site et une logistique exceptionnels La logistique Des convois exceptionnels… et très exceptionnels Les opérations de transport Pour mener à bien le projet, la fabri- cation des équipements d’ITER tourne déjà à plein régime. Mener à destination ces millions de composants qui arrivent à Marseille depuis le monde entier né- cessite une logistique toute particulière. Depuis janvier 2015, des convois excep- tionnels circulent déjà et il y en aura des milliers à l’avenir (figure 12). Pour les pièces les plus imposantes, impos- sible de prendre les anciennes routes. Exceptionnelles par leur taille (jusqu’à 10 m de hauteur, 50 m de long ou 9 m de large) et par leur poids (jusqu’à 800 t), elles seront regroupées entre deux et trois cents convois « très excep- tionnels ». Ils parcourront ainsi depuis Fos-sur-Mer un itinéraire taillé sur me- sure, coordonnés et financés conjoin- tement par l’agence ITER France et l’agence domestique européenne. A environ 5 km/h, ces véhicules spécialement conçus par l’équipe- mentier français Daher franchiront la dernière « ligne droite » (une centaine de kilomètres) en plusieurs opérations nocturnes afin de perturber le moins possible le trafic routier. La charge étant soigneusement répartie sur une modeste remorque de ... 352 pneus, les manœuvres les plus fines peuvent être conduites grâce à deux cabines de commande, pilotables de l’exté- rieur. Autre enjeu de taille : la protection et la prévention de ces opérations, qui affectent 41 communes de la région. Pour minimiser ces impacts, la gen- darmerie mobile et maritime, ainsi que les forces aériennes et motocy- clistes de la Garde républicaine sont impliquées, mobilisant jusqu’à 140 personnes. Ces unités peuvent faire valoir leurs expériences des itinéraires Airbus ou Ariane. L’itinéraire ITER La plupart de ces convois arrivent par la mer au port de Fos-sur-Mer, à l’ouest de Marseille, et traversent l’étang de Berre sur une barge spéciale. Là commence l’itiné- raire ITER, long de 104 kilomètres, vers le site de Cadarache (figure 13). Les anciennes routes ne permettant pas d’acheminer des convois de telles dimensions, la France – conformément à son engagement de pays hôte – les a aménagées afin de permettre tous les transports nécessaires au projet. D’importants travaux ont ainsi été réa- lisés en trois ans sous maîtrise d’ou- vrage de l’État avec le co-financement du Conseil général (respectivement 40 millions et 72 millions d’euros). Ainsi, 26 ponts ont été construits ou - électriques enterrées ou surélevées, et 19 ronds-points ont été aménagés. La plupart de ces travaux ont été réalisés par des entreprises de la région. Ils ont sensiblement contribué à l’amélioration des conditions de circulation. Les moyens mis en œuvre sur le chantier ces 39 bâtiments nécessite près d’un Figure 12 : Photo prise du second convoi-test, le 28 mars 2014 (essai de validation de l’itinéraire ITER) – Source : www.iter.org. Figure 13 : Plan de l’Itinéraire ITER – Crédit photo : CEA. 64 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER milliard d’euros d’investissement. La moitié d’entre eux étant prévus en bé- ton armé, parfois soumis aux obligations de sûreté nucléaire. La logistique mobili- sée est donc colossale, avec 18 millions d’heures de travail sur une décennie, fournies par de grands groupes inter- nationaux (Vinci, Ferrovial, Razel, Engie pour n’en citer que quelques-uns) mais aussi par bon nombre de PME locales. Une centrale à béton a été spéciale- ment ouverte sur le site (groupe Lafarge), contribuant aux besoins de 250 000 m3 de béton. Les trois quarts étant qualifiés « nucléaire », donc d’une qualité parti- culièrement contrôlée. Particulièrement rapide aussi, cette centrale peut fournir près de 120 m3 /h de béton afin de per- mettre d’importants coulages en continu et ainsi maîtriser drastiquement les phé- nomènes de fissures lors de ces phases délicates. Visibles de loin, pas moins de huit grues à tour, fixes, œuvrent aussi de concert, souvent épaulées par de nom- breux moyens mobiles. Choisies pour leur fiabilité éprouvée sur de nombreux chantiers, ces grues, levant jusqu’à 40 t sont estampillées de la marque Potain, leader du domaine3 . Une grue de plus de 1 000 t de capacité, mobile, vient d’ailleurs tout juste d’arriver en renfort. Un véritable ballet. 3 Six grues Potain construisent la plus grande centrale d’énergie de fusion du monde : http://www.manitowoccranes.com/fr-fr/ news-events/news/2015/six-potain-cranes- building-worlds-largest-fusion-energy-facility Références [1] Livre J Jacquinot et R Arnoux chez Edisud « ITER, le chemin des étoiles ». [2] Site ITER Organization - Les grandes dates d’ITER https://www.iter.org/fr/ proj/itermilestones [3] Jean Jacquinot, Chris Llewellyn- Smith, Paul Vandenplas, Carlos Varandas, Carlos Alejaldre, Alex Bradshaw, Francesco Romanelli, Le Monde, Edition du 30 janvier 2004 p.19–TousunispourITERàCadarache http://www.lemonde.fr/archives/ article/2004/01/30/tous-unis-pour- iter-a-cadarache_351106_1819218. html#YwOBpPFeL4tGp8zm.99 [4] Site IRSN - Risque sismique et instal- lations nucléaires Etudes de l’aléa sismique pour le centre de recherche de Cadarache : http://www.irsn.fr/ FR/connaissances/Installations_ nucleaires/La_surete_Nucleaire/ risque_sismique_installations_ nucleaires/Pages/10-Etudes_de_l_ alea_sismique_pour_le_centre_ de_recherche_de_Cadarache. aspx?DossierGuid=bbb50e91-d795- 4734-9450-f7cd15fe0aea&Dossier WebGuid=53763c1d-e722-4980- 88f3-de3d62e7991a#.Vt0tEojH55I [5] Article L’Officiel des Transporteurs - Grand Angle – Le projet ITER (E. Demangeon,−N°2742du13juin2014) http://www.wk-transport-logistique. f r/outils /upload /transpor t- exceptionnel-n-2742-juin-2014- L-officiel-des-transporteurs.pdf L'AUTEUR Erwan Duval est ancien élève de l’Ecole Centrale Paris. Il entame sa carrière à Kourou en 2000, au sein des équipes opérationnelles d’Arianespace. D’abord responsable des systèmes fluides des lanceurs Ariane, il prend la charge des ré- seaux fluides du site (cryogéniques, propergols et gazeux). Il est alors amené à coordonner les activités du complexe de lancement Ariane 5. Début 2008, il s’intègre à la prépa- ration du projet Soyuz en Guyane et coordonne les essais et activités du site sur les deux premiers lan- cements. En 2012, il rejoint ITER Organization dans le département Construction. Il conduit l’exploitation des infrastructures IO et pilote divers travaux nécessaires à la bonne pro- gression du projet ITER. REE N°4/2016 65 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITER DOSSIER Introduction Les installations de recherche sur la fusion nécessitent d’importantes infrastruc- tures électrotechniques. En effet, le champ magnétique nécessaire au confinement du plasma est généré par des convertisseurs de puissance alternatif/continu. De même, les systèmes de chauffage du plasma sont d’importants consommateurs électriques. Cet article décrit la problématique des grandes installations de recherche, alliant des processus industriels ainsi que des élé- ments spécifiques à la conduite de l’infras- tructure de recherche. Il faut raccorder ces installations hors normes au réseau de distribution élec- trique général, tout en garantissant leur in- tégration dans l’environnement contractuel existant. De même, afin d’optimiser l’ex- ploitation et la maintenance de ces grands équipements de recherche, l’utilisation d’équipements industriels pour la distribu- tion électrique est privilégiée. Néanmoins, dans certains cas, le développement de matériel spécifique s’avère nécessaire. Connexion d’ITER au réseau de transport électrique français Besoins du projet Le fonctionnement d’ITER nécessi- tera la fourniture et la distribution d’une grande puissance électrique. Comme toute installation de type industriel, un réseau interne desser- vira les différents systèmes fonction- nant en régime permanent. Ce réseau de structure tout à fait classique, ap- pelé “Steady State Electrical Network” (SSEN), pourra fournir jusqu’à 120 MW. Mais un autre réseau est nécessaire pour permettre le fonctionnement pulsé du tokamak. Appelé “Pulsed Power Electrical Network” (PPEN), il assurera l’établissement et le contrôle des champs magnétiques nécessaires au confinement du plasma ainsi que l’alimentation des systèmes de chauf- fage auxiliaires du plasma ; ces utili- sations demanderont jusqu’à 500 MW en pic de puissance active et jusqu’à 900 MVAr de puissance réactive. La compensation nécessaire de la puis- sance réactive limitera l’appel sur le réseau à 200 MVAr. Enfin, ITER, classé comme instal- lation nucléaire de base (INB), doit disposer d’un réseau électrique de secours à base de groupes diesel (avec une puissance unitaire d’environ 3,5 MW), constituant la partie « sûre- té » de la distribution électrique. Dans ce cas, les règles classiques de redon- dance et de séparation des équipe- ments sont appliquées. Choix de la solution de connexion au réseau La volonté de la France d’accueillir le projet au début des années 2000 en- gendra une série d’études menées en collaboration avec l’Agence européenne de recherche sur la fusion (EFDA) et le Commissariat à l’énergie atomique et aux énergies alternatives (CEA). A partir des simulations effectuées par les développeurs du projet, il a fallu vérifier que le « client ITER » pouvait être raccordé au réseau de transport national sans engendrer de perturbations pour sa conduite ou pour les autres utilisa- teurs. Pour cela, le Réseau de transport de l’électricité (RTE) effectua les vérifi- cations nécessaires, notamment pour toutes les études des conditions transi- toires. Les conclusions de ces études ont permis d’approuver une connexion électrique du projet en 400 kV, pour la partie pulsée. En effet, ce réseau pos- sède une puissance de court-circuit d’environ 10-12 GVA, pouvant absor- ber de grandes variations de puissance. Cette raison avait déjà conduit à la déci- sion de construction en 1985 de la ligne 400 kV venant de Tavel pour alimenter Tore Supra, dont les besoins de puis- sance pulsée posaient alors des pro- blèmes similaires à ceux d’ITER. La distribution électrique du site et les alimentations électriques de puissance Par Joël Hourtoule1 Electrical Distribution Section Leader, Plant Engineering Department, Electrical Division - ITER Organization Fusion research facilities require significant electro-technical infrastructures to support their various systems. For example: the AC/DC converters that power the magnetic field required to create the plasma confinement and the heating and current drive (H&CD) systems used to heat the plasma are large consumers of energy. This paper describes the issues encountered in the ITER facility, e.g. dealing with standard industrial devices together with “state of the art” components specially developed for the project. This extraordinary installation is required to be connected to the electrical national grid, without exceeding the operating parameters or contractual provisions imposed by the regulator. ABSTRACT 1 L’auteur est seul responsable des faits énoncés et opinions émises dans cet article 66 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER La connexion du projet ITER en « HTB3 » (supérieur à 225 kV) sur le réseau de transport français, ainsi que le statut international du projet, ont nécessité une adaptation de tous les ac- teurs. ITER sera le plus important poste 400 kV privé en service. L’aménagement des arrivées élec- triques est de la responsabilité du pays hôte (figure 1) ; l’agence ITER France (AIF) a donc conduit le projet d’exten- sion de la ligne 400 kV existante ainsi que la construction du poste de livraison RTE sur le site. Six kilomètres de lignes haute tension 400 kV ont été construits pour alimenter le projet ITER et le poste de Prionnet a vu le jour dans l’enceinte du site ITER (figure 2). La distribution électrique du site Distribution industrielle Le réseau électrique SSEN se com- pose de quatre connexions au poste 400 kV RTE. Chaque connexion permet de soutirer une puissance de 75 MVA. En cas de défaillance d’un transformateur, des couplages au secondaire (22 kV) per- mettent de basculer les charges vers les autres transformateurs, sans affecter la disponibilité de toute la puissance. Un réseau interne 22 kV permet en outre de distribuer la puissance depuis le poste source jusqu’aux postes de distribution 6.6 kV (pour les machines tournantes de forte puissance) ou aux postes de distribution 400 V (pour la distribution interne aux bâtiments et les systèmes auxiliaires). Au total, envi- ron 240 MVA sont installés, pour une consommation maximale estimée de Figure 1 : Distribution électrique très haute tension du Sud-Est de la France - Source RTE. Figure 2 : Vue d’ensemble du poste Prionnet sur le site ITER – Source : ITER. REE N°4/2016 67 La distribution électrique du site et les alimentations électriques de puissance 120 MW en phase d’exploitation nomi- nale [1], [2]. Les principaux consommateurs connectés à ce réseau industriel sont (figure 3) : du Tokamak et des systèmes auxi- liaires. Différentes boucles adaptées aux types de composants à refroidir (caractéristiques chimiques de l’eau) sont installées. La circulation de ces boucles est faite grâce à des moteurs électriques entrainant des pompes de puissance unitaire jusqu’à 3,5 MW ; - mants supraconducteurs. Ce système à base de compresseurs (de puis- sance unitaire jusqu’à 4,7 MW) per- met la circulation et le refroidissement de l’hélium dans les bobines. C’est un système à très large inertie, devant fonctionner en continu, dès lors que l’installation est en mode opération ; - tion, force et autres utilités (figure 4) ; pompage de l’enceinte à vide. Distribution de puissance pulsée pour la machine Le réseau de puissance pulsée permet d’alimenter les convertisseurs alternatif/ continu (AC/DC) nécessaires aux bobines supraconductrices (avec une puissance installée proche des 2GVA), ainsi que les systèmes de chauffage additionnel du plasma. La puissance consommée sur ce réseau variera fortement durant les scé- narios expérimentaux et pourra atteindre 500 MW en pointe. Celui-ci est constitué de trois connexions sur le poste 400 kV RTE afin d’alimenter trois transformateurs de 300 MVA chacun. Au secondaire de ces transforma- teurs, deux réseaux distincts sont ali- mentés (figure 5) : Figure 4 : Vue d’ensemble des transformateurs pour les auxiliaires – Source : ITER. Figure 3 : Synoptique des principaux consommateurs électriques – Source : ITER. 68 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER - tations des aimants assurant le confi- nement magnétique ; - tèmes de chauffage du plasma. Du fait de leur conception (redresse- ment par ponts à thyristors), les alimen- tations des aimants (Cf. l’article de Paul Libeyre) consommeront une impor- tante puissance réactive. Le respect de cette contrainte sera assuré par la mise en place d’un compensateur statique de puissance réactive de 250 MVAr sur chaque réseau secondaire 66 kV (soit 750 MVAr au total). Chaque compensateur sera consti- tué : - sant en permanence 250 MVAr, qui permettront également de filtrer les harmoniques induits par les convertis- seurs (de rangs 5, 7, 11 et 13 en par- ticulier) ; - socié à des inductances, consommant entre 0 et 250 MVAr de puissance réactive selon l’angle de commande des thyristors. Ce dernier sera ajusté en permanence avec un court temps afin de pouvoir répondre aux variations Figure 5 : Distribution générale pulsée du site ITER – Source : ITER. Figure 6 : Valve TCR prototype (Copyright RXPE) – Source : ITER. REE N°4/2016 69 La distribution électrique du site et les alimentations électriques de puissance rapides de la puissance réactive souti- rée par les alimentations des aimants. Il est à noter que les valves à thyristors (figure 6) seront directement connec- tées au réseau 66 kV, ce qui a nécessité des développements technologiques spécifiques [3]. Distribution électrique pour les fonctions de sûreté ITER est classé comme une installa- tion nucléaire de base (INB) au titre de la règlementation française. Dans ce cadre, des fonctions de sûreté nucléaire ont été définies (principalement liées au confi- nement du tritium). Certaines d’entre elles nécessitent une alimentation élec- trique. Le projet ITER a donc adopté la même configuration de distribution élec- trique de sûreté que celle que l’on peut trouver dans les centrales nucléaires. Ce réseau est constitué de deux « trains », totalement indépendants (géo- graphiquement et électriquement) et redondants. Ce principe de séparation et de ségrégation permet d’assurer la dis- ponibilité de l’alimentation électrique, en cas d’évènement externe (séisme, crash d’avion) ou interne (explosion, incendie). Ce réseau palie aussi l’absence éventuelle d’alimentation générale élec- trique, par la mise en place de géné- rateurs entraînés par des diesels (de puissance unitaire d’environ 3,5 MW), qualifiés pour des conditions extrêmes (notamment le séisme de référence). Il assure une continuité de service à l’aide d’onduleurs (environ 1,2 MW sur chaque train) et de chargeurs, chacun étant équipé de son propre jeu de bat- teries. L’autonomie de ces batteries est définie par les besoins du projet (plu- sieurs heures). Les alimentations électriques des aimants Dans un tokamak, le contrôle du plasma (initiation, positionnement, sta- bilité verticale) est réalisé magnétique- ment. Les champs magnétiques requis sont produits par de nombreux aimants installés autour et dans la chambre à vide. Sur ITER, tous les aimants externes seront supraconducteurs (TF, CS, PF, CC), contrairement aux bobines internes (VS3, ELM). L’alimentation de ces aimants re- quiert essentiellement : l’allumage du plasma ; la protection des bobines supracon- ductrices. Les convertisseurs de puissance Les caractéristiques principales des convertisseurs apparaissent dans la figure 8 : Sauf VS3, tous les convertisseurs sont des redresseurs dodécaphasés à pont à thyristors. Ils opéreront dans les quatre quadrants, à l’exception de l’ali- mentation toroïdale dont le courant sera seulement positif [4], [5]. Les ponts à thyristors seront connec- tés en parallèle (déphasage de 30°) et des inductances de lissage limiteront l’amplitude des courants inter-ponts. Le schéma de principe est représenté sur la figure 9. Pour certains convertisseurs (CS, PF, VS1) dont le besoin en tension est important, plusieurs unités similaires (de tension en charge ±1,05 kV DC) seront connectées en série. En termes de contrôle, cette topologie permettra de diminuer la consommation de puis- sance réactive par la contribution suc- cessive des différentes unités. Afin de contrôler les instabilités verticales du plasma, l’alimentation VS3 a une exigence de rapidité plus contraignante : la topologie choisie est donc différente (pont en H avec des IGBT). Au cours du programme opération- nel, l’alimentation du champ toroïdal restera à un courant constant pendant de longues périodes (plusieurs jours) et ne jouera donc pas un rôle actif pendant les chocs plasma. Elle sera contrôlée en boucle fermée par une référence de courant. Au contraire, le fonctionnement de toutes les autres alimentations sera di- rectement lié à la réalisation des scéna- rios plasma souhaités. Leurs points de fonctionnement varieront constamment Figure 7 : Schéma de principe de la distribution de sûreté par 2 trains indépendants – Source : ITER. 70 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER pendant ces scénarios, ce qui aura pour conséquence des fluctuations sur le profil des puissances actives et réactives soutirées du réseau. Ces convertisseurs seront pilotés en boucle ouverte par des références de tension, calculées au niveau du système de contrôle-com- mande du plasma à partir des mesures magnétiques pour suivre le scénario souhaité. En cas de défaut sur un convertis- seur, le courant sera transféré des ponts à thyristors vers un système de roue libre, constitué de manière redondante de composants statiques (thyristors) et d’un contacteur. La bobine se trouvera alors en court-circuit : son courant sera décharge rapide décrits dans le chapitre ci-dessous sur la protection des bobines supraconductrices (à l’exception des CC) ou bien par décroissance naturelle s’il y a suffisamment de résistance dans le circuit (CC, VS3, ELM). Les systèmes d’allumage du plasma Le courant plasma sera initié par effet transformateur. L’application d’une forte tension dans les bobines centrales (CS, PF1 et PF6) permettra la création d'un arc dans la chambre à vide puis l’augmentation du courant. La tension générée par les convertisseurs n’étant pas suffisante, cette fonction sera réalisée en détournant le courant circulant dans chaque bobine vers une résistance, qui permettra de produire jusqu’à 8,5 kV. Le schéma de ce système est repré- senté sur la figure 10. En phase pré- paratoire du choc plasma, les bobines centrales seront prémagnétisées à Figure 8 : Vue d’ensemble des alimentations des bobines – Source : ITER Figure 9 : Structure de base des convertisseurs – Source : ITER. REE N°4/2016 71 La distribution électrique du site et les alimentations électriques de puissance un courant positif important (environ 45 kA). Les mêmes actions seront réali- sées simultanément sur chaque bobine. Puisque l’interruption d’un courant DC aisée, le courant circulant initialement dans les contacteurs (FOS et FDS sur le schéma) sera successivement dévié dans des thyristors connectés en parallèle (pendant que les contac- teurs s’ouvrent), puis annulé par des décharges de bancs de capacités. Le courant de la bobine sera alors forcé de circuler dans la résistance (R1). Cette séquence complexe s’effectuera en seulement quelques ms. La valeur de la résistance pourra être ajustée (avec R2) par la fermeture du contacteur MS. Après quelques se- condes, la phase d’allumage du plasma sera terminée et le contacteur MS1 se fermera, laissant le contrôle aux seuls convertisseurs. La protection des bobines supraconductrices En cas de perte de supraconductivité (“quench”) suite à une défaillance du système cryogénique par exemple, il est indispensable de dissiper rapidement à l’extérieur la grande énergie stockée dans les bobines (environ 41 GJ dans les 18 bobines du champ toroïdal par exemple) pour éviter leur destruction. Ces fonctions seront réalisées par des systèmes de décharge rapide, très similaires aux systèmes d’allumage du plasma, car ils permettront d’ajouter une résistance dans le circuit DC [6]. Le schéma de principe est représenté sur la figure 11. Le courant circulera initiale- ment dans le contacteur BPS (figure 12). Au cours de son ouverture, il sera dévié dans un disjoncteur connecté en parallèle (VCB). Une fois l’ouverture du BPS ter- minée, la décharge de banc de capacités (CPC) permettra d’annuler le courant du disjoncteur et de forcer le transfert vers la résistance (FDR). Cette fonction doit Figure 10 : Schéma du système d’allumage du plasma – Source : ITER. Figure 11 : Schéma de principe du système de décharge rapide – Source : ITER. Figure 12 : Contacteur by-pass et disjoncteur à contacts sous vide – Source : ITER. 72 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER avoir la plus haute fiabilité ; un pyrobrea- ker (figure 13), disjoncteur opérant à l’aide de charges explosives, sera connecté en série pour la garantir en cas de défaillance du système précédent. Il y aura un système de décharge de ce type dans chaque circuit des bobines CS et PF. Pour le circuit des 18 bobines du champ toroïdal connectées en série, plusieurs unités de décharge seront nécessaires afin de limiter la tension apparaissant entre les conducteurs et la terre, tout en garantissant une décharge à la constante de temps désirée (environ 11 s dans ce cas). En conséquence, neuf systèmes de décharge rapide seront ins- tallés pour ce circuit (chacun étant inter- calé en série avec une paire de bobines) [7]. Les alimentations des systèmes de chauffage du plasma Le principe de chauffage du plasma repose sur l’injection et l’absorption d’ondes électromagnétiques haute fré- quence ou de faisceau de particules de grande énergie. Ces systèmes néces- sitent d’importantes alimentations élec- triques haute tension, connectées aux réseaux 22 kV et 66 kV « pulsés ». Alimentations des systèmes de chauffage HF Deux systèmes de chauffage HF seront installés dans la première phase du projet ITER : le système fréquence cyclotronique ionique (FCI), basé sur la fréquence de résonance gyromagné- et le système fréquence cyclotronique électronique (FCE), basé sur la fré- quence de résonance des électrons du Les ondes électromagnétiques du système FCI sont générées par huit sources RF à trois étages d’amplifi- cations, similaires aux transmetteurs de radiodiffusion. Les deux derniers étages utilisent des tubes à vide de forte puissance (tétrode ou diacrode). Ils sont alimentés par une même alimentation haute tension. Une autre famille de tube à vide, les gyrotrons, produisent les ondes millimé- triques du système FCE. Plusieurs niveaux de tension sont nécessaires pour polariser les différentes électrodes du tube Le tableau 1 décrit les principaux para- mètres et le nombre de ces alimentations [8]. Les alimentations principales des systèmes FCI et FCE sont basées sur la technologie “Pulsed Step Modulation” (PSM). Les tensions continues éle- vées sont produites en connectant en de puissance d’une tension unitaire de quelques centaines de volts. La tech- nologie PSM permet une grande dyna- mique de tension (10 kV/µs) tout en limitant l’énergie dissipée dans le tube en cas d’arc interne (<10 J) [9]. Figure 13 : Disconnecteur à charge explosive - Source : ITER. Udc (kV) Idc (A) Quantité Puissance électrique installée (MW) Puissance HF (MW) FCE Alimentation principale -55 110 12 72.6 20Alimentation Body 35 0.1 24 Alimentation Anode 20 0.5 8 FCI Alimentation étage final 27 170 + 20 18 55 20 Alimentation étage Driver 15 18 Tableau 1 : Principales caractéristiques des alimentations des systèmes de chauffage HF. REE N°4/2016 73 La distribution électrique du site et les alimentations électriques de puissance Le site hébergera trois systèmes électriques, un pour l’injecteur diagnos- tique à 100 kV DC et deux autres pour les deux injecteurs de chauffage plasma à 1 MV DC. L’alimentation électrique pour un injecteur se décompose en trois sous-systèmes représentés sur le schéma global de la figure 14. La première partie alimentée en 66 kV AC est appelée “Accelération Grid Power Supply (AGPS)” [11]. Elle fournit les tensions aux cinq grilles d’accélération dans l’injecteur. Le potentiel de chaque grille est de - 1 000 kV, - 800 kV, - 600 kV, - 400 kV et - 200 kV DC. L’électronique de puissance assure la régulation et la coupure du courant en cas de court-cir- cuit dans la grille d’accélération. La seconde partie se trouve dans une cagedeFaradayisoléedusolquiestappelée “High Voltage Deck 1 (HVD1)” [12]. Elle contient les équipements qui composent les alimentations électriques pour la source d’ions de l’injecteur “Ion Source Power Supply (ISPS)” [13]. Tous les équi- pements d’alimentation électrique instal- lés dans HVD1 sont au potentiel de -1 MV DC. Ils sont alimentés par un transforma- teur d’isolement (22 kV / 6,6 kV, tension d’isolement 1 MV DC). Cet ensemble est installé dans le bâ- timent 37 et sera fourni par l’Europe et le Japon comme le montre la figure 15. Figure 14 : Schéma de l’alimentation électrique de l’injection de neutres – Source : ITER. Figure 15 : Alimentations des injecteurs de neutres (HNB PS) dans le bâtiment 37 – Source : ITER. 74 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER La troisième partie du système est nommée “Ground Related Power Supply (GRPS)”. Le GRPS alimente le “Residual Ion Dump (RID)” [14] et les “Active Compensation & Corrective Coils (ACCC)”, pour corriger activement le champ magnétique autour de l’injecteur. La puissance électrique est transmise à la source d’ions et aux grilles d’accélé- ration par l’intermédiaire d’une ligne de transmission (TL) à haute tension (HV), qui contient du SF6 à 6 bars. Ce der- nier fournit l’isolation entre les différents potentiels électriques dans la ligne de transmission qui vont de 0 à -1 MV DC. Le bloc appelé HVD2 contient la tuyau- terie pour l’eau de refroidissement et le Le tableau 2 résume les grandeurs électriques mises en œuvre pour un injecteur. Références [1] J. Hourtoule, C. Neumeyer, I. Suh, Y.Ding,L.Dong,C.Boyer,D.Rodrigues, “ITER electrical distribution system”, Proceedings of IEEE 25th Symposium on Fusion Engineering, 2013. [2] S. Nair, J. Hourtoule, K.W. Kang, J. Journeaux, M. Khedekar, “In- strumentation and Control of the ITER Electrical Power Distribution System”, Proceedings of ICEMS International Conference on Electrical Machines and Systems, 2013. [3] A. Mankani, “The ITER Reactive Power Compensation and Harmonic Filtering (RPC & HF) System”, proceedings of 26th SymposiumonFusionTechnology, 2010. [4] J.Tao, “ITER Coil Power Supply and Distribution System”, Proceedings of IEEE 24th Symposium on fusion Engineering, 2011. [5] C. Neumeyer, I. Benfatto, J. Hourtoule, J. Tao, A. Mankani, F. Milani, S. Nair, I. Suh, H. Tan, M. Wang, J.S. Oh, A. Roshal, “ITER Power Supply Innovations and Advances”, Procee- dings of IEEE 25th Symposium on fusion Engineering, 2013. [6] F. Milani, & al. “System integration of the ITER switching networks, fast discharge units and busbars”, proceedings of 26th Symposium on Fusion Technology, 2010. [7] I. Song, “Analysis on earthing circuit of ITER coil power supply”, Proceedings of 24th International Conference on Magnet Technology, 2015. [8] T. Gassmann, B. Arambhadiya, B. Beaumont, U.K. Baruah, T. Bonicelli, C. Darbos, D. Purohit, H. Decamps, Paramètres Unité Valeur Grille d’accélération tension/courant kV / A -1000/59 Grille 1 tension/courant kV / A -800/7 Grille 2 tension/courant kV / A -600/6 Grille 3 tension/courant kV / A -400/3 Grille 4 tension/courant kV / A -200/3 Courant au niveau de la masse A 40 Puissance utile d’AGPS MW 48 Puissance utile d’ISPS MW 6 Puissance utile de GRPS MW 6 Tableau 2 : Paramètres des alimentations électriques d’injecteur de neutres. L'AUTEUR Joël Hourtoule est diplômé de l’école d’ingénieur Polytech, avec la spécialité Ingénierie électrique et conversion de puissance. Il a plus de 15 ans d’expérience professionnelle dans la gestion et le design de la dis- tribution électrique de grandes ins- tallations scientifiques. Depuis 2007, il est le responsable du groupe dis- tribution électrique pour le projet ITER. Auparavant, il a travaillé plus de 10 ans au sein du CEA (Commissa- riat à l’énergie atomique et aux éner- gies alternatives), sur l’installation de fusion « TORE SUPRA », où il était également responsable des instal- lations électriques. Joël Hourtoule est membre actif de plusieurs orga- nisations professionnelles comme le CIGRE ou le groupe de travail RCCE. REE N°4/2016 75 La distribution électrique du site et les alimentations électriques de puissance F. Albajar, F. Gandini, M. Henderson, F. Kazarian, P.U. Lamalle, T. Omori, D. Parmar, A. Patel, D. Rathi, N.P. Singh, “High voltage power supplies for ITER RF heating and current drive systems”, Fusion Engineering and Design, Volume 86, Issues 6-8, p. 884-887, 2011. [9] J. Alex, W. Schminke, “Fast switching, modular high-voltage DC/AC-power supplies for RF-amplifiers and other applications”, Symposium of Fusion Engineering, p. 936-939, 1995. [10] R. Hemsworth, H. Decamps, J. Graceffa, B. Schunke, M. Tanaka, M. Dremel and A. Tanga, “Status of the ITER heating neutral beam system” Nuclear Fusion 49, 2009. [11] L. Zanotto, V. Toigo, D. Gutierrez, M. Simon, H. Decamps, M. Perna, “Final design of the Acceleration Grid Power Supply Conversion System of the MITICA Neutral Beam Injector” to be presented to the 29th Symposium on Fusion Technology, 2016. [12] M. Boldrin, T. Bonicelli, H. Decamps, C. Finotti, G. E. Gomez, M. Krohn, E. Sachs, M. Simon, V. Toigo, “Final design of the High Voltage Deck 1 and Bushing for the ITER Neutral Beam Injector” to be presented to the 29th Symposium on Fusion Technology, 2016. [13] Giuseppe Taddia, Luigi Rinaldi, Luca Sita, Marco Bigi, Vanni Toigo, Muriel Simon, Hans Decamps, “The Ion Source and Extraction Power Supplies (ISEPS) for the SPIDER experiment project status”, IEEEC 15 Int. Conf. on EEEIC, p. 626-631, 2015. [14] A. Ferro, V. Toigo, L. Sita, L. Rinaldi, G. Taddia, D. Gutierrez, M. Simon, H. Decamps, “The design of the Residual Ion Dump Power Supply for ITER Neutral Beam Injector” to be presented to the 29th Symposium on Fusion Technology, 2016. 76 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER Le système magnétique d’ITER Fonctionnalité La fonctionnalité du système ma- gnétique d’ITER [1] est la création de la configuration magnétique de révolu- tion caractéristique d’un tokamak, qui repose sur l’existence de deux champs magnétiques distincts : le champ toroï- dal et le champ poloïdal. Chacun de ces champs est créé par un ensemble de bobines indépendantes, chacune ayant sa propre alimentation électrique. Tous ces champs magnétiques sont de révolution ; ils doivent avoir avec une grande précision (<5 mm), le même axe vertical, qui doit être aussi celui de la chambre à vide toroïdale. Alors que le champ toroïdal est un champ statique, le champ poloïdal, est par nature pulsé ; sa fonction principale consiste à induire un courant électrique de plusieurs mégaam- pères dans le plasma et à contrôler l’équi- libre mécanique et la forme du plasma. La configuration magnétique dépend de la valeur d’un certain nombre de para- mètres (Cf. l’article sur le projet ITER de Robert Aymar & al.) : les choix effectués pour ITER déterminent en particulier la valeur 5,3 T du champ magnétique toroï- dal sur l’axe du plasma à R = 6,2 m, la valeur de 15 MA du courant plasma à in- duire et maintenir pendant une durée de 400 s (qui nécessite de produire une va- riation de flux magnétique de 267 Wb). En plus de cette fonction d’inducteur, le système de champ poloïdal contrôle l’équilibre et la forme du plasma par celui des courants dans une série de bobines de révolution à axe vertical positionnées près de la surface tout autour du tore de plasma à l’extérieur de la chambre à vide, à l’exception d’une paire de bo- bines coaxiales en cuivre, refroidies par eau pressurisée, qui, dans la chambre à vide et plus proches du plasma, assure- ront l’équilibre vertical souvent instable du plasma. Le fonctionnement de la machine suit le cycle décrit dans l’article introduc- tif de Jean Jacquinot. Pour bénéficier du maximum de variation du flux magné- tique, il est prévu de charger la bobine d’induction avec son courant maximum circulant dans un sens donné, puis de décharger cette bobine et de la charger ensuite au maximum avec le courant cir- culant en sens inverse. Il en résulte donc que pour chaque cycle plasma, deux cycles de chargement – déchargement se succèdent. Les 30 000 cycles plasma prévus se traduisent donc par 60 000 cycles machine. Conception La conception du système magné- tique repose sur quelques principes simples pour la mise en œuvre des choix effectués pour définir le projet ITER (Cf. article Aymar). Le premier principe est que les forces électromagnétiques de révolution soient autosupportées vis à vis de tous les types de chargement, normaux ou accidentels prévisibles. Seules les forces de gravité et celles générées lors d’inci- dents peu fréquents (les VDE, Cf. article Aymar) sont transmises à des supports extérieurs au système magnétique (l’an- neau de béton support commun des bobines et de la chambre à vide). Le second principe est la segmen- tation du système en éléments modu- laires en nombre limité, appartenant à quatre sous-ensembles à la finalité séparée (figure 1) : - bines TF) créant le champ toroïdal sta- tique ; planes identiques, en forme de D, compatible avec la forme souhaitée pour le plasma ; bobines PF) générant le système de champ poloïdal pulsé ; le solénoïde central composé de six bobines planes circulaires identiques superpo- sées ; les six grandes bobines planes circulaires réparties autour du plas- ma ; toutes ces bobines de révolution doivent avoir le même axe vertical de révolution que l’ensemble créant le champ toroïdal ; de champ magnétique transversal, Les aimants supraconducteurs d’ITER Par Paul Libeyre1 CS&CC Section Leader, Tokamak Engineering Department, Magnet Division - ITER Organization The function of the ITER Magnet System is to create the magnetic configuration characteristic of a tokamak, based on two distinct magnetic fields: the toroidal field and the poloidal field. Each of these fields is created by a set of coils, individually powered. The design of these coils relies on the application of a few basic principles, one of which is the exclusive use of superconducting material to carry the high intensity currents required. The different components of the Magnet System are the toroidal field coils, the central solenoid, the poloidal field coils, the correction coils and the feeders. The main aspects of the components design are presented as well as a summary status of their manufacturing. ABSTRACT 1 L’auteur est seul responsable des faits énoncés et opinions émises dans cet article. REE N°4/2016 77 Les aimants supraconducteurs d’ITER par paires anti-symétriques sur le bas, le haut et les côtés de la machine (six bobines BCC, six bobines TCC et six bobines SCC : Bottom, Top and Side Correction Coils) ; insérées entre les bobines TF et les bobines PF, à l’exté- rieur des bobines TF, les bobines BCC et TCC sont des bobines planes toutes identiques, en forme de haricot ; les bobines SCC sont des bobines toutes identiques en forme de selles tracées sur un cylindre ; les lignes d’alimentation attachées séparément à chacune des bobines ; chaque ligne inclut : les conducteurs alimentant électriquement les bobines, les tuyaux de circulation d’hélium super- critique pour leur refroidissement et les fils d’alimentation de l’instrumentation nécessaire au pilotage des bobines. Le troisième principe unificateur résulte de l’obligation économique d’uti- liser des matériaux supraconducteurs pour la réalisation de cet ensemble de bobines [2]. En effet, l’avantage déterminant de ces matériaux résulte de l’absence de résistance électrique lorsqu’ils sont à l’état supraconduc- teur ; si la réalisation des bobines du champ toroïdal d’ITER était envisagée en cuivre refroidi par circulation d’eau, la puissance électrique nécessaire à leur alimentation pour atteindre la même valeur de champ Presis = 2 cu JLBtR/ 0 (J, densité de courant dans le Figure 1 : Le système de champ magnétique d’ITER. 78 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER cuivre ; L, longueur d'un tour TF ; Bt, champ magnétique toroïdal sur l'axe plasma ; R, grand rayon du plasma) [3] serait de plus d’1 GW, alors que 20 MW suffisent pour le système cryo- génique de l’aimant TF supraconduc- teur. L’utilisation de ces matériaux est rendue possible en raison d’une base expérimentale et en partie industrielle existante. En effet, un premier tokamak à aimant supraconducteur de petite taille avait été construit en Russie dans les années 70, suivie par la construc- deux tokamaks utilisant des bobines su- praconductrices, l’un T15 à Moscou en Russie, l’autre Tore Supra à Cadarache en France, le premier utilisant du nio- bium-étain, le second du niobium-titane (Cf. l’encadré 1 décrivant les propriétés et l’utilisation de ces matériaux). D’autre part, le développement de l’imagerie médicale a conduit au développement industriel de la production de niobium- titane pour la réalisation des champs magnétiques statiques nécessaires. Ceci a en particulier permis la construc- tion des aimants supraconducteurs du LHC, qui utilisent ce matériau. Dans les décennies suivantes, d’autres machines de fusion magnétique ont également été construites avec des aimants su- praconducteurs (LHD au Japon, EAST en Chine, KSTAR en Corée, W7-X en Allemagne). Néanmoins, le développe- ment industriel du niobium-étain restait à faire pour permettre la production des quantités de matériau nécessaire pour le système magnétique d’ITER. Le quatrième principe de concep- tion est la limitation de la tension élec- trique induite lors de la décharge rapide des aimants à des valeurs compatibles avec la réalisation industrielle de l’iso- lation électrique (30 kV en tension d’essai). Ceci conduit à l’utilisation de conducteurs à courant élevé afin de diminuer l’inductance des bobines. Il sera ainsi possible de décharger l’éner- gie magnétique emmagasinée dans le système magnétique en quelques secondes sans pour autant excéder une tension de quelques kilovolts aux bornes des bobines. Un dernier aspect ne doit pas être négligé : il ne concerne les bobines que par le dépôt de chaleur dû à la plus ou moins grande qualité du blindage vis à vis de l’irradiation neutronique (neu- trons de la réaction de fusion D-T). Ce dépôt de chaleur à très basse tempé- rature est très pénalisant par suite du très mauvais rendement énergétique du système cryogénique, mais l’augmen- tation du blindage peut conduire à un coût supplémentaire lié à un accrois- sement de la taille de la machine ; un délicat compromis est donc nécessaire. Il en résulte que pour ITER l’irradiation directe par les neutrons de grande énergie sera trop faible pour entrainer des dommages dans les matériaux des bobines. Conducteurs La conception des conducteurs d’ITER repose sur l’utilisation de trois matériaux supraconducteurs, différents, chacun adapté au niveau de champ magnétique. Ainsi le niobium-titane (NbTi) est-il utilisé quand le champ magnétique maximum n’excède pas quelques teslas (environ 6 T à 4,5 K pour les bobines PF et CC), ainsi que Alliages supraconducteurs pour la fabrication des bobines L’alliage NbTi (à composition voisine de 50/50) est un matériau, dont la ductilité à température ambiante a été uti- lisée pour réaliser les opérations de fabrication des conducteurs. La fabrication des bobines se poursuit avec l’isolement externe, l’imprégnation éventuelle et polymérisation de résine, la préparation des connexions et les finitions externes. L’alliage Nb3Sn est très fragile et aucun des procédés pour former un conducteur ne peut lui être appliqué sans détruire ses propriétés supraconductrices. La solution adoptée pour ITER consiste à ne réaliser le matériau qu’une fois la mise en forme effectuée (procédure dite « bobinage et réaction ») ; dans les stades qui précèdent, les matériaux constitutifs demeurent ductiles et la fabrication du conducteur peut suivre les mêmes processus de fabrication que le NbTi jusqu’à la mise en bobinage définitive. Ce n’est qu’alors que l’alliage de niobium-étain est formé par la diffusion de l’étain dans le niobium pendant l’application d’un traitement thermique d’environ 200 h à 650 °C dans un four à atmosphère contrôlée. La conséquence du choix de ce processus est donc d’une part l’obligation de disposer dans la ligne de fabrication du bobinage d’un four de traitement thermique de grande taille, capable d’accueillir des éléments de bobinage complets et d’autre part de prévoir une méthode adaptée à la mise en place de l’isolation électrique après traitement thermique, pour s’affranchir de l’obligation d’utiliser une isolation thermique capable de survivre à un traitement thermique à 650 °C ; il est alors nécessaire de minimiser les déformations lors des manipulations pour appliquer l’isolation et ainsi éviter une dégradation irréversible des performances électriques du conducteur. Encadré 1. REE N°4/2016 79 Les aimants supraconducteurs d’ITER pour les lignes de distribution, alors que le niobium-étain (Nb3 Sn) s’impose pour les bobines à haut champ (CS, TF). Enfin pour l’extrémité des amenées de courant connectant les lignes de distri- bution aux alimentations électriques, un matériau supraconducteur à haute tem- pérature critique a été retenu, le Bi2223 récemment développé. Les caracté- ristiques principales sont récapitulées dans le tableau 1 et les coupes transver- sales montrées en figure 2. L’innovation principale des conduc- teurs d’ITER consiste en la fabrication in- dustrielle en très grandes quantités des brins contenant soit de l’alliage NbTi, soit du niobium et de l’étain, et une mise en œuvre spécifique dans la réalisation des différents conducteurs, puis leur bobi- nage pour la fabrication des différentes bobines (Cf. encadré 1). Les conducteurs d’ITER sont du type câble-en-conduit. Ce concept, initiale- ment développé au MIT au début des années 70, repose sur l’insertion d’un câble supraconducteur dans une gaine métallique étanche parcourue par une circulation d’hélium supercritique. Afin de disposer d’une faible perte de charge dans le conducteur et limiter la puissance cryogénique nécessaire, l’innovation introduite est celle du câble-en-conduit à double canal retenue pour l’ensemble des conducteurs (sauf pour les bobines de correction) qui disposent donc d’un canal central circulaire dont l’absence de séparation hydraulique avec la zone annulaire contenant le câble facilite les échanges thermiques et donc le refroidis- sement. Pour diminuer les pertes Joule en fonctionnement, il est nécessaire de minimiser le nombre de connexions entre longueurs supraconductrices, qui sont les sources de dégagement de chaleur. On est ainsi conduit à réaliser les plus grandes longueurs unitaires possibles de conducteur, limitées par la longueur maximum rectiligne industriel- lement réalisable, actuellement d’envi- ron 1 km. La conception des bobines d’ITER et du nombre de connexions tient compte de cette limitation. L’utilisation d’un câble comprenant un très grand nombre de brins est né- cessaire en raison de l’intensité du cou- rant de l’ordre de plusieurs dizaines de Figure 2 : Section transversale des conducteurs pour ITER. Conducteur Courant (kA) Champ magnétique maximum (T) Matériau supraconducteur TF 68 11,8 Nb3Sn CS 45 13 Nb3Sn PF 48 - 52 6,4 NbTi CC 10 6 NbTi Lignes d’alimentation 10 - 68 3,5 NbTi Amenées de courant 10 - 68 0,065 Bi2223 Tableau 1 : Conducteurs pour ITER. 80 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER kiloampères alors que les propriétés supraconductrices du matériau n’inté- ressent qu’un volume limité à l’inté- rieur des brins. De plus pour permettre le transport du courant distribué de manière uniforme entre les brins, il est indispensable que chaque brin supra- conducteur occupe statistiquement tous les points de la section transversale du câble, ce qui est réalisé par la constitu- tion de câbles multiétages torsadés. Afin de faciliter la réalisation industrielle, le câble de section transversale circulaire est tiré à l’intérieur d’une gaine métal- lique à canal circulaire préalablement assemblée, qui est ensuite compactée sur le câble. La gaine constitue alors à la fois la barrière d’étanchéité de l’hélium de refroidissement et l’élément de struc- ture vers lequel sont transférés les efforts électromagnétiques. Pour ITER, l’acier austénitique (avec addition d’azote) a été choisi comme matériau pour la gaine du conducteur, en raison de ses bonnes performances mécaniques à tempéra- ture cryogénique, sans être endommagé par le traitement thermique à 600 °C. Deux options sont possibles pour la te- nue des efforts électromagnétiques : la résistance aux forces d’éclatement par la gaine elle-même, ce qui nécessite une gaine de section transversale adaptée, ou le transfert des forces vers une structure extérieure. La première solution est celle retenue pour l’aimant de champ poloïdal (CS, PF) alors que la seconde est utilisée pour l’aimant de champ toroïdal (TF) et l’aimant de correction (CC). Fonctionnement du système magnétique Le fonctionnement d’ITER est possible après refroidissement de l’ensemble du système magnétique à la température de 4,5 K, qui est la température nomi- nale de fonctionnement. Les différents aimants ont été dimensionnés pour per- mettre une élévation éventuelle tempo- raire de température au cours du cycle de fonctionnement. La différence entre la température de fonctionnement et la température critique à laquelle le maté- riau supraconducteur perd ses propriétés supraconductrices constitue la marge en température du conducteur. C’est un pa- ramètre essentiel du dimensionnement des bobines. La marge en température a été fixée à 0,7 K pour les bobines en niobium-étain et à 1,5 K pour les bobines en niobium-titane. La première phase du fonctionne- ment consiste à établir par une montée lente (2 h) le courant nominal dans l’ai- mant TF. Une fois le champ toroïdal établi et l’injection de gaz dans l’enceinte à vide effectuée, on peut alors induire le cou- rant dans le plasma pour une décharge donnée. L’évolution programmée des courants dans les différentes bobines du système poloïdal (CS + PF) constitue ce que l’on appelle un scénario plasma. Le scénario de référence permet d’induire un courant de 15 MA dans le plasma pour une durée de 400 s. En dehors du fonctionnement nor- mal du système magnétique, il est impératif d’envisager les conditions acci- dentelles possibles. Les plus domma- geables potentiellement seraient une transition généralisée d’une bobine su- pra vers l’état normal, qui, si elle n’était pas maîtrisée, conduirait à la dissipation de l’énergie magnétique emmagasinée dans les bobines sous forme d’effet Joule et à des dommages destructifs. Il est donc indispensable de disposer d’un système de détection de transition au sein de chaque bobine permettant d’in- tervenir immédiatement en déclenchant une décharge rapide de l’énergie ma- gnétique stockée dans une résistance extérieure appropriée (Cf. la description de ce très important système de sûreté dans l’article de Joël Hourtoule). Ce système de protection doit être robuste pour ne pas se dégrader au cours du temps et suffisamment discriminant pour distinguer une transition réelle d’un effet de variation de champ magnétique dû au comportement du plasma. L’aimant du champ toroïdal Le conducteur TF de section circulaire d’un diamètre exté- rieur de 43,7 mm, est constitué d’un câble circulaire de 1 422 brins groupés en triplets (deux brins Nb3Sn, un brin Cu), inséré dans une gaine mince cir- culaire de 2 mm d’épaisseur en acier inoxydable 316LN. Il est produit en lon- gueurs unitaires de 760 m. Les bobines TF L’aimant de champ toroïdal se com- semblées pour constituer un tore de révolution. Chaque bobine se compose d’un bobinage intégré dans un boî- tier épais. Les longueurs unitaires de conducteur de 760 m sont bobinées en doubles galettes en forme de D, insérées, après traitement thermique et mise en place de l’isolation électrique, dans les gorges de plaques radiales en acier inoxydable 316LN, qui constituent le premier élément de structure méca- nique pour la tenue des efforts dans le plan. Chaque plaque radiale est ensuite enveloppée d’une isolation électrique et imprégnée de résine, afin de constituer un sous-ensemble du bobinage. Ces sous-ensembles sont ensuite assemblés les uns aux autres par des connexions électriques afin de constituer le bobi- nage. Après assemblage le bobinage est enveloppé d’isolation masse puis imprégné de résine époxy, ce qui après polymérisation permet de constituer un ensemble rigide pourvu d’une robuste isolation électrique (la figure 6 présente l’état du bobinage de la première bobine à ce niveau de fabrication). Néanmoins, le bobinage ainsi réalisé ne présente pas une rigidité suffisante pour résister aux forces de torsion en- REE N°4/2016 81 Les aimants supraconducteurs d’ITER gendrées sur l’aimant de champ toroïdal par l’interaction avec le champ poloïdal. Il est donc intégré dans un boîtier rigide en acier inoxydable 316LN et les bobines TF ainsi achevées sont liées les unes aux autres par l’intermédiaire d’un système de goupilles isolantes. Le tore ainsi constitué peut résister aux efforts de torsion autour de son axe vertical. Les forces centripètes sur chaque bobine, dues à l’action du champ toroïdal seul, sont équilibrées par la constitution d‘une voûte avec les nez des bobines TF en contact ; il en résulte une compression toroïdale élevée, néces- sitant un épaississement significatif de la virole externe du boîtier des bobines pour obtenir des contraintes acceptables dans les matériaux. Le solénoïde central (CS) Le conducteur CS Le conducteur CS, conçu pour trans- porter un courant de 45 kA à 4,5 K et un champ maximum de 12 T, ou 40 kA à 4,5 K et un champ maximum de 13 T, est de section carrée (49 mm x 49 mm). Il est constitué d’un câble circulaire de 3 en cuivre), inséré dans une gaine épaisse en acier inoxydable JK2LB. Cet alliage à haut manganèse, dont la tenue en fatigue après traitement thermique reste élevée, a été développé au Japon spécialement pour cette application. Le conducteur est produit en longueurs de 900 m. Les bobines et la structure du solénoïde central Le solénoïde central se compose d’un ensemble de six bobines identiques, cir- culaires et superposées, insérées dans une structure mécanique (figure 3). Figure 3 : Le solénoïde central d’ITER. 82 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER Comme décrit précédemment, la gaine du conducteur a été dimensionnée pour résister aux forces d’éclatement. Néanmoins, au cours d’un scénario plas- ma, il peut arriver que les courants des différents modules (figure 4) soient de directions opposées, créant des forces répulsives entre modules dans la direc- tion verticale. Il s’avère donc impératif de disposer autour des modules d’une structure suffisamment solide pour les maintenir au contact les uns des autres en exerçant une pré-compression verti- cale. Cette structure est subdivisée en neuf sous-ensembles identiques, régu- lièrement espacés autour des modules et centrés sur les bobines TF ; ils re- posent sur un support fixé à ces bobines et le poids de l’ensemble du CS est ainsi supporté par l’aimant TF. Cette structure modulaire est réalisée en acier XFM-19 (Nitronic 50), acier au manganèse à haute résistance mécanique. Chaque bobine CS est constituée de 40 galettes de conducteur de 14 tours chacune. Comme il n’est pas possible de réaliser en une seule longueur la totalité du conducteur nécessaire pour une bobine, chacune est constituée d’un assemblage de six hexa-galettes et d’une quadri-galette. Les bobines du champ poloïdal Le conducteur PF Les six bobines de champ poloïdal utilisent le niobium-titane comme maté- riau supraconducteur ; trois conducteurs spécifiques sont utilisés (tableau 2). Les bobines PF Leurs principales caractéristiques sont résumées dans le tableau 3. Compte-tenu des grandes dimensions de ces bobines, il n’est pas possible de réaliser des galettes à partir d’une seule longueur de conducteur ; la technique de bobinage utilisée est celle de deux conducteurs-en-main. Les bobines sont tenues par une série d’étriers, qui servent à leur fixation sur des supports installés sur les bobines TF. La résis- tance aux efforts électromagnétiques d’éclatement est exercée par la gaine du conducteur. L’aimant de correction CC un conducteur de 10 kA en en alliage Figure 4 : Evolution des courants dans les modules du solénoïde central. Bobine Nombre de brins supraconducteurs Diamètre câble (mm) Dimensions externes (mm) Courant (kA) PF1 PF6 1440 37,7 53,8 x 53,8 48 PF2 PF3 PF4 720 35,3 51,9 x 51,9 50 PF5 1152 35,3 51,9 x 51,9 52 Tableau 2 : Conducteur des bobines PF. Bobine Rayon moyen (m) largeur (m) Hauteur (m) Nombre total de tours Inductance propre (H) Masse totale, avec structure (t) CS (1 module) 1,687 0,740 2,093 553 0,795 1040 (6 modules + structure) PF1 3,943 0,959 0,984 249 0,708 161 PF2 8,285 0,780 0,715 115 0,474 182 PF3 11,992 0,696 0,954 186 1,86 387 PF4 11,963 0,638 0,954 170 1,565 360 PF5 8,391 0,813 0,954 217 1,562 313 PF6 4,334 1,559 1,108 459 2,394 305 Tableau 3 : Bobines CS et PF (dimensions à 4 K hors isolation). REE N°4/2016 83 Les aimants supraconducteurs d’ITER niobium-titane. Il est constitué d’un câble de 300 brins NbTi, inséré dans une gaine épaisse en acier inoxydable 316LN. Les bobines CC sont constituées de trois jeux de six bobines. Connectées et alimentées par paires, de manière antisymétrique, elles sont constituées d’un bobinage inséré dans un boîtier en acier 316LN. Elles sont toutes équipées d’étriers permettant leur fixation sur les bobines TF. Les lignes d’alimentation Les conducteurs MB et CB Toutes les lignes d’alimentation sont équipées de conducteurs en niobium- titane, de conception similaire à celle qui est utilisée pour les bobines PF et de section circulaire (tableau 4). Les lignes d’alimentation Les lignes d’alimentation comprennent au total 31 unités, 26 reliant les ame- nées de courant aux différentes bobines du système magnétique (figure 5). Les amenées de courant, assurant la tran- sition entre les busbars à température ambiante et les busbars à température cryogénique, sont réalisées à l’aide de supraconducteurs à haute température critique, ce qui permet d’économiser 1,5 MW sur 3 MW de la puissance cryo- génique qui serait nécessaire dans le cas d’amenées de courant convention- nelles [4]. Etat d’avancement de la fabrication des aimants En mai 2016, l’état d’avancement de la construction du système magnétique est le suivant : Conducteurs Conducteur TF : production réalisée à 92 % Conducteur CS : production réalisée à 37 % Conducteur PF : Type Nombre de brins supraconducteurs Diamètre conducteur (mm) Longueur (m) Courant maximum (kA) MB (TF, CS, PF) 900 44,5 30 - 40 68 CB 324 22,0 30 - 40 10 Tableau 4 : Conducteurs des lignes d’alimentation. Figure 5 : Les lignes d’alimentation du système magnétique. 84 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER production réalisée à 46 % Conducteur CC : Conducteur MB : production réalisée à 100 % Conducteur CB : production réalisée à 100 % Bobines Bobines TF : 1ère bobine prête à être insérée dans son boîtier épais (figure 6) ; Bobines CS : maquette de module en cours d’assem- blage (connexion des hexa-galettes avant traitement thermique) (figure 7) ; Bobines PF : qualification en cours des procédés de Bobines CC : modèle de bobine BCC avec isolement externe terminé (figure 9). Références [1] N. Mitchell, A. Devred, P. Libeyre, B. Lim, F. Savary & al., The ITER Magnets: Design and construction status, IEEE Transactions on Applied Superconductivity, vol. 22, n° 3, June 2012, p. 4200809. [2] J.L. Duchateau, B. Turck, P. Komarek “The history of Fusion magnet development” in 100 Years of super- conductivity. Edited by Host Rogalla, Peter H. Kes. CRC Press Taylor &Francis Group. 2012. [3] J.L. Duchateau, “Prospective sur les réacteurs de fusion supracon- ducteurs“, Présenté aux 11e journées de Cryogénie et supraconductivité Aussois 10-22 Mai 2015. [4] R. Wesche & al., “Design of high- temperature superconductor current leads for ITER”, Fusion Engineering and Design 82 (2007) 1385-1390. Figure. 6 : 1er bobinage TF après imprégnation de résine - Source : Courtoisie ASG. Figure 7 : Assemblage de la maquette de module CS - Source : Courtoisie General Atomics. Figure 8 : Bobinage d’un modèle de bobine PF. Source : Courtoisie Efremov. Figure 9 : Modèle de bobinage BCC après imprégnation - Source : Courtoisie ASIPP. L'AUTEUR Paul Libeyre, à la suite de ses études à l’Ecole centrale Paris, a du département de recherches sur la fusion contrôlée (DRFC) du CEA successivement à la conception, au développement, au suivi de fabrica- tion, aux essais et à la mise en ser- vice des bobines supraconductrices de champ toroïdal du tokamak Tore Supra, construit à Cadarache. Il a en- suite, de 1990 à 1992, contribué à la conception d’une bobine modèle dans le cadre du projet européen NET. Puis, de 1992 à 2002, après en avoir conduit la conception, il a suivi le développement, la fabrication et les essais de la bobine modèle du champ toroïdal d’ITER dans un cadre européen. Devenu responsable du groupe Aimants du DRFC, il rejoint ITER Organization en 2006, où il assure depuis cette date, dans la division Magnet, la direction de la section CSCC, en charge de l’appro- visionnement et de la préparation de l’installation du solénoïde central et des bobines de correction d’ITER. REE N°4/2016 85 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITER DOSSIER Introduction ITER : vide et cryogénie Par Eric Fauve1 , David Grillot2 Cryoplant Chief Engineer - SLAC National Accelerator Laboratory1 Cryogenic Section Leader - ITER Organization2 Vacuum and cryogenics go together. Vacuum requires cryogenics to trap molecules at cold tempe- rature and cryogenics requires vacuum as insulation to avoid convection. These pooled trades are essential to controlled fusion in tokamaks. The vacuum system pumps the tokamak torus and the cryostat. Its first role is to ensure optimal plasma operating conditions by constantly pumping the torus to purify the fuel (deuterium and tritium) and to remove helium and impurities. Its second role is to provide insulation vacuum in the cryostat to components operating at cryogenic temperatures. The cryogenic system cools the tokamak superconducting magnets and the cryopumps of the vacuum system. Its first role is to cool-down the superconducting magnets, which generate the magnetic fields required to confine the plasma. Its second role is to cool-down the vacuum system cryo-pumps. Cryogenics and vacuum are essential to ITER to confine and maintain the plasma. Because of its size, ITER requires unique cryogenic and vacuum systems, which will rank among the largest systems ever built. ABSTRACT Figure 1 : Le tokamak ITER ; à gauche, vue du cryostat ; à droite une section verticale des principaux éléments. 1,2 Les auteurs sont seuls responsables des faits énoncés et opinions émises dans cet article. La cryogénie est une technique essentielle au fonctionnement des supraconducteurs, matériaux permettant à très basse température le transport de gigantesques quantités d’électricité sans déperdition d’énergie. Dans le cadre d’ITER, des bobines de câbles supraconducteurs génèrent les puissants champs magnétiques nécessaires au confinement de la réaction de fusion nucléaire. Des usines de liquéfaction d’azote et d’hélium produiront le froid nécessaire au fonctionne- ment des bobines. Un large cryostat raccordé à un puissant groupe de vide permet d’isoler thermiquement les bobines de l’environnement extérieur. La réaction de fusion se produit au centre des bobines, à l’intérieur d’une chambre à vide constituant le tore. La chambre à vide, refroidie par eau, permet de récupérer l’énergie libérée par la réaction de fusion et protège les bobines. Les molécules présentes dans le tore échappant au confinement magnétique sont évacuées par des pompes raccordées à la chambre à vide. Le débit sortant des pompes à vide est ensuite traité, permettant de capturer les polluants et de recycler les molécules de combustibles. Les grands projets scientifiques de ces dernières années, tel que le LHC au CERN, font appel à des installations cryo- géniques et de vide de très grande taille. ITER avec ses 10 000 tonnes à 4,5 K et son cryostat de 16 000 m3 ne fait pas exception à la règle et constituera à sa mise en service l’un des plus grands complexes cryogéniques au monde. 86 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER Pour créer artificiellement un plas- ma de 150 000 000 K en son centre capable de générer et d’entretenir une réaction de fusion nucléaire, le tokamak (chambre torique de confinement ma- gnétique) est une technologie des plus prometteuses. C’est celle qui a été rete- nue pour le projet ITER (figure 1). A l’intérieur du tore, les conditions doivent être rassemblées pour allumer et maintenir le plasma. La première condition nécessaire est la pureté du combustible (deutérium et tritium). Il est donc impératif d’évacuer les impu- retés (air, eau, etc.) avant de l’introduire. Ensuite, une fois la réaction initiée, la fusion (H2 + H3 He4 3,5 MeV + n 14,1 MeV) et l’interaction du plasma avec les parois produisent de l’hélium et des impuretés qui doivent être éva- cués au fur et à mesure. A ces fins, de puissantes pompes à vide (groupe de pompage) sont connectées au tore. Certaines pompes assurent le vide ini- tial, puis en fonctionnement d’autres pompes prennent le relais pour assurer un pompage continu. La puissance émise par le plasma est arrêtée et convertie en chaleur par des couvertures protégeant l’intérieur de la chambre à vide, enceinte à double pa- roi parcourue par un système d’eau de refroidissement. Le plasma, confiné par les champs magnétiques, est maintenu à distance des couvertures. Les diffé- rentes composantes de champ magné- tique nécessaires au confinement sont produites par des bobines supraconduc- trices (aimants). Pour fonctionner, les ai- mants sont refroidis à une température de 4,5 K. Les aimants nécessitent une isola- tion thermique performante. Pour ce faire, l’ensemble de la machine est inté- gré à l’intérieur d’une enceinte en acier inoxydable de 30 m de haut et de 30 m de diamètre : le cryostat. De puissantes pompes y sont connectées, assurant en permanence le vide nécessaire à l’isola- tion thermique des aimants. Le vide et la cryogénie apparaissent donc comme deux technologies ma- jeures nécessaires au projet ITER. Le vide pour ITER Sur ITER, le vide assure deux fonc- tions majeures : maintenir les condi- tions nécessaires au plasma à l’intérieur du tore et assurer le vide nécessaire à l’isolation thermique des aimants supra- conducteurs à l’intérieur du cryostat. Ce chapitre présente les technologies mises en œuvre ainsi que le pompage du tore et du cryostat. Les technologies mises en œuvre Le vide mis en œuvre s’obtient en deux étapes successives, le vide primaire (>1 mbar) et le vide secon- daire (<1 mbar). Ces deux étapes font appel à des techniques différentes : des pompes mécaniques permettent d’obtenir le vide primaire puis des cryo-pompes, directement connectées au cœur de la machine en amont des pompes mécaniques, assurent le vide secondaire. Les pompes mécaniques Le vide primaire est atteint grâce à des pompes mécaniques, rotatives. On retrouve quatre types principaux : les pompes “scroll” (spirales), les pompes à palettes, les pompes à vis et les pompes “roots” (figure 2). Quatre technologies bien différentes, qui permettent, grâce un mouvement de rotation, de capter un volume de gaz côté aspiration, de le comprimer et de le refouler à pres- sion atmosphérique. Ces pompes per- mettent d’obtenir un vide inférieur au millibar. Les cryo-pompes Le vide secondaire est atteint grâce à six cryo-pompes connectées au tore et deux connectées au cryostat. Les cryo- pompes fonctionnent sur le principe de l’adsorption. Elles sont composées de panneaux recouverts de charbon actif, fabriqué à base de coques de noix de coco, un matériau très poreux, capable de piéger une grande quantité de molé- cules(figure3).Cespanneauxsontrefroi- dis à 4,5 K par de l’hélium supercritique. A cette température les panneaux pour- ront piéger toutes les molécules ga- zeuses pouvant se trouver dans le tore : l’air (oxygène, azote, eau et dioxyde de carbone), les impuretés libérées par les Figure 2 : Pompes vis, scroll, palettes et roots. REE N°4/2016 87 ITER : vide et cryogénie parois (hydrogène, azote, oxygène, mo- noxyde de carbone, etc.), les isotopes de l’hydrogène non consommés et l’hé- lium, produit de la réaction de fusion. Le pompage du cryostat Le cryostat est une enceinte d’envi- ron 30 m de haut et 30 m de diamètre (fgure 4). Avec un volume total de 16 000 m3 , le cryostat d’ITER sera la plus grande enceinte à ultra vide au monde. Il abritera le cœur du tokamak : la chambre à vide, siège de la fusion, et les aimants supraconducteurs. Une des fonctions principales du cryostat est d’assurer l’iso- lation thermique des aimants supracon- ducteurs A l’intérieur du cryostat, le vide per- met de limiter tout phénomène de convection ou de conduction à travers le gaz. En opération, la pression y est de 10-6 mbar, soit un milliardième de la pression atmosphérique. Pour atteindre une telle pression, deux cryo-pompes sont raccordées au cryostat et assurent un pompage de l’enceinte en continu, pompant en permanence les micro- fuites et le dégazage des composants. Le volume libre à évacuer est de 8 500 m3 . Le pompage du tore De façon périodique, un étuvage du tore est réalisé afin de s’assurer du dégazage des matériaux. L’eau de refroidissement de la chambre à vide et des couvertures est portée à 200 o C grâce à un chauffage électrique de 15 MW. L’eau et les hydrocarbures présents sur les parois sont vaporisés et l’hydrogène piégé dans les maté- riaux est restitué. Ces impuretés sont pompées par les cryo-pompes. En fin d’étuvage, la température de la Figure 3 : Cryo-pompe de la chambre à vide d’ITER (28 panneaux de 100 cm x 20 cm). Figure 4 : Cryostat ITER 30 m x 30 m. 88 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER chambre à vide est abaissée à 100 o C et la pression dans le tore est de l’ordre de 10-5 mbar. En début de cycle, la cryo-pompe vient d’être régénérée : elle est froide (4,5 K), isolée du tore et prête à pomper. La cryo-pompe est ensuite connectée à la chambre à vide. Les molécules de gaz qui pénètrent dans l’enceinte de la pompe, sont piégées (adsorbées) sur ses panneaux. Ces derniers se chargent en molécules et leur niveau de saturation est estimé en fonction de la durée et du niveau de pression de la zone pompée. Lorsque la quantité limite de molécules piégées atteint un seuil défini, la pompe est dé- connectée de la chambre et connectée au vide primaire. Une circulation d’hé- lium chaud à travers le panneau per- met de restituer les molécules piégées, qui sont alors évacuées par le pom- page mécanique. La cryo-pompe est ensuite isolée du pompage primaire et les panneaux sont à nouveau refroidis avant de se connecter à la chambre à vide pour un nouveau cycle (figure 5). Le cycle du combustible Le plasma est produit à l’intérieur de la chambre à vide (volume torique de 1 400 m3 ). Une fois établi, il agit comme un piège. Les molécules pénétrant dans le plasma sont ionisées à leur tour et confinées par le champ magnétique ; elles diffusent ensuite vers la zone exté- rieure où les surfaces magnétiques sont ouvertes avant de venir au contact de la surface du “divertor” situé sur le « plan- cher » de la chambre à vide (figure 7). Avec sa forme particulière, le “divertor” agit comme une nasse et aspire les mo- Figure 5 : Fonctionnement des cryo-pompes du tore. Figure 6 : Séparation primaire de l’hélium. Figure 7 : le cycle du combustible. REE N°4/2016 89 ITER : vide et cryogénie lécules par les six cryo-pompes où elles sont piégées sur les panneaux adsor- bants. Les six cryo-pompes sont gérées de façon à maintenir en permanence la capacité de pompage requise. Les molécules s’accumulent par adsorption sur les panneaux des cryo- pompes. Une fois saturées, les cryo- pompes sont déconnectées de la chambre à vide et réchauffées. Les mo- lécules sont alors restituées et aspirée par le pompage primaire. En sortie de cryo-pompe, les mo- lécules passent par un système de séparation primaire (cold viscous flow compressor) permettant une première séparation de l’hélium et des combus- tibles deutérium et tritium (figure 6). Après avoir été refroidis à 80 K par une première batterie froide, le combus- tible est piégé par une seconde batterie à 4,5 K. Avec un point triple à envi- ron 15 K, le combustible est solidifié. L’hélium reste à l’état gazeux et continue sa progression jusqu’à être évacué par pompage mécanique. A intervalle régu- lier, le système de séparation est décon- necté et régénéré. La batterie froide est réchauffée, le combustible vaporisé et pompé par un système de pompage séparé. Au terme de cette première sépa- ration, hélium et combustible sont envoyés vers l’usine de recyclage du combustible (usine tritium). Cette usine permet de finaliser la séparation par dis- tillation cryogénique. Alors que l’hélium est évacué, le deutérium et le tritium non consommés peuvent être réinjec- tés dans la chambre à vide. La cryogénie pour ITER Paradoxalement, la cryogénie est souvent associée à la fusion nucléaire, réaction nécessitant des températures de l’ordre de 150 000 000 K. Comme l’électricité, le froid est nécessaire au fonctionnement du tokamak. Sur ITER, la cryogénie est utilisée pour le refroidisse- ment des aimants supraconducteurs gé- nérant le champ magnétique nécessaire au confinement du plasma et celui des cryo-pompes utilisées principalement pour assurer le vide dans la chambre à vide, siège du plasma. Les aimants et les cryo-pompes représentent ainsi respecti- vement 75 % et 25 % des charges ther- miques cryogéniques du tokamak. ITER sera de loin le plus gros toka- mak jamais construit. A la mesure de sa dimension, l’usine cryogénique néces- saire à son fonctionnement sera colos- sale, sensiblement plus importante que celles requises pour les tokamaks existants. Elle sera vingt fois plus impor- tante que celle de Tore-Supra (France) et dix fois plus que celle de KSTAR (Corée du Sud). Avec une puissance moyenne de 75 kW de réfrigération à 4,5 K et de 600 kW à 80 K, l’usine cryogénique d’ITER sera la plus concen- trée au monde : sur un seul site, ITER regroupe des équipements produisant l’équivalent de 85 % de la puissance cryogénique installée au CERN (Centre européen de recherche nucléaire) sur l’ensemble des 27 km du LHC (Large Hadron Collider). Les défis de la cryogénie Au sein d’ITER, la cryogénie relève trois défis majeurs : des masses à refroidir gigantesques, des gradients de tempéra- ture sans pareil sur terre et des variations de charges thermiques violentes. Les aimants supraconducteurs consti- tuent l’essentiel de la masse à refroidir. Ils représentent une masse totale d’environ 10 000 t, soit environ le poids de la tour Eiffel. L’ensemble sera maintenu en per- manence à une température de 4,5 K. Les gradients thermiques présents à l’intérieur du tokamak représentent un véritable challenge. De la même façon que sur Tore Supra, le plasma à 150 000 000 K, se produira à environ un mètre des aimants maintenus à quelques degrés au-dessus du zéro absolu. ITER ne fonctionnera pas de manière continue. Des plasmas de plusieurs mi- nutes se succèderont à intervalle régulier, faisant à chaque cycle varier d’un rapport de un à trois les charges thermiques à 4,5 K (40 kW ~ 110 kW). L’usine cryo- génique d’ITER devra s’adapter aux varia- tions importantes et rapides de charge du tokamak dans des mesures jamais encore expérimentées à ce niveau. Les gradients thermiques A l’intérieur de la chambre à vide, le confinement magnétique main- tient le plasma à distance des parois. Rayonnement et neutrons produits sont alors arrêtés par les modules de cou- verture de la chambre qui doivent sup- porter des températures de l’ordre de Figure 8 : Cryostat ITER 30 m x 30 m. 90 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER 1 000 K en surface et dans lesquels cir- culera un système d’eau pressurisée as- surant leur refroidissement. La chambre à vide, elle aussi refroidie par de l’eau pressurisée, sera maintenue à une tem- pérature stable de l’ordre de 375 K. Derrière la chambre à vide, des écrans refroidis à 80 K par de l’hélium gazeux bloquent le rayonnement thermique vers les aimants refroidis à 4,5 K par de l’hélium supercritique. Un second écran, également à 80 K, protège l’extérieur des aimants du rayonnement thermique environnant. Le cryostat, connecté à deux puissantes cryo-pompes, assure en permanence le vide nécessaire pour s’affranchir de tout échange de chaleur par convection autour des aimants. Le tokamak peut ainsi être vu comme une sorte de poupée russe. Les rendements thermiques Au-delà des défis inhérents à ITER, les lois de la thermodynamique viennent encore compliquer les choses. Pour une machine cryogénique idéale, basée sur le cycle de Carnot, le deu- xième principe de la thermodynamique nous amène à l’équation suivante : = Tf / (Tf + Tc) dans laquelle est le ren- dement ultime pouvant être atteint, Tf et Tc étant respectivement les températures de la source froide et de la source chaude exprimées en Kelvin. A la température de l’hélium liquide Tf = 4,5 K, et avec une température d’eau de refroidissement de Tc = 300 K (27 o C), le rendement ne pourra jamais être meilleur que 1,5 %. 1,5 % est donc le meilleur rende- ment qu’une machine de réfrigéra- tion hélium à 4,5 K pourra atteindre. Cependant, les machines ne sont pas parfaites et l’on parle de rendement par rapport à Carnot. Sur les usines cryo- géniques de forte puissance, comme sur ITER, le rendement par rapport à Carnot est de l’ordre de 25 %, ce qui ramène à un rendement global de 1.5 % x 25 % = 0,35 %. Sur ITER, pour fournir une puissance moyenne de réfrigération de 75 kW à 4,5 K, il faudra donc mettre en œuvre une puissance électrique de l’ordre de 22 000 kW. En additionnant les 600 kW de réfri- gération à 80 K, c’est environ 35 000 kW électrique qui seront nécessaires pour cou- vrir l’ensemble des besoins en froid d’ITER. En 1895, Carl Von Linde est le pre- mier à liquéfier de l’air. En 1908 Heike Kamerlingh Onnes est lui le premier à liquéfier de l’hélium. En 1965, les pre- miers liquéfacteurs d’hélium industriels développés par Air Liquide sont capables de produire environ 20 W de puissance de réfrigération à 4,5 K. Quatre mille de tels liquéfacteurs seraient nécessaires au fonctionnement d’ITER. Depuis 1965, le principe de fonctionnement a peu évo- lué. Le progrès s’est fait essentiellement sur la taille et la performance des équi- pements. Trois liquéfacteurs de 25 kW chacun suffiront à produire la puissance nécessaire à 4,5 K. Le système cryogénique Le système cryogénique d’ITER per- met de produire du froid à plusieurs niveaux de température (80 K, 50 K et 4,5 K), et à le distribuer vers ses diffé- rents utilisateurs. Il se compose essen- tiellement de trois sous-systèmes : le système azote produisant la puissance de réfrigération à 80 K, le système de réfrigération hélium produisant la puis- sance à 4,5 K, et le système de distri- bution permettant d’acheminer l’hélium froid jusqu’au tokamak. Le système azote se compose d’une usine de production d’azote gaz d’une capacité de 50 t par jour, et de deux usines d’azote liquide, chacune d’une capacité de 550 kW à 77 K (figure 9). Il faudrait une douzaine de camions de fourniture d’azote liquide par jour pour atteindre la capacité de réfrigération de ces usines. L’azote pouvant être activé par le flux de neutrons (N14 + 1n C14 + 1p), ne peut pas être utilisé à l’intérieur du to- kamak. Il sera uniquement utilisé pour pré-refroidir l’hélium à 80 K. Le système hélium permet la pro- duction d’hélium froid à 80 K et 4,5 K (figure 10). Deux usines de 300 kW cha- cune : les boucles hélium 80 K, permet- tent de produire l’hélium à 80 K, et trois usines d’hélium liquide d’une capacité de 25 kW chacune assurent les beso- ins de réfrigération à 4,5 K. Toutes ces usines utilisent de l’azote liquide à 80 K pour pré-refroidir l’hélium. Le système d’hélium est complété par un vaste sys- tème de stockage et de récupération et purification. La distribution d’hélium à 80 K destinée à alimenter les écrans ther- miques est assurée par deux systèmes de circulation installés en parallèle (figure Figure 9 : Système azote. REE N°4/2016 91 ITER : vide et cryogénie 11). Deux puissants compresseurs cen- trifuges compriment l’hélium à tempéra- ture am-biante et à 18 bars. De l’azote liquide est utilisé pour refroidir l’hélium à 80 K avant qu’il ne soit envoyé dans les écrans thermiques protégeant ainsi des rayonnements thermiques les parties les plus froides (4,5 K) de la machine. La distribution d’hélium à 4,5 K est destinée à alimenter les aimants supraconducteurs et les cryo-pompes. Elle est assurée par cinq boîtes froides auxiliaires : une pour les cryo-pompes et quatre pour les aimants : champs toroï- daux (TF), champs poloïdaux (PF & CC) et solénoïdes centraux (CS) et les struc- tures. Les cinq boîtes froides auxiliaires ont une conception très similaire, et permettent de faire circuler de l’hélium supercritique à 5 bars et 4,5 K. Chaque boîte auxiliaire est équipée d’un circula- teur cryogénique fonctionnant à 4,5 K, et de deux bains d’hélium liquide. Un bain en aspiration du circulateur permet de refroidir et de densifier l’hélium, et un bain au refoulement d’extraire la chaleur de compression avant d’envoyer l’hé- lium vers les utilisateurs. Le bain situé au refoulement du circulateur est équipé d’un compresseur froid, qui permet si nécessaire d’abaisser la pression et donc la température du bain d’hélium liquide afin d’ajuster finement la température délivrée (entre 3,7 K et 4,5 K). Chaque boîte auxiliaire sera capable, grâce à son circulateur cryogénique, de faire circuler entre 5 et 10 t/h d’hélium. Les infrastructures L’usine cryogénique occupe à elle seule une superficie de 8 000 m2 sur la plate-forme ITER (figure 12).Elle s’étend sur trois zones. La zone extérieure (A53) regroupe les stockages gaz et liquide ainsi que les boîtes froides des usines azote et hélium 80K, le bâtiment com- presseur (B52) regroupe les compres- seurs de l’usine, et le bâtiment (B51) les boîtes froides des trois usines hélium liquide. Les usines de production sont ensuite connectées par un pont – le “bridge” – au bâtiment tokamak. La zone extérieure (A53) s’étend sur 160 m de long et 15 m de large. Elle regroupe les boîtes froides des usines de production d’azote gaz, de liquéfaction d’azote et les boucles hélium 80 K et également de grosses capacités de stoc- kages gaz et liquide (hélium et azote). Figure 10 : Système hélium. Figure 11 : Distribution de l’hélium à 80 K. Figure 12 : Plate-forme ITER. 92 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER Le bâtiment (B51, B52), d’une hau- teur de six étages (20 m), long de 120 m et large de 45 m, recouvre la surface d’un terrain de football. Il faut plus de 3 km de tuyauterie chaude et 2 km de lignes cryo- géniques pour connecter les différents modules. Le bâtiment est divisé en deux zones : B51 pour l’ensemble des com- presseurs et B52 pour les boîtes froides de l’usine hélium. La salle des compresseurs (B51), regroupe 28 compresseurs : pour faire fonctionner à pleine puissance l’usine dans son ensemble il ne faudra pas moins de 35 MW électrique, l’équivalent Figure 13 : ITER bâtiments cryogéniques (extérieur). Figure 14 : ITER bâtiments cryogéniques (intérieur). REE N°4/2016 93 ITER : vide et cryogénie de la consommation d’une ville fran- çaise de 50 000 habitants. L’évacuation de la chaleur de compression se fera par circulation d’eau de refroidissement : 2 500 m3 /h, soit environ une piscine olympique toute les heures. Le « bridge » (pont) permet ensuite de connecter l’usine cryogénique au bâtiment tokamak. Ce pont permettra le cheminement des nombreuses lignes process sur 130 m. Le système de distribution hélium permet ensuite d’acheminer l’hélium à l’intérieur du bâtiment Tokamak (figure 15). Il faudra plus de 3 km de lignes cryogéniques pour connecter les diffé- rents utilisateurs. Ce réseau s’intègre à l’intérieur du bâtiment du tokamak. Les lignes cryogéniques sont conçues pour limiter les entrées ther- miques, qui restent sur ITER en deçà de 2 kW soit moins de 3 % de la puis- sance de réfrigération. Les tubes sont recouverts de super-isolant, succession de couches de plastique aluminisé et de tissus de fibres isolantes (figure 16). Ils sont ensuite intégrés en faisceau, à l’intérieur d’une enceinte sous vide, maintenus à intervalles réguliers par des intercalaires en époxy. Les procédés mis en œuvre La séparation cryogénique de l’air et la production d’azote et d’hélium liquide se basent sur deux cycles thermody- namiques : Joule-Thomson et Brayton. L’association de ces deux cycles est connue sous les noms de cycle de Claude ou cycle de Linde, respectivement fonda- teurs des entreprises l’Air Liquide et Linde. Fluide Type Refoulement Nombre Puissance Unitaire Air Centrifuge 10 bars 1 x 0,7 MW Azote Centrifuge 35 bars 2 x 4,7 MW Hélium Centrifuge 18 bars 2 x 0,8 MW Hélium Vis 5 bars 12 x 1,0 MW Hélium Vis 22 bars 6 x 2,5 MW Hélium Piston 5 x 0,1 MW TOTAL 28 39 MW Table 1 : Liste des compresseurs de l’usine cryogénique d’ITER. Figure 15 : Réseau de distribution hélium. Figure 16 : Exemple de ligne cryogénique. 94 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER Les chapitres suivants décrivent les procé- dés retenus pour ITER de façon simplifiée. La production d’azote L’azote est produit à partir de l’air ambiant. Il est aspiré puis filtré avant d’être comprimé à 8 bars environ. L’air est ensuite refroidi par le système d’eau de refroidissement, puis l’humidité et le dioxyde de carbone sont piégés par ad- sorption dans un système de purification. Deux pots d’adsorbant sont installés en parallèle de façon à assurer une épura- tion de l’air en continu, un des pots étant régénéré pendant que l’autre est en fonctionnement. L’air est ensuite refroidi dans un échangeur, puis introduit dans une colonne de distillation. La tempéra- ture de la colonne est maintenue grâce à une alimentation en azote liquide. Dans la colonne, l’azote, qui a une tempéra- ture de liquéfaction inférieure à celle de l’oxygène, reste sous forme de gaz, alors que l’oxygène se liquéfie, et se retrouve entraîné par la gravité en pied de colonne (à 1 bar, l’azote se liquéfie à 77 K et l’oxy- gène à 90 K). L’oxygène liquide est extrait, puis détendu, le liquide plus froid ainsi obtenu est injecté dans le condenseur (partie supérieure de la colonne) et per- met de refroidir l’azote et d’en augmenter sa pureté avant de l’extraire en sommet de la colonne. L’oxygène et l’azote froid sont utilisés pour refroidir l’air avant de l’injecter dans la colonne. L’azote produit est à température ambiante. L’oxygène est rejeté dans l’atmosphère à tempéra- ture ambiante. Le cycle de réfrigération de l’azote (figures 17 et 18) Après une compression jusqu’à 35 bars environ, l’azote est refroidi par le système d’eau de refroidissement. L’azote est ensuite canalisé vers une turbine et un turbo-booster installés en parallèle. La turbine extrait de l’énergie à l'azote et abaisse sa température. Le turbo-booster, plus perfectionné, per- met d’utiliser l’énergie extraite au fluide afin de surcompresser l’azote jusqu’à 50 bars. Une fois sa température suf- fisamment basse, l’azote est détendu à travers une vanne afin de produire du liquide. La détente se fait en deux étapes : une à 5 bars au cours de la- quelle de l’azote liquide à 94 K est pro- duit, et une à 1 bar, où l’azote liquide à 77 K est obtenu. Figure 17 : ITER -Cycle de production azote. Figure 18 : ITER -Cycle de liquéfaction azote. Figure 19 : ITER -Cycle de liquéfaction hélium. REE N°4/2016 95 ITER : vide et cryogénie L’approvisionnement de l’hélium (figure 19) Contrairement à l’azote qui sera direc- tement produit sur site à partir de l’air am- biant, l’hélium devra être approvisionné depuis l’extérieur. L’hélium est une res- source naturelle présente en faible quan- tité dans le gaz naturel. Principalement extrait aux Etats-Unis, au Qatar et en Algérie, l’hélium sera livré sur le site d’ITER sous forme liquide dans des containers de 11 000 US gallons (~40 m3 ). Le cycle de réfrigération de l’hélium Après une compression jusqu’à 20 bars environ, l’hélium est refroidi par le système d’eau de refroidissement, puis grâce à de l’azote liquide jusqu’à 80 K. En dessous de cette température, des turbines cryo- géniques sont utilisées afin de refroidir l’hélium. Quatre turbines sont nécessaires. Une fois sa température suffisamment abaissée l’hélium est détendu à travers une vanne afin de produire du liquide à 4,5 K. Les technologies mises en œuvre Les principaux composants mis en œuvre dans la conception d’unités cryo- géniques sont : les compresseurs, les échangeurs de chaleur et les machines tournantes froides. Les compresseurs Pour les cycles cryogéniques, deux types de compresseurs sont principa- lement utilisés (figure 20). Les com- presseurs centrifuges avec de très bons rendements (75 %) ont été développés pour les usines de séparation d’air. Ils accélèrent le gaz et convertissent l’éner- gie cinétique en pression. Utilisés sur ITER pour les usines d'azote et sur la boucle hélium (18 bars), ils ne conviennent pas à la compression de l’hélium à plus faible pression. En effet, la très faible masse molaire de l’hélium (4 g/mole contre 28 g/mole pour l’azote) ne permet pas de convertir efficacement son énergie ciné- tique en pression. Les usines de liquéfac- tion hélium utilisent des compresseurs à vis, volumétriques, essentiellement développés pour les unités de réfrigéra- tion industrielles (chambres froides, pati- noire…). Malgré leurs rendements plus faibles (50 %), ils restent à ce jour la solu- tion retenue pour les unités de liquéfac- tion de l’hélium. Les échangeurs La cryogénie fait appel à des échan- geurs de chaleur de grande efficacité : les échangeurs à plaques d’aluminium brasés (figure 21). Ces échangeurs consistent en une alternance de pas- sages munis d’ailettes faisant circuler les fluides à contre-courant. Ces échan- geurs sont fabriqués d’un seul tenant et ne sont pas démontables une fois as- semblés. Leurs dimensions, limitées par la taille des fours de brasage, peuvent aller jusqu’à 7 m x 1 m x 1 m. Les turbines cryogéniques Les turbines cryogéniques, sont des éléments clefs de la production de froid sur ITER. Celles-ci permettent d’abais- ser la température des gaz. Le gaz est accéléré à la vitesse du son avant d’être envoyé sur la périphérie des pales de la turbine. Tout en suivant les pales de leur extrémité vers le centre, la vitesse du gaz diminue, l’énergie cinétique étant cédée à la turbine. Les molécules de gaz sont ralenties, ce qui revient à un abaissement de leur température. L’isolation L’isolation fait également partie des technologies clefs liées à la cryogénie. Deux technologies bien différentes sont utilisées. Sur ITER, comme ailleurs, pour les usines fonctionnant à 80 K, les équipements sont assemblés dans une colonne perlitée : structure recouverte de bardage, remplie de granules de per- lite (sable volcanique expansé). La per- lite agit alors comme un isolant autour des équipements. Grâce à un faible débit continu d’azote sec, la structure est maintenue en légère surpression, de façon à limiter les entrées d’humidi- té. Pour les unités fonctionnant à 4,5 K, une technologie différente s’impose : la super-isolation. Les équipements sont assemblés à l’intérieur d’une en- ceinte à vide et recouverts d’un isolant multicouche alternant feuilles alumi- nisées, réfléchissant le rayonnement thermique, et feuilles en fibres de verre limitant la conduction thermique en- tre feuilles aluminisées successives. Figure 20 : Compresseurs à vis et centrifuges. Figure 21 : Echangeur en aluminium brasé. 96 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER Le vide permet d’éviter tout échange de chaleur par convection. Ces tech- niques donnent des formes distinctes et reconnaissables aux « boîtes froides » 80 et 4,5 K (figure 22). Schéma industriel Pour relever ces défis du vide et de la cryogénie, le projet s’appuie sur de nombreux partenaires. De par ses dimensions et son utilisation, le système de vide d’ITER est exceptionnel. Uniques en leur genre, les pompes cryogé- niques sont le résultat d’un long processus de recherche et développement, réalisé en partenariat avec l’agence domestique eu- ropéenne, Fusion for Energy (F4E) et des universités telles que Karlsruhe Institute of Technology (KIT). ITER Organization et les agences domestiques de l’Inde (ITER India) et de l’Europe (Fusion for Energy) se sont associées pour concevoir, approvision- ner, installer et démarrer le système cryogénique nécessaire au fonction- nement d’ITER. ITER Organization a la responsabilité de l’approvisionnement des usines d'hélium, l’Europe celle de l’approvisionnement des usines d'azote, et l’Inde celle de la distribution et des lignes cryogéniques. Les partenaires industriels retenus pour le projet ITER sont de grands noms de la cryogénie : Air Liquide, Linde, INOXCVA. Bibliographie [1] https://www.iter.org/ [2] Eric Fauve & al, “ITER Cryoplant Infra- structures” ICEC: International Cryogenic EngineeringConference(2016). [3] Eric Fauve & al, “ITER LHe Plants Parallel Operation” ICEC: Interna-tional Cryogenic Engineering Conference (2014). [4] Eric Fauve & al, “Design, construction and performances of the KSTAR helium refrigeration system” ICEC: International Cryogenic Engineering Conference (2008) [5] Guy Gistau, “Guy Gistau looks back at his carreer” Cold Facts, Apr. 2014 Vol. 30 #2. [6] Christian Day & al. “Validated Design of the ITER Main Vacuum Pumping Systems”, IAEA Fusion Energy Con- ference (2004.) [7] Bastien Boussier & al. “Preliminary design of ITER cryopumps front-end cryodistribution system instrumen- tation and controls”, SOFE 2015 Special Issue of the IEEE journal Transactions on Plasma Science. Figure 22 : Boîtes froides 80 K et 4,5 K. LES AUTEURS Eric Fauve, ingénieur (Centrale Mar- seille, ESIM-2002) a travaillé pour Air Liquide Advanced Technologies de 2002 à 2012 en tant que respon- sable technique sur des projets de cryogénie hélium de forte puissance en Corée du Sud (KSTAR, KHNP WTRF), au Qatar (RasLaffan He1 et 2) et aux Etats-Unis (SNS 20K). En 2012, il rejoint le projet ITER en tant que responsable technique de l’usine d'hélium. Depuis mai 2016, il est ingénieur en chef au SLAC (Stanford Linear Accelerator), res- ponsable de la cryogénie dans le cadre du projet LCLS-II. David Grillot, ingénieur (INPG Gre- noble), a rejoint le projet ITER en tant que chef de la section cryogénie en janvier 2016 après 20 années chez Air Liquide où il était dernièrement responsable technique et expert in- ternational pour le département des très basses températures. REE N°4/2016 97 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITER DOSSIER Introduction Le développement des matériaux (ainsi que des technologies permettant leur assemblage) est un défi majeur que l’ingénierie des composants ex- posées au plasma doit relever afin de satisfaire les nombreuses contraintes d’un réacteur de fusion électrogène. Bien que les objectifs du projet ITER soient bien moins contraignants que ceux d’un réacteur en ce qui concerne les aspects nucléaires, les interactions plasma-matériaux de première paroi restent difficiles à maîtriser [1,2,3]. Les matériaux de première paroi sélection- nés devront en effet résister à des flux de chaleur de l’ordre de la dizaine de MW/m2 , à des températures de surface La chambre à vide Fonctions et matériaux Par Jean-Marc Martinez1 Vessel Engineer, Tokamak Engineering Department, Vessel Division - ITER Organization 1 L’auteur est seul responsable des faits énoncés et opinions émises dans cet article The ITER Tokamak Vacuum Vessel is a high vacuum torus-shaped vessel made of stainless steel in a double wall structure where cooling water will circulate. It measures slightly more than 19 meters wide and 11 meters in height, for a mass of more than 5 000 tonnes (8 500 tonnes including the in-vessel components). The main Vacuum Vessel functions are: fusion seat, confinement barrier, high-vacuum insurance and the diagnostic & heating systems access. In addition a number of in-vessel components are attached to the vacuum vessel inner walls such as the blanket modules that protect the inner wall against high thermal loads and neutrons of high energy produced by the fusion reaction and the divertor which ensures extraction of the fusion reaction products and other plasma impurities as well. In view of the multiple functions of the vacuum vessel and in-vessel components, the development of suitable materials is one of the major challenges to be faced. The main guidelines associated to these functions will be: ABSTRACT Figure 1 : La chambre à vide d’ITER et ses quarante-quatre pénétrations. Cette enceinte équipée des composants internes pèse 8 500 tonnes, soit légèrement plus que la masse de la tour Eiffel [1]. 98 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER pouvant atteindre 1 500 °C tout en assurant un taux d’érosion acceptable vis-à-vis de l’opération de la machine malgré des flux de particules énergé- tiques très élevés. La chambre à vide est une structure hermétique à double paroi en acier inoxydable entre lesquelles circule l’eau de refroidissement. A l’intérieur de la chambre viennent s’intégrer des com- posants face au plasma tels que les modules de couverture qui protègent l’intérieur de la chambre à vide contre les charges thermiques élevées et contre les neutrons de haute énergie produits par la réaction de fusion et le divertor qui assure l’extraction des produits de la réaction de fusion, ainsi que d’autres impuretés issues du plasma. Siège de la fusion, barrière de confi- nement, garante de l’ultra-vide, fournis- seur d’accès pour les diagnostics et les systèmes de chauffage, bouclier ther- mique face au plasma, en charge de l’extraction des produits de fusion et des tests des couvertures fertiles : à la vue de ces multiples fonctions de la chambre à vide et de ces composants internes, le développement de matériaux adaptés constitue l’un des défis majeurs à rele- ver. Les principales lignes directrices qui accompagneront ces fonctions seront : en résistant à toutes les charges opé- rationnelles attendues (thermiques, mécaniques, nucléaires, sismiques) ; plasma permettant l’opération d’un plasma de fusion thermonucléaire ; émise par le plasma de fusion ; nucléaires. Les matériaux utilisés pour la structure des composants ainsi que les technolo- gies développées devront également prendre en compte les contraintes liées à la compatibilité à l’ultra-vide et présen- ter des propriétés magnétiques, physico- chimiques et structurelles, adaptées aux opérations, aux exigences de radiopro- tection et technologiques (soudage, bra- sage, etc.), le tout sans oublier la réalité des coûts. Fonction : enceinte à vide Conception de la chambre à vide La chambre à vide est une structure de révolution d’axe vertical à double pa- roi en acier inoxydable entre lesquelles circulera l’eau de refroidissement. Avec un volume total de 1 600 m3 , la chambre à vide d’ITER permettra d’établir un vo- lume de plasma (840 m3 ) qui sera dix fois plus grand que celui du plus grand des tokamaks aujourd’hui en activité (le JET, en Angleterre). Elle mesurera plus de 19 m de large et 11 m de haut, pour une masse supérieure à 5 000 t (avec la couver- ture et le divertor, ce poids sera porté à 8 500 t). L’accès à l’intérieur de la chambre plasma se fera au travers de 44 queusots ou « pénétrations » pour les opérations de télémanipulation et les interventions sur les installations de diagnostics, de chauffage et de vide (figure 1). Garantir l’ultra-vide La fonction principale de la chambre à vide est bien entendu de garantir le vide ; environnement indispensable au plasma (volume de 1 400 m3 ). Après l’étuvage de la chambre, c’est- à-dire le dégazage des matériaux par les cryo-pompes suite à une montée impor- tante en température du circuit d’eau de refroidissement (cf. section sur le condi- tionnement de l’ultra-vide), la pression partielle de tous les éléments dans la chambre (autre que l’hydrogène) est de l’ordre de 10-7 mbar. Le vide s’obtient via la succession de deux paliers, le vide primaire (>1 mbar) puis le vide secon- daire (<1 mbar) qui font appel à des technologies différentes dont les détails sont donnés dans l’article cité. Il faut donc satisfaire à des exigences très strictes concernant la qualité de la paroi interne de la chambre à vide néces- saires pour garantir l’ultra-vide [4]. Une at- tention particulière doit être apportée aux différents types d’assemblage tels que l’assemblage mécanique (taraudages, filetages et rainurages), l’assemblage collé (les colles ont tendance à dégazer et vieil- lissent mal avec le temps et les chocs) et l’assemblage soudé (la fusion reste le moyen le plus sûr pour obtenir une jonc- tion étanche de même nature) mais aussi à l’état de surface des matériaux (de base ou non) employés. Les pièces destinées à l’ultra vide doivent suivre un protocole strict de fabrication de manière à éviter la contamination par des impuretés, accom- pagné d’un stockage dans un endroit propre et non oxydant (tableau 1). Tableau 1 : Différentes causes de mauvais dégazage de surface [4]. Etat de surface Cause Détails Solution/Produit Gras - Souillé Mauvais nettoyage Chaque élément doit être minutieuse- ment nettoyé avant assemblage Pentane, Acétone, Alcool… Mauvaise manutention Dépôt de gras et de copeaux Gant blanc, outils propres Mauvais stockage Mettre les pièces dans un endroit propre avec des protections Bouchon, Couvercle, Papier aluminium scotché sur l’extérieur de l’enceinte Oxydé À l’air ambiant L’humidité de l’air La surface oxydée modifie les propriétés de dégazage Au contact des fluides Phénomènes d’électrolyse Provoque des micro fuites voire plus. REE N°4/2016 99 La chambre à vide Il est donc aisé d’imaginer qu’avant toute opération, si l’une de ces exigences n’est pas respectée, une chasse aux fuites devient nécessaire ce qui implique nécessairement une perte de temps pro- portionnelle aux fuites constatées. Blindage neutronique et homogénéisation des lignes de champ magnétique toroïdal Le volume à l’intérieur de la double paroi de la chambre est occupé à 55 % par des inserts de blindage (figure 2). Ces tôles en en acier doux ferritique (sous les bobines TF) et non-ferritique pour les autres zones ont également un rôle de correction des fluctuations du champ ma- gnétique toroïdal, réduisant la diminution du champ toroïdal entre deux bobines TF créant des « miroirs locaux » pouvant im- pacter de façon négative la performance du plasma. Pesant jusqu’à 500 kg cha- cune, ces tôles augmentent le blindage neutronique de la chambre à vide, limitant ainsi le rayonnement vers les aimants. Ces tôles sont disposées en sandwich avec intercalaires pour permettre la circu- lation de l’eau entre les tôles. Les deux tiers de ces éléments stratégiques, au nombre de 9 000, seront installés pen- dant la fabrication de la chambre à vide ; le reste sera livré sur le site ITER pour une mise en place pendant la phase d’assem- blage de la machine. Matériaux peu réactifs aux neutrons rapides L’un des principaux défis de l’exploi- tation industrielle de l’énergie de fusion consiste à développer les matériaux capables de conserver leurs propriétés physiques après avoir été sollicités aux conditions extrêmes (thermiques et neutroniques) qui règnent dans un ré- acteur de fusion et dont la décroissance radioactive est rapide. La R&D sur la fusion a déjà abouti au développement d’aciers à faible niveau d’activation basé sur plus de 30 ans d’expériences avec les réacteurs à neu- trons rapides notamment en France et dans l’Union européenne. Un acier aus- Figure 2 : Insert de blindage occupant le volume à l’intérieur de la double paroi de la chambre à vide immergé dans l’eau de régulation thermique. En mars 2016 en Inde chez Avasarala Technologies Ltd, déjà des milliers de plaques d’inserts sont usinées [1]. Éléments Pourcentage Détails Cobalt* < 0.05 Limitation des impuretés issues de la corrosion Diminution du phénomène de transmutation sans affecter les propriétés Niobium* < 0.01 Tantale* < 0.01 Limitation des impuretés issues de la corrosion Cuivre < 0.3 Bore < 0.002 (0.001) Amélioration de la soudabilité des aciers irradiés Phosphore < 0.025 Liés au procédé de fabrication métallurgique. Éléments Inhérents. Une diminution augmente la qualité de l’acier. Soufre 0.01 Tableau 2 : Redéfinition des taux permissibles d’éléments significatifs [5,6]. (* ) Eléments concernés par les exigences de radioprotection pour les déchets FMA-VC (Type A). 100 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER ténitique inoxydable, désigné comme l’inox 316L(N)-IG a été sélectionné pour la fabrication de la chambre à vide. Ce matériau est d’une base standard RCC- MR X2CrNiMo17-12-2 à azote contrôlé en raison de ses bonnes caractéristiques : résistance à la corrosion, soudabilité, dis- ponibilité et propriétés mécaniques aux- quelles viennent se greffer des exigences supplémentaires d’ITER telles que la redé- finition des taux permissibles d’éléments significatifs (tableau 2), une perméabilité magnétique inférieure à 1,03 et les exi- gences du vide (inclusions). Comme les aciers conventionnels de type 316L, le 316L(N)-IG possède de bonnes propriétés de fabrication et de soudabilité et ceci pour une large gamme de produits. De nouvelles avancées sont atten- dues, tant pour l’acier que pour d’autres matériaux aux propriétés adaptées aux réacteurs de fusion. En 2007, en com- plément de leur engagement dans ITER, EURATOM et le Japon ont signé l’accord d’approche élargie (Broader Approach). C’est dans ce cadre que sont conduits des travaux de R&D visant notamment à développer des technologies de pointe pour les futurs réacteurs de fusion de démonstration (DEMO). Des travaux sont en cours pour finaliser la conception intégrée d’une installation internationale d’irradiation des matériaux en neu- trons de 14 MeV (International Fusion Materials Irradiation Facility - IFMIF), qui permettra de tester et de qualifier des matériaux avancés dans un environne- ment neutronique similaire à celui des futures centrales de fusion. Fonction de sûreté ITER est une installation nucléaire de base INB-174 dans lequel la chambre à vide est une partie de la première bar- rière de confinement pour le tritium, élément radioactif dont il faut se proté- ger. En effet, le tritium est un élément qui, bien que faiblement radioactif, doit être confiné de manière extrêmement rigoureuse car il se dissémine partout et surtout dans l’oxygène. Pour éviter tout risque de relâche- ment de tritium, plusieurs barrières se dressent entre l’installation et l’environ- nement et les parois de la chambre à vide constituent la première de ces bar- rières de sûreté. La deuxième est for- mée par les bâtiments et les systèmes de détritiation chargés d’extraire le tri- tium des gaz et des liquides. Le rapport préliminaire de sûreté spécifie l’utilisation du code RCC-MR qui propose des règles de conception et de construction des matériels mécaniques contenus dans des îlots nucléaires de type réacteur à neutrons rapides (RNR) imposant alors des choix technologiques importants et tout particulièrement sur les matériaux (Cf. section précédente). Fonction de régulation thermique & conditionne- ment de l’ultravide À l’intérieur de sa structure en double paroi, une eau de refroidissement circule afin de répondre aux fonctions suivantes : de l’opération de plasma (T = 100 o C ± 10 o C & P = 8 bars ± 3 bars) ; - voir des conditions de l’ultra-vide (T = 200 o C ± 10 o C & P = 21 bars ± 3 bars, Cf. section sur la garantie de l’ultra-vide) ; C’est la pression maximale d’eau de refroidissement observée par la chambre à vide qui la classifie alors comme équi- pement sous pression nucléaire (ESPN) nécessitant un organisme indépendant autorisé par l’autorité de sûreté nucléaire (ASN) afin d’assurer la conception, la fa- brication et les essais de conformité. ITER sera également la première ma- chine de fusion dotée d’une couverture à refroidissement actif. En raison de l’in- tensité des dépôts de chaleur que l’on anticipe, la couverture est conçue pour supporter une charge thermique maxi- male capable de dépasser 500 MW. Fonction de limitation des transferts thermiques L’écran thermique Des écrans thermiques placés à deux endroits différents — entre la chambre à vide et les aimants, et entre les aimants et le cryostat (figure 3) — limiteront le transfert thermique entre les zones de température élevée et les éléments qui Figure 3 : L'écran thermique activement refroidi par un flux d'hélium à la température de 80 K [1]. REE N°4/2016 101 La chambre à vide doivent être maintenus à basse tempé- rature. Une réduction de la charge ther- mique issue du plasma d'environ deux ordres de grandeur est indispensable pour que les systèmes cryogéniques d’une puissance raisonnable assurent le refroidissement efficace et stable des aimants, des cryo-pompes et du bou- clier thermique (Cf. article d’Eric Fauve). Un revêtement de faible émissivité L’écran thermique est composé de panneaux en acier recouverts d'une couche d'argent de manière à mainte- nir le pouvoir d'émission en dessous de 0,05. Les panneaux sont activement refroidis par un flux d'hélium à la tem- pérature de 80 K (- 193 °C), circulant à l'intérieur des tubes de refroidissement soudés à la surface des panneaux. La surface totale du bouclier thermique est de quelque 10 000 m² pour une hau- teur maximale de 25 m. Fonction de couverture thermique face au plasma Une conception modulaire adaptée à la forme en D du plasma Les modules de couverture pro- tègent l’intérieur de la chambre à vide contre les charges thermiques élevées et absorbent l’énergie des neutrons protégeant ainsi les bobines supracon- ductrices. Ils ralentissent les neutrons, transformant leur énergie cinétique en énergie thermique qui sera dissipée par l'eau de refroidissement. Dans la phase d’industrialisation de la réaction de fusion, cette énergie sera utilisée pour produire de l'électricité. Chaque module mesure 1 x 1,5 m et pèse jusqu'à 4,6 t. Il en existe quelque 180 variantes (en fonction de l'emplace- ment du module au sein de la chambre à vide). Structures amovibles, toutes ont en commun une première paroi dé- montable (un remplacement peut être effectué en fonction de son érosion) positionnée directement face au plasma et chargée d'en évacuer la charge ther- mique. Les modules doivent en outre permettre le passage de plusieurs sys- tèmes de diagnostic, des dispositifs de visualisation et des systèmes de chauf- fage du plasma [7]. Matériaux peu compatibles avec le plasma La couverture est l'un des compo- sants d'ITER les plus critiques et les plus délicats à réaliser du point de vue tech- nique car elle se trouve directement positionnée face au plasma chaud comme le divertor. En raison de ses propriétés physiques exceptionnelles, on a choisi le béryllium (Be) comme matériau de revêtement de la première paroi : il contamine peu le plasma et assure un bon transfert thermique vers le circuit de refroidissement. Par ail- leurs, le béryllium est supposé réduire Figure 4 : Un « carrelage » de 440 modules de couverture qui protège l’intérieur de la chambre à vide et les aimants et 54 cassettes formant le divertor qui assure l’extraction de la chaleur, des cendres d’hélium et d’autres impuretés issues du plasma [8]. 102 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER la rétention du tritium par rapport au carbone, sujet en cours de confirma- tion dans les tokamaks actuels. Le bloc de blindage quant à lui sera constitué d'acier inoxydable. Les panneaux de première paroi pro- tègent le bloc de protection du contact direct avec le plasma. Ils assurent égale- ment la protection de l'enceinte et des modules de couverture en évacuant le flux thermique rayonné par le plasma. Outre le béryllium déjà cité, les autres matériaux utilisés dans le système de couverture sont l'alliage cuivre-chrome- zirconium (CuCrZr) pour le dissipateur thermique (puits thermiques) et l'acier 316L (N) [6]. En fonction de leur position à l'inté- rieur de la chambre à vide, ces panneaux sont soumis à différents flux thermiques. Des années de recherche et de déve- loppement (semi-prototypes, proto- types échelle 1, analyses) ont permis de mettre au point deux types de panneaux différents : l'un a été conçu pour sup- porter des flux thermiques de l'ordre de 2 MW/m2 et l'autre jusqu'à 4,7 MW/m2 . Ce deuxième type de panneau est ins- tallé dans les zones de la chambre à vide où l'interaction entre le plasma et la paroi est la plus intense. Pendant la durée de vie opérationnelle du tokamak ITER, ces panneaux pourront être remplacés. La première paroi est composée de « doigts ». Chacun de ces doigts est fixé à une structure poloïdale qui forme l'ar- mature structurelle de chaque panneau de la première paroi et à travers laquelle circule l'eau de refroidissement. La pre- mière paroi sera couplée à un bouclier thermique refroidi à l'eau — élément structurel de la couverture. Fonction d’extraction de la chaleur et des impure- tés issues du plasma : le divertor Une conception optimisée au point X du plasma Le « divertor » est l’un des composants fondamentaux d’ITER. Il est composé de 54 « cassettes » pour une masse totale de 700 t. Courant sur le « plancher » de la chambre à vide, il assure l’extraction de la chaleur, des cendres d’hélium et des autres impuretés transportées par le plasma qui a diffusé au travers de la dernière surface magnétique fermée. Chaque cassette est constituée d'une Figure 6 : Prototype à échelle réduite de composants face au plasma composé des panneaux de première paroi, du puits thermique et du bloc de protection en acier 316L(N) [1]. Figure 5 : Surfaces de flux magnétiques à l’origine de la conception des composants internes (parois face au plasma) avec optimisation au point X d’intersection [7]. REE N°4/2016 103 La chambre à vide structure en acier inoxydable et de trois éléments, ou « cibles », positionnés face au plasma: une cible verticale interne, une cible verticale externe et un dôme (figure 4). Positionnées à l'intersection des lignes de force du champ magnétique, là où les particules de plasma rejoignent la ligne de stagnation tangente à ligne X d’intersection (figure 5), les cibles doivent pouvoir supporter des charges thermiques de surface très élevées. Elles sont refroidies de manière active par circulation d'eau. Matériaux de fonctionnement à haute température Les cibles sont exposées à des charges thermiques très importantes, de l'ordre de 10 à 20 MW/m² (soit 5 à 10 fois celles d'une capsule spatiale pendant la phase de rentrée dans l'atmosphère). Comme pour les modules de cou- verture, afin de diminuer les phéno- mènes induits de la dilation thermique, on a retenu une segmentation par blocs (figure 6) composés d’un maté- riau fonctionnel mais cette fois-ci de type tungstène entourant des tubes en CuCrZr dans lesquels circule le liquide du système de régulation thermique. Comme pour les modules de cou- verture, les cibles sont segmentées par blocs afin de diminuer les phénomènes résultant de la dilatation thermique dif- férentielle entre le matériau de surface (blocs de tungstène sélectionné en par- ticulier pour ses propriétés réfractaires, sa haute résistance à l’abrasion et sa faible affinité physico-chimique avec l’hydrogène) et le matériau des tubes de refroidissement (cuivre-chrome-zir- conium CuCrZr) [6]. Le tungstène (W) a été choisi en 2013 comme matériau de surface pour le Divertor d’ITER au terme d'une intense période de R&D internationale destinée à qualifier son utilisation dans l’environnement tokamak. Pour démon- trer la résistance des cibles en tungs- tène dans les conditions thermiques extrêmes de la machine ITER, des prototypes à échelle 1 ont été testés avec succès sur un banc d’essai dédié en Russie : le ITER Divertor Test Facility (composé d’un canon à électrons de 800 kW couplé à une boucle à eau pres- surisée et une chambre à vide équipée de diagnostics). Des expériences ont été et seront également réalisées dans des tokamaks existants comme au JET (Royaume-Uni) ; à Tore Supra (France) dans le cadre du projet WEST, à DIII-D (Etats-Unis), ASDEX (Allemagne) ou COMPASS (Tchéquie). L’objectif étant d’apporter des renseignements précieux sur le fonctionnement d'un divertor en tungstène lors de décharges longues (plusieurs minutes) ainsi que son im- pact sur les performances du plasma. Fonctions d’accès à la chambre plasma La chambre à vide possède 18 péné- trations hautes, 18 pénétrations équa- toriales et 9 pénétrations basses pour permettre l’accès aux systèmes de chauffage du plasma, de vide, d’alimen- tation, de diagnostics et les opérations de télémanipulations des composants internes (figure 7). 24 traversées sont dédiées à un système de diagnostics très complet, permettant de contrôler, d'évaluer et d'optimiser le comportement du plasma et d'en mieux comprendre la physique qui le gouverne. En particulier, des me- sures de température, de densité, de teneur en impuretés et de temps de confinement des particules et de l'éner- gie seront ainsi réalisées. Trois techniques de chauffage externe seront utilisées pour produire la puis- sance nécessaire (au maximum 72 MW) pour porter le plasma à la température propice aux réactions de fusion: l'injec- tion de neutres et deux sources d'ondes électromagnétiques de haute fréquence (Cf. article de Robert Aymar). Au niveau inférieur, trois pénétrations donneront accès aux cassettes du diver- tor pour permettre leur remplacement Figure 7 : La chambre à vide et ses 45 pénétrations permettant l’accès à divers systèmes. 104 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER ou la maintenance via une conception adaptée (structure modulaire et démon- table) à une manipulation robotique à distance (l’accès à l’enceinte devient impossible au personnel, passé un cer- tain seuil d’opération thermonucléaire) tandis que les six dernières pénétrations basses seront réservées aux systèmes de pompage sous vide (Cf. article d’Eric Fauve). Fonction test des couvertures fertiles tritigènes De nombreux programmes de re- cherche ont été mis en place pour déve- lopper de nouveaux matériaux face au plasma et caractériser leur vieillissement (tungstène ou carbure de silicium pour les armatures, aciers ferritiques-marten- sitiques pour les structures). ITER permettra aussi de tester plu- sieurs concepts de modules tritigènes (Cf. article de Robert Aymar). Les prin- cipaux objectifs pour le choix des ma- tériaux de ces couvertures test (Test Blanket Module, TBM) seront de ne pas engendrer de déchets radioactifs à vie longue, de limiter les phénomènes de dilatation thermique et d’assurer la dis- ponibilité du réacteur. Références [1] ITER website (www.iter.org). [2] R. Arnoux et J. Jacquinot, ITER Le chemin des étoiles ?, Édisud (2006). [3] ITER et les recherches sur la fusion par confinement magnétique, Reflets de la physique, 32 (2013). [4] S. Billoir, Soudure pour le vide / ultra- vide, 5ème rencontre Nationale des Mécaniciens, CNRS, 7-11 Juin 2004, Ile-de-France. [5] V.Barabashetal.,Materialschallenges for ITER - Current status and future activities, Journal of Nuclear Materials 367–370 (2007) 21–32. [6] V. Barabash & al., Materials for the ITER vacuum vessel and in-vessel components - current status, First Joint ITER-IAEA Technical Meeting on “Analysis of ITER Materials and Technologies”, 23-25 November 2010, Principality of Monaco. [7] Ph. Magaud & al., La fusion par confinement magnétique et les enjeux « matériaux », 19ème Congrès Français de Mécanique, 24-28 Août 2009, Marseille. [8] R.A.Pitts&al.,ShapingofITERplasma- facing components: physics basis and open issues, 15th PFMC Conference, 21 Mai 2015, Aix-en-Provence. L'AUTEUR Jean-Marc Martinez (Ecole centrale Marseille 2001 et docteur en méca- nique de l’université Aix-Marseille 2005) a orienté ses premières activi- tés de R&D dans la modélisation du comportement des matériaux et plus particulièrement sur le cas complexe des élastomères pour Airbus Heli- copters. Il s’est ensuite orienté vers la production d’énergie et s’est spé- cialisé dans le domaine du nucléaire pour devenir aujourd’hui Vessel Engineer chez ITER Organization, où il coordonne le design et les calculs de composants du tokamak ITER et tout particulièrement de la chambre à vide. REE N°4/2016 105 GROS PLAN SUR Introduction L e concept d’Internet des objets (IoT) fait florès depuis quelques années. Il ne se passe pas une journée sans qu’un article ou qu’une annonce commer- ciale ne vienne vanter tout le parti que l’on peut en attendre. L’idée de base est simple : il s’agit d’étendre à des « choses », c’est-à-dire à des entités matérielles ou logicielles, les fonctionna- lités offertes par l’Internet dans le domaine de la communication afin de leur permettre d’échan- ger entre elles ou avec des humains, toutes sortes d’informations ou de données. On en attend des retombées similaires – mais à une échelle beaucoup plus étendue – à celles qu’a apportées l’Internet dans le domaine de l’information et de la communication. Les domaines d’applications potentielles du concept d’IoT sont très variés. La figure 1 récapitule les principaux secteurs où la notion d’IoT semble aujourd’hui faire sens. Les attentes sont nom- breuses et variées : amélioration et diversification des services, nouvelles distractions, surveillance et sécurité, maintenance à distance, contrôle de pro- cédés ou d’infrastructures… Le discours marketing est riche en superlatifs quant aux apports possibles de l’IoT en termes d’efficacité, interopérabilité, ex- tensibilité, fiabilité, sécurité, etc. Le but des deux articles de ce Gros Plan n’est pas de discuter la validité de ce discours mais de « donner de la chair » au concept en abordant son contenu technique. En fait, l’IoT n’est pas une technologie mais un ensemble de technolo- gies qui, ayant acquis un degré de maturité suffisant, permettent L’Internet des objets Deux technologies clés : les réseaux de communication et les protocoles Jean-Pierre Hauet Membre émérite de la SEE. Rédacteur en chef de la REE In this article, we address one of the key factors of the success of the Internet of Things (IoT): the wireless radio communication networks. We first recall the general structure of IoT as a federation of local area networks capable to communicate with the Internet. We propose a classification of these networks into three functional levels: We review the various solutions available today, including new LWPAN networks (Long distance and low power wireless area networks), for generic applications (home automation, smart cities, agriculture, environment…) or for industrial applications which must comply with specific requirements (time criticality, low latency, availability, etc.). Mobility having to meet specific criteria (hand over, reliability ...), is not included in this analysis. We conclude by expressing the hope that the 5G, currently being specified, allows to achieve a synthesis of all these networks which constitute an eco-system often too complex for most potential users. ABSTRACT Figure 1 : Les principaux domaines d’application du concept d’IoT. 106 REE N°4/2016 GROS PLAN SUR de construire l’architecture à la fois globale et locale de l’IoT. L’IoT présente des liens étroits avec bon nombre de concepts qui, eux aussi, font appel à ces technologies nouvelles, en mettant plus ou moins l’accent sur certaines d’entre elles : smart grids, cités connectées, voiture autonome ou connectée, wearables, cloud computing, big data, Industrie 4.0… Pour rationaliser la discussion, on peut considérer l’IoT comme un concept à trois étages (figure 2) : - lées, échangées et, au moins pour certaines d’entre elles, acheminées vers des serveurs Internet ; stockées et éventuellement traitées sur des plates-formes logicielles et matérielles relevant du cloud computing. Les grands noms de l’informatique proposent aujourd’hui de telles plates-formes telles que Bluemix (IBM), Google Cloud, SAP HANA ou AZURE (Microsoft). - cès appropriés, peuvent les récupérer et les exploiter, en utilisant, s’il y a lieu, des techniques propres au traitement des données massives (big data). Dans ce Gros plan, nous ne nous intéressons qu’à la par- tie « Collecte et échange des informations » c’est-à-dire au premier étage. Le premier chapitre est consacré aux réseaux de communications, donc à la partie basse du système. Le second à paraitre dans un prochain numéro de la REE traitera des protocoles, c’est-à-dire des règles qui permettent à deux de communiquer mais aussi de se comprendre. Il y aurait bien d’autres sujets à approfondir, notamment les questions de cybersécurité, de miniaturisation et d’intégration des com- posants, d’alimentation en énergie et “d’energy harvesting”. Nous renvoyons le lecteur intéressé au Livre blanc de l’IoT qui résultera des travaux 2016/2017 du Cercle des entreprises de la SEE. Les problèmes de communication pourraient apparaître tri- viaux tant l’idée a été ancrée dans l’esprit des gens qu’Internet et son protocole IP étaient une sorte d’espéranto qui permet, une fois que l’on est connecté sur le réseau, d’échanger n’im- porte quelle donnée avec n’importe qui, où que ce soit dans le monde. Le problème est en fait beaucoup plus compliqué. à pouvoir accéder directement à n’importe quel capteur ou instrument de mesure dans le monde, parmi des dizaines de milliards qui se connecteront sur l’IoT, pour pouvoir y lire des données qui nous sont complètement étrangères. L’IoT doit l’Internet est l’épine dorsale. Nous proposons d’en retenir la définition suivante : « L’IoT est un réseau de réseaux qui permet, grâce à des dispositifs d’identification électronique d’entités physiques ou virtuelles dites « objets connectés » et via des systèmes de communication appropriés, sans fil notamment, de commu- niquer directement et sans ambiguïté, y compris au travers de l’Internet, avec ces objets connectés et ainsi de pouvoir récupérer, stocker, transférer et traiter sans discontinuité les données s’y rattachant ». De façon schématique, l’IoT serait ainsi une fédération de ré- seaux locaux autour de l’Internet telle qu’illustrée par la figure 3. Mais la figure 3 ne représente qu’un schéma de commu- nication. La question se pose de savoir où sont stockées et traitées les données. Certaines sont traitées au niveau local dans des équipements dits « intelligents », d’autres sont trai- tées dans le « cloud » et, considérant qu’il n’y a aucune rai- son à envoyer toutes les données dans le cloud, certaines niveaux intermédiaires, par exemple au niveau des routeurs de bordure (edge routers) de chaque réseau local : c’est ce qu’on appelle le “fog computing”. Figure 2 : Architecture générale de l’IoT. REE N°4/2016 107 L’Internet des objets Par ailleurs, il faut bien voir que les réseaux locaux apparais- différente selon les domaines applicatifs concernés. Certains sont filaires, d’autres – et c’est de plus en plus le cas – sont des réseaux de radiocommunications. On peut ainsi distinguer, en indiçant W (Wireless) les solutions sans fil, les réseaux : performances (débit, distance, temps de latence), de fiabilité, de disponibilité, de robustesse, etc. Si l’on considère par exemple les applications industrielles de l’IoT, ce qu’on appelle l’IIoT (Industrial Internet of Things) qui regroupe le secteur de l’industrie proprement dite et celui des infrastructures, on parvient très vite, en partant de la figure 3, à des architectures du type de la figure 4 où des réseaux de différentes natures sont regroupés autour de l’Internet. On comprend dès lors que, nonobstant l’universalité du protocole IP, une multitude de solutions de réseaux de communication et de protocoles aient été développées pour tenter de répondre au mieux à des besoins très divers. Il y a là un risque très grand de voir le concept simple d’IoT transformé en tour de Babel par le développement de cette multitude de réseaux hétérogènes incapables d’interopérer entre eux. Le présent Gros plan vise à donner un panorama didac- tique de la situation et à dégager les grandes tendances qui se dessinent aujourd’hui. Il se limite à prendre en compte deux grands types d’applications : type domotique, cités intelligentes, agriculture, environne- ment, etc. Ces applications correspondent à ce que l’on ap- pelle dans le langage de l’Internet les LLN (Low Power and Lossy Networks) c’est-à-dire les réseaux à faible consom- mation et avec pertes ; - senter des exigences fortes en matière de temps critique, latence, fiabilité, robustesse, etc. Ces applications relèvent, selon les pays, d’Industrie 4.0 (Allemagne), du plan Indus- trie du futur (France), de Made in China 2025 ou Japan’s Industrial Value initiative. Nous excluons par conséquent la mobilité (sauf à vitesse réduite) qui pose des problèmes spécifiques de “hand over” et bien entendu des problèmes de fiabilité. Figure 3 : L’IoT vue comme une fédération de réseaux autour de l’Internet. 108 REE N°4/2016 GROS PLAN SUR Les réseaux de radiocommunications de l’Internet des objets Généralités On comprend de ce qui précède que la question des réseaux de communications soit centrale dans l’Internet des objets. Il existe des dizaines de réseaux, ayant chacun leurs vertus propres. Se pose donc la question de savoir comment sélectionner les principaux d’entre eux et les classer de façon rationnelle. Le fait de limiter le champ d’étude aux deux domaines précités conduit à écarter des réseaux de communication importants mais dédiés à d’autres fins : - pement de la voiture autonome et connectée ; IEEE 802.11ad ou WiGig, le futur IEEE 802.11ay ; les solu- tions à très large bande : DS-UWB ou MB-OFDM, ECMA 368 ; le ZigBee RF4CE (pour les télécommandes) ; (Data et Control) et, à ce stade, le Li-Fi. Toutefois, l’utilisa- tion bidirectionnelle du Li-Fi progresse et son rôle dans l’IoT connectée) ; à très courtes distances. Ces solutions fonctionnent géné- ralement dans le champ proche : RFID passives, protocoles NFC, RuBee (IEEE 1902.1). Malgré cette « mise à l’écart », il reste de nombreuses réseaux sont des réseaux sans fil. Si la période 1980-2005 avait été propice au développement des bus de terrain (Pro- fibus, Devicenet, Fieldbus Foundation, WorldFip, etc.), la voie est à présent ouverte aux radiocommunications qui offrent la flexibilité et l’extensibilité indispensables aux réseaux de capteurs. Cela tient à la combinaison de plusieurs facteurs : à ouvrir plus largement la bande libre des 868 MHz, fré- quence idéale pour les applications du type IoT1 ; - les regards se portent également vers les très hautes fré- quences (de 3,1 à 10,6 GHz) mais aussi vers les ondes millimétriques (au-dessus de 30 GHz) où des ressources importantes de bande passante existent où est définie à présent et à peu près partout dans le monde, une nou- velle bande libre de 57 à 64 ou 66 GHz2 ; 1 Voir la rubrique Actualités dans la REE 2016-3 2 Voir la rubrique Actualités dans le présent numéro. Figure 4 : Schématique des architectures IoT dans l’industrie. REE N°4/2016 109 L’Internet des objets de façon compétitive, dans de très petits modules, des algo- rithmes anciens restés pendant des années l’apanage des systèmes professionnels (DSSS, FHSS, OFDM), modules qui atteignent aujourd’hui des limites impressionnantes de sensibilité (-148 dBm ce qui offre des budgets de liaison allant jusqu’à 168 dBm) - nante est celle du MI-MO (multi-antennes), couramment utilisé dans le Wi-Fi depuis l’IEEE 802.11n, mais sans oublier pour l’avenir, les techniques à ultra-large bande et la radio cognitive (IEEE 802.11af). fait appel ? Une possibilité serait de les classer selon les tech- nologies de base utilisées, c’est-à-dire en fonction de leur couche physique (bandes de fréquences, techniques d’éta- lement de spectre, schémas de modulation, utilisation de la diversité…) en distinguant le cas échéant les solutions nor- malisées (ou partiellement normalisées) des solutions pro- priétaires. Mais cette approche n’est pas parlante du point de vue applicatif et ne motive que les spécialistes. Nous proposons une typologie des réseaux de l’IoT géné- ralisant la représentation esquissée dans le cas de l’indus- trie par la figure 4 et introduisant trois niveaux fonctionnels (figure 5). Les réseaux d’extrémité Les réseaux de niveau inférieur, desservant directement locaux ». Toutefois, ce terme n’est plus réellement adapté du fait de l’émergence des réseaux longues distances du type LoRA et SIGFOX. Nous préférons l’appellation « réseaux d’ex- trémité » montrant par là qu’ils assurent la desserte d’équi- pements situés au niveau le plus bas de l’architecture. Ces sont de plus en plus en plus sans fil. Dans chaque grappe, ces réseaux amènent l’informa- des routeurs ou des passerelles (gateways) communiquant directement avec l’Internet. Mais ces concentrateurs peuvent Les réseaux d’infrastructure Les réseaux d’infrastructure sont précisément des réseaux intermédiaires qui permettent de regrouper des grappes d’objets connectés. Ces réseaux sont très souvent filaires mais la technologie permet d’envisager des solutions sans fil. Les réseaux d’amenée Les réseaux d’amenée sont les réseaux qui vont permettre de transférer l’information vers l’Internet qui constitue dans l’IoT le cœur de réseau. Ces réseaux d’amenée, ou de « bac- structure. Ils peuvent également ne pas exister si le routeur l’Internet. Nous détaillons ci-après certaines des spécificités propres à chaque niveau, en mentionnant les réseaux auxquels il des détails sur chaque solution et le lecteur devra se reporter à la littérature spécialisée. Les réseaux d’extrémité Ces réseaux d’extrémité ont des couvertures géogra- phiques diverses : on trouve dans l’industrie des petits réseaux (du type des piconets de Bluetooth par exemple) Figure 5 : Typologie des réseaux de l’IoT. 110 REE N°4/2016 GROS PLAN SUR machine, mais on trouve également des réseaux d’atelier voire des réseaux d’usine sur des distances de plusieurs kilomètres. Dans le domaine du building automation, la cou- plus importante s’il s’agit d’un centre commercial ou d’un quartier. Enfin, l’émergence des réseaux basse consomma- tion à longues distances permet de collecter des données provenant de capteurs localisés à 10 km ou plus, pour les besoins de l’agriculture, de la météo ou de la télésurveillance d’infrastructures distantes. Nous proposons d’adopter pour ces réseaux une classi- fication dérivée de celle de l’IEEE en distinguant les WPAN (Wireless Personal Area Networks), les WLAN (Wireless Local Area Networks) et les LPWAN (Low Power Wide Area Network). Les WPAN L’écosystème des WPAN est très riche. Pour rester simple, nous proposons de distinguer trois catégories : les “Gene- ral Purpose WPAN” à spectre applicatif large, les “Time Cri- tical WPAN” appelés à répondre à des usages particuliers du monde industriel, les réseaux spécifiques répondant à des - ment basse consommation d’énergie. Les “General Purpose” WPAN Nous faisons rentrer dans cette catégorie toutes les solu- tions répondant à des besoins ne soulevant pas d’exigences particulières, par exemple ceux de la domotique et de l’in- dustrie pour des applications non temps critique, dans des périmètres de l’ordre d’une centaine de mètres. Parmi ces applications, on peut citer : Parmi les solutions, nous trouvons : Le standard IEEE 802.15.1, c’est-à-dire, dans la pratique, Bluetooth, qui est un standard de communication né dans les années 1990, fonctionnant dans la bande libre des 2,4 GHz et fondée sur l’étalement de spectre par saut de fré- quence (FHSS – Frequency Hoping Spread Spectrum). C’est une solution robuste qui permet de réaliser des picoréseaux synchrones constitués d’un maître et de sept esclaves, sur une portée typiquement de 10 m, avec un débit maximum de 2,1 Mbit/s. Cette solution est adaptée à la communication M2M sur courtes distances, elle permet de supporter des trames IP mais n’a cependant pas été développée pour l’IoT car elle entraîne des consommations d’énergie élevées. Pour ne pas perdre pied dans ce domaine, les promoteurs de Bluetooth ont développé la version V4, dite Bluetooth Low Energy (BLE ou Bluetooth Smart), issue du projet Wibree initialement promu par Nokia, qui, moyennant cer- tains aménagements techniques (réduction du nombre de sauts de fréquence, limitation de la taille des trames), réduit fortement la consommation d’énergie. Le Bluetooth Smart ne supporte pas à l’état natif les trames IP mais des équipe- ments bimodes (dits Bluetooth Smart Ready) supportent à la fois le Bluetooth Classic et le Bluetooth Smart et peuvent servir de relais avec l’Internet. Les portées sont de l’ordre de la centaine de mètres pour des débits de 270 kbit/s. La solution BLE est bien adaptée au domaine des “wea- rables” (lunettes, montres, équipements de sport) mais trouve aussi son application dans la domotique. le standard IEEE 802.15.4 a été d’emblée développé en prenant en compte le souci de limitation des consommations d’énergie. Il est destiné aux équipements qui n’ont d’informations à transmettre qu’épi- en conséquence rester en sommeil pendant la grande majorité du temps, typiquement 97 %. Le standard IEEE 802.15.4 est une reconnaissance, au niveau des couches basses, de la solution développée par le consortium ZigBee pour offrir des communications à faible consomma- tion, avec des débits limités (typiquement 250 kbit/s) sur quelques dizaines de mètres. Comme le 802.15.1, le 802.15.4 opère essentiellement installé en Europe dans la petite bande des 868 MHz, pour le comptage notamment. L’étalement de spectre se fait en DSSS (Direct Sequence Spread Spectrum) avec un vecteur d’étalement de 32 chips. Depuis les premières publica- tions, le standard 802.15.4 a beaucoup évolué. Aujourd’hui, la version 2006 constitue la référence de base au-dessus besoins du comptage de l’énergie, de la santé, de la domo- tique, des services télécom, etc. Plus récemment le consortium Thread a entrepris la mise au point d’un protocole 802.15.4 destiné à la domotique et inté- grant les standards les plus récents du domaine de l’Internet. Il faut souligner que dans la version de base du 802.15.4, les réseaux de communication fonctionnent en “best ef- fort” sur le mode de l’évitement de collisions (CSMA-CA) sans garantie de performances par conséquent. Par ailleurs, pour différentes raisons, et notamment la lon- gueur limitée des trames, les réseaux 802.15.4 ne peuvent REE N°4/2016 111 Critères de sélection d’un réseau industriel Disponibilité, fiabilité Connectivité avec un “backbone” Coexistence avec d’autres réseaux Extensibilité (scalability) Faible temps de latence et déterminisme Ouverture et interopérabilité Sécurité (intégrité, authentification, confidentialité) Débit-distance Consommation d’énergie – Durée de vie des batteries Compétitivité Paramétrage de la qualité de service Standardisation L’Internet des objets pas accepter directement les trames Internet et une couche d’adaptation 6LowPAN, qui sera décrite dans le chapitre consacré aux protocoles, a été développée par l’IETF (In- ternet Engineering Task Force) pour interfacer ces réseaux avec l’Internet IPv6. solutions, plus ou moins propriétaires, nées avant que l’IoT n’acquière sa notoriété et qui sont amenées à s’y adapter. Tel est en particulier le cas du standard de fait KNX qui présente par CPL ou par liaison radio 868 MHz. On peut également citer ANT et ANT+ qui sont des réseaux propriétaires, fonctionnant dans la bande des 2,4 GHz et offrant des fonctionnalités proches à la fois de Bluetooth et de ZigBee. C’est une solution reconnue dans le monde des “wearables” mais aussi dans celui de la domotique. Les WPAN temps critique Les réseaux 802.15.4 dans leur version de base n’offrent pas des performances suffisantes pour répondre aux exi- gences de beaucoup de procédés industriels. Ces exigences sont nombreuses et appellent des compromis. On peut les regrouper en 12 critères essentiels listés dans le tableau 1. A partir de 2005, dans le cadre notamment de l’ISA (In- ternational Society of Automation) ont été développés des réseaux maillés, s’appuyant sur le 802.15.4 mais sur lequel a été greffée une organisation déterministe du trafic par un multiplexage temporel (TDMA), accompagné d’un saut de fréquence entre chaque slot de communication afin de ren- forcer la robustesse du réseau face aux interférences. Ainsi sont nés successivement les standards IEC 62591 (Wire- lessHART), IEC 62601 (WIA-PA) et IEC 62734 (ISA100.11a). Ce dernier réseau (figure 6) supporte la couche d'adapta- Figure 6 : Architecture générale ISA 100.11a – Source : ISA. Tableau 1 : Douze critères pour évaluer une solution de radiocommunication dans l’industrie. 112 REE N°4/2016 GROS PLAN SUR tion 6LowPAN et constitue un réseau local répondant aux exigences de l’IIOT et pouvant s’interfacer directement avec l’Internet IPv6 dont nous parlerons au chapitre 2. Les principes de l’ISA 100 sont aujourd’hui repris dans un amendement particulier du 820.15.4, le 802.15.4e, qui intro- duit le déterminisme et le saut de fréquence dans la gestion du réseau local. Nota 1 : On notera que l’on écarte à ce stade l’utilisation des réseaux sans fil pour les applications à des fonctions sé- curitaires. Cependant la question est à l’étude, dans le cadre du groupe de travail ISA-84 notamment. Les WPAN à extrêmement basse consommation Dans le domaine industriel, mais aussi dans celui de la domotique, on trouve également des solutions répondant basse consommation d’énergie, à des niveaux compa- tibles avec “l’energy harvesting” permettant donc de se dispenser des alimentations par batteries (Cf. REE 2015-1 p.127). Mentionnons parmi ces solutions EnOcean (ISO/ IEC14543-3-1), Wavenis, SARAH (Arveni) et DASH7. L’exi- gence “d’ultra low power” conduit à des protocoles rela- tivement frugaux, avec des trames courtes, fonctionnant généralement par impulsions. Ces solutions répondent à des besoins typiques de l’IoT (très faible consommation et très bas coût) mais leur intégration dans une architecture Internet va difficilement au-delà de la connexion au travers d’un gateway collectant les informations en provenance des capteurs. A noter que la solution DASH, si elle est utilisée à 250 kbit/s, ne permet une portée que de quelques dizaines de mètres. Par contre, utilisée à très faible débit (9,6 kbit/s), elle autorise des communications allant jusqu’à plusieurs kilomètres. Elle constitue un trait d’union avec les LWPAN dont nous parlons en section 3. Les WLAN La deuxième grande catégorie de réseaux d’extrémité que nous retenons est celle des WLAN, les Wireless Local Area Network c’est-à-dire essentiellement le domaine des Wi-Fi (IEEE 802.11) qui opèrent dans des plages de portée allant de quelques mètres au kilomètre3 . Les WLAN sont nés avec les premiers Wi-Fi dans les années 1997-2000. A cette époque, on parlait encore peu d’Internet des objets et le Wi-Fi n’a pas été créé dans cette 3 Nous excluons par conséquent de cette catégorie les Wi-Fi à très haut débit mais à faible portée : le 802.11ad (ou WiGig), le 802.11.y opérant aux Etats-Unis dans la bande 3 650-3 700 GHz avec une puissance de 20 W et le 802.11af (ou White-Fi) opérant en radio cognitive dans les interstices des bandes TV. perspective. Cependant, cette technologie possède de pré- cieux avantages dans la mesure où sa structure de trame, différenciée selon les détails de la couche radio, est similaire - lation de trames IP. Les relais Wi-Fi permettent de créer très simplement des points d’accès au réseau Internet, soit sur support cellulaire, soit par le canal d’un réseau cellulaire 3G ou 4G. Le Wi-Fi peut donc constituer un réseau d’extrémité très simple de mise en œuvre et très performant à la condi- tion que les équipements disposent d’une alimentation en énergie à partir du réseau. En effet, toutes les solutions Wi-Fi développées depuis 1997 : 802.11, 802.11b, 802.11 a et g, 802.11n et plus récemment 802.11ac sont dispendieuses en énergie car les équipements ne sont pas programmés pour Fi 802.11ah (labellisé comme “Wi-Fi Halow” par la Wi-Fi Al- liance), dont la spécification a été publiée au début de l’année 2016 et dont le champ d’application visé est celui des réseaux de capteurs et plus généralement celui de l’Internet des objets. Son ambition est de concurrencer le Bluetooth LE en offrant une meilleure couverture (jusqu’à 1 km) et une connectivité directe avec le monde de l’Internet. Le 802.11ah est destiné à fonctionner dans les bandes sub-GHz (donc à 868 MHz en Europe) en offrant ainsi de meilleures conditions de propaga- tion que les autres Wi-Fi. Les techniques de modulation et de multiplexage sont directement dérivées de celles des 802.11n et ac mais avec une fréquence d’horloge ralentie 10 fois. Le protocole prévoit que les stations regroupées autour de relais rythme convenu avec un réveil prédéfini (Target Wake Time). Cependant, ce qui est un point fort peut devenir un point faible car cela implique, pour assurer l’interopérabilité, que tous les Figure 7 : Positionnement en portée des principales solutions Wi-Fi. REE N°4/2016 113 L’Internet des objets - à la différence de Bluetooth et ZigBee, n’a jamais publié de profils particuliers au-dessus des couches basses du 802.11. Néanmoins, la Wi-Fi Alliance prévoit un développement très large du Wi-Fi Halow dans les secteurs de la domotique, de la La figure 7 illustre, en termes de portée, le positionne- ment sommaire des solutions Wi-Fi évoquées ci-dessus. Les LWPAN Le Wi-Fi Halow constitue une transition vers les réseaux LPWAN (Low Power Wide Area Network) apparus à partir de l’année 2015 afin de réaliser à faible coût, sur de grandes dis- tances, des réseaux de capteurs alimentés par batterie. Ce sont donc des réseaux à faible débit tirant parti des développements les plus récents en matière d’électronique afin de permettre de gérer avec une qualité de service acceptable des budgets de liaisons allant jusqu’à -160 dBm. Les réseaux longue distance à très basse consommation d’énergie sont apparus récemment ; ils nécessitent des récepteurs très sensibles pouvant détecter un signal émis par une source à relativement faible puissance Plusieurs initiatives très intéressantes ont vu le jour. Deux solutions d’origine française retiennent l’attention, d’au- tant plus qu’elles sont parvenues à se faire reconnaître au niveau mondial, y compris aux Etats-Unis : LoRa, solution ouverte fondée sur le protocole LoRaWAN promu par la LoRa Alliance. Ce protocole (tel que publié opérateur, public ou privé. Tel est notamment le cas de Bouygues Télécom qui l’a inséré dans la plate-forme pro- mue par sa filiale Objenious. LoRa est un réseau « étoile » bas débit, fonctionnant en France dans la bande des 868 MHz, utilisant des composants d’une très grande sensibilité et permettant de mettre en connexion, de façon bidirectionnelle, des capteurs distants de plusieurs kilomètres avec un relais servant de gateway (situé par exemple sur un point haut Bouygues Telecom) qui transfère ensuite les informations, en mode IP, vers l’Internet. LoRa utilise des canaux de 125 kHz en étalement de spectre. Les débits annoncés vont de 300 bit/s à 50 kbit/s (en Europe). SIGFOX repose sur un modèle différent. SIGFOX est un opérateur qui, directement ou par l’intermédiaire de parte- naires, propose un service de connexion IoT dans le monde entier (en 2016, dans 24 pays). La technologie est égale- ment différente : le système SIGFOX utilise une transmis- sion à bande très étroite (Ultra Narrow Band) permettant à un capteur d’envoyer des impulsions très courtes (12 octets de charge utile, au maximum 140 fois par jour) sur des micro-canaux dans la bande des 868 MHz. Les trames sont envoyées trois fois, sur trois fréquences, en direction de toutes les stations de base, sachant que, typiquement, trois les serveurs SIGFOX (figure 8). En “downlink” la charge utile est limitée à 8 octets, quatre fois par jour. Compte tenu des débits limités (équivalents à environ 100 bit/s), les applications préférentielles sont celles du Figure 8 : Architecture du système SIGFOX. 114 REE N°4/2016 GROS PLAN SUR comptage, de la maintenance préventive, de l’agriculture, de l’environnement, etc. D’autres initiatives ont vu le jour, simultanément ou avant LoRa et SIGFOX, avec plus ou moins de succès : Qovisio (Opérateur IoT basé à Angers), Neul, Ingenu, Weighless N et P, nWave, etc. Les réseaux cellulaires ne restent pas inactifs. Avec la publication du communiqué 13 du 3GPP (le consortium qui établit et publie les standards de 3e et 4e génération), trois solutions fonctionnant dans des fréquences sous licence se trouvent homologuées : EC-GSM-IoT (EC = Extended Coverage) qui est un complé- installée GSM, des services LPWAN dans des fréquences sub-GHz. EC-GSL-IoT utilise des canaux de 200 kHz en half duplex. Le gain de couverture escompté est de 20 dBm pour un débit de 10 kbit/s. Le lancement commercial est prévu pour 2017. eMTC (ou LTE-M) qui est une extension logicielle de 4G LTE. eMTC requiert un canal de 1,4 MHz (à l’intérieur d’un canal LTE de 20 MHz) et permet des débits de 1 Mbit/s. C’est une solution adaptée au trafic M2M. NB-IoT qui est intégrée dans LTE mais utilise une interface radio spécifique. Le profil vient en compétition avec LoRa. Il requiert un canal de 200 kHz et permet des débits de quelques dizaines de kbit/s. La figure 9 positionne les deux solutions LTE par rapport aux catégories classiques du LTE. Il est encore trop tôt pour dire quel sera l’impact mar- terme parait clair : elles permettent de construire des archi- tectures « full IP » sans solution de continuité au niveau d’un gateway et préfigurent l’unification des réseaux que pourrait permettre la 5G (voir en conclusion). Les réseaux d’infrastructure Dans une architecture IoT, les réseaux d’infrastructure (ou backbone) ne sont pas une obligation. Un réseau d’extrémité peut parfaitement s’interfacer directement avec l’Internet, via un routeur de bordure ou une passerelle. Cependant dès que l’on affaire à plusieurs réseaux d’ex- structure, il est nécessaire de fédérer ces sous-réseaux et d’organiser l’échange d’informations entre eux. On peut citer les exemples d’une raffinerie regroupant plusieurs unités de traitement aussi bien que d’un centre commercial abritant de nombreux commerces. données de configuration permettant de partager des règles de sécurité et de gestion des droits d’accès, des règles d’adressage local, des règles de gestion des fréquences. Dans le domaine des radiocommunications, la question du “Com- mon Network Management” appliqué à plusieurs réseaux d’extrémité est délicate et elle est aujourd’hui mal résolue. Si l’on veut éviter la cacophonie, un Common Network Mana- ger communicant par un Common Shared Network avec les différentes passerelles desservant chacun des réseaux sans fil, est nécessaire. Des travaux sont en cours sur ce thème au sein du groupe ISA-100 WG20. Ethernet, éventuellement, pour les applications industrielles, Ethernet industriel (du type IEEE 802 TSN – Time Sensitive network) ; - ment les solutions bi-bandes : IEEE 802.11n, IEEE 802.11ac et son successeur en développement : IEEE 802.11ax ; qui n’a cependant pratiquement pas démarré en France (ne d’extrémité répartis sur de grandes distances. Les réseaux d’amenée Les réseaux d’amenée ou de backhaul permettent de ren- voyer sur le cloud les informations que l’on souhaite y envoyer gestion des données. En soi, cette fonction de backhaul est Figure 9 : Positionnement des nouvelles catégories LTE destinées à l’IoT. REE N°4/2016 115 L’Internet des objets moins celle d’un réseau que celle d’un routeur ou d’une pas- serelle transférant sur le cloud les données collectées soit au un serveur de données installé sur le réseau d’infrastructure. La fonction d’amenée peut aussi se confondre avec celle de fédération de sous-réseaux assurée par le réseau d’infras- tructure. Cependant dans certains cas, la fonction d’amenée sera confiée à un réseau dont ce sera la seule vocation. On retrou- vera ici : Conclusion : La 5G et l’IoT L’écosystème des réseaux de communication censés répondre à la problématique de l’IoT est complexe. Les solu- tions se sont empilées de façon hétérogène au fil des années avec pour chacune des avantages et des inconvénients. Dans plusieurs cas, les solutions proposées sont un rafistolage de solutions plus anciennes afin de ne pas perdre pied dans la compétition qui s’amorce autour de l’IoT. Il serait temps de procéder à une ré- flexion globale sur l’architecture qu’il faut mettre en place pour permettre à l’IoT de se développer sans que sa mise en œuvre ne devienne un parcours du combattant pour les usagers. Le développement de la 5G, en cours de spécification, est une oc- casion unique pour réaliser « la grande uni- fication » à laquelle les utilisateurs aspirent. La 5G ne sera pas seulement un ac- croissement des débits afin de répondre encore mieux aux besoins du multimédia. - elle doit permettre d’inclure dans le champ de la communi- temps, de par la force du progrès technique, auront acquis des capacités de collecte et de traitement des données très supérieures à ce qu’elles sont aujourd’hui. Il faut donc que la 5G apporte non seulement des débits très supérieurs à ceux de la 4G mais aussi une couverture plus uniforme des zones desservies, une aptitude à pénétrer un service déterministe ou quasi-déterministe, une faible consommation permettant de fonctionner 10 ans sur batte- ries et bien entendu un coût aussi faible que possible. Ce sont là des défis considérables et la 5G ne pourra pas répondre d’emblée à tous. De nouvelles technologies, - lisées : MI-MO massif, ondes millimétriques, picocellules pour la densification, nouvelles formes d’onde pour une meilleure utilisation du spectre… Ceci implique probable- ment une coopération accrue entre les réseaux cellulaires administrés et les so- lutions locales, type Wi-Fi, opérant dans des bandes libres qui aujourd’hui leur font concurrence mais qui demain pour- ront concourir à la réalisation du grand projet de l’Internet des objets. La réelle synergie est là. Il est à parier que dans 30 ans l’exposé qui précède s’apparen- tera davantage à la visite d’un musée sur l’état de l’art de l’époque. Jean-Pierre Hauet est ingénieur au corps des Mines. Il est associate partner de KB Intelligence. Au cours de a carrière, il a dirigé les Labo- ratoires de Marcoussis du groupe Alcatel-Alsthom, il a dirigé la branche Produits et Techniques de Cegelec et a été Chief Technology Officer du Groupe ALSTOM. Il est membre émérite de la SEE et rédacteur en chef de la REE. Comme, Nathalie PICQUÉ, lauréat 2008 Philippe BOUYER, lauréat 2009 Laurent COGNET, lauréat 2010 Frédéric DRUON, lauréat 2011 Emmanuel FORT, lauréat 2012 Nicolas TREPS, lauréat 2013 Arnaud ROYON, lauréat 2014 Frédéric GÉRÔME, lauréat 2015 vous aussi postulez au Prix JEAN JERPHAGNON ! Le Prix JEAN JERPHAGNON est destiné à promouvoir la recherche, le développement et l’innovation technologique en optique et photonique, ainsi que leur diffusion dans tout domaine d’application. Quinze acteurs déterminants du monde de l’innovation se sont associés dans un consortium mixte de nature académique, industrielle et économique pour créer ce prix. Le Prix JEAN JERPHAGNON récompense un projet véritablement innovant, à fort potentiel industriel ou à grande Le jury du Prix JEAN JERPHAGNON, qui regroupe des personnalités éminentes de l’optique-photonique et des Directeur de Recherche au CNRS (Laboratoire Charles Fabry de l’Institut d’Optique Graduate School), et coprésidé par Thierry Georges, entrepreneur et PDG d’Oxxius. Le lauréat reçoit un chèque de 10 000 € et est assisté, sous forme de conseils, dans la mise en oeuvre de son projet par le Comité d’Organisation du Prix JEAN JERPHAGNON. Chacun des nominés reçoit un chèque de 1 000 €. Soumission du 12 septembre au 28 octobre 2016 Pour connaître les conditions et déposer un dossier de candidature : www.prixjeanjerphagnon.org L’EXCELLENCE OPTIQUE-PHOTONIQUE AU CŒUR DE L’ENTREPRENARIAT Edition 2016 REE N°4/2016 117 RETOUR SUR ❱❱❱❱❱❱❱❱❱ Thierry Letertre Professeur adjoint à Centrale Supelec Introduction Le terme de Wi-Fi est utilisé pour décrire non pas une norme de système de communication, mais un ensemble de versions pouvant exister simultanément sur le marché, la version la plus récente restant, dans certaines limites, compatible avec la version de base. Cet article n’a pas la prétention de décrire de façon complète et exhaustive les différentes versions suc- cessives de la norme, mais d’en expliquer le fonction- nement et de présenter les principales évolutions et avancées techniques introduites depuis la genèse de la version de base jusqu’aux toutes dernières versions actuellement utilisées ou en cours de normalisation (fu- tures évolutions). Les explications seront abordées de la façon la plus simple possible en respectant, autant que faire se peut, l’ordre chronologique de leur apparition. Les origines du Wi-Fi Wi-Fi, Wireless Fidelity ou IEEE802.11 [1], est une norme créée par le comité 802 de l’IEEE1 qui gère les spécifications des systèmes de communication à 1 Institute of Electrical and Electronic Engineers courte et moyenne portée (LAN2 , MAN3 …). L’idée de départ date du milieu des années 1980 lorsque l’orga- nisme de régulation des fréquences américain la FCC4 , équivalente américaine de l’ARCEP en France, a libéré l’accès aux bandes de fréquences dites libres ou aux Etats-Unis, ISM5 (figure 1) pour des systèmes de com- munication sans fil et sans licence. La première version de la norme a été officiellement publiée en 1997 ; à la suite de l’intérêt qu’elle a soulevé dans le déploiement d’Internet et compte-tenu de la diversité des fabricants industriels, le consortium “Wi-Fi Alliance” a été créé en 1999 pour vérifier la conformité et l’interopérabilité des matériels sortant sur le marché. La norme évolue au cours du temps, il y a eu environ 30 modifications (amendments en anglais) depuis l’origine jusqu’à aujourd’hui, elles sont estampillées par une lettre et maintenant deux lettres (comme pour les colonnes d’un tableur) : on les appellera versions dans la suite de l’article. Chaque version apporte une correction [2] ou une évolution de la norme de référence (legacy en anglais) qu’on appellera « édition » dans la suite, par exemple pour intégrer des contraintes liées à un pays 2 Local Area Network 3 Metropolitan Area Network 4 US Federal Communication Commission 5 Industrial Scientific et Medical Les Wi-Fi The term Wi-Fi is not used to describe a standard, but a set of different versions or amendments which can exist simultaneously on the market, the latest version being compatible to a certain extent with the legacy version. This paper does not aim to describe comprehensively and exhaustively the various successive versions of the standard, but how they work and what are their fields of application and to present the main modifications and advanced techniques introduced since the genesis of the basic version up to the latest versions currently used or being standardized. ABSTRACT Figure 1 : Les bandes libres intéressant le Wi-Fi en France en 2016 – Nota : la bande des 868 MHz a fait l’objet d’une consultation en vue de son extension en juillet 2016. 118 REE N°4/2016 ❱❱❱❱❱❱❱❱❱❱❱ RETOUR SUR particulier, pour améliorer la sécurité des transmissions, pour réduire la consommation électrique ou intégrer une avancée technologique. Le nom d’une édition de la norme ne comporte pas de lettre, mais une date : 802.11-1997 pour la première édition, puis 802.11-2007 pour celle intégrant les versions de “a” à “j” et 802.11-2012 intégrant les versions de “k” à “z”. En plus de l’évolution de la norme, il existe aussi des mo- difications apportées par les constructeurs pour augmenter le débit ou la portée par une amélioration logicielle ou par ajout d’antennes supplémentaires. Ces matériels sont com- patibles avec tous les autres matériels certifiés par “Wi-Fi alliance” (portant le logo : “Wi-Fi certified”), à l’exception des fonctionnalités supplémentaires qui restent propriétaires. Les bandes de fréquences dites « libres » sont soumises à certaines conditions d’utilisation qui permettent le partage de la ressource avec d’autres systèmes de communication (Bluetooth, ZigBee,...), mais aussi avec des systèmes domes- tiques ou industriels (four micro-onde, soudeuse…) ou des systèmes médicaux (scanner, bistouris, appareils de chauf- fage...) ayant chacun des contraintes de fonctionnement très différentes (problèmes de compatibilité) par exemple : pas d’usage exclusif ou limitation des brouillages. Les objectifs de la version de base étaient de modifier/ adapter la norme Ethernet 802.3 existant pour des liaisons filaires (sur câble électrique) afin d’utiliser les ondes élec- tromagnétiques, infrarouges ou radiofréquences comme support physique et donner ainsi plus de mobilité aux équi- pements [3]. Les modifications apportées devaient être les plus réduites possibles pour garder la compatibilité avec les couches hautes de la version filaire et assurer les mêmes performances que cette dernière sans entraîner de surcoût trop important pour les matériels : ceci a été obtenu, en ne modifiant que les deux couches les plus basses du protocole. Rappels sur les techniques utilisées L’utilisation des bandes dites « libres » impose des con- traintes importantes en termes de partage des fréquences et de compatibilité ou brouillages. Trois principales techniques sont mises en œuvre : qui sert à assurer le transport de l’infor- mation autour de la fréquence porteuse en respectant la qualité de service (QoS: Quality of Service) en termes de débit, d’intégrité des données et de portée. Des deux types de modulations, analogiques et numériques, seules les der- nières sont utilisées. Les modulations numériques d’ampli- tude (ASK6 ), de fréquence (FSK7 ), de phase (PSK8 ) et en quadrature (QAM9 ) sont appliquées à l’information échantil- lonnée et quantifiée. Wi-Fi fait appel aux modulations xPSK pour les trames de contrôle ou lorsque la transmission n’est pas de bonne qualité et aux modulations xxQAM pour les débits importants (cf. description des couches physiques des différentes versions). qui permet à plusieurs utilisateurs de partager de façon équitable la bande de fréquences sans interférence entre eux. Les plus connues sont : - le TDMA10 qui répartit le temps d’usage d’une même res- source entre plusieurs utilisateurs ; - le FDMA11 qui alloue des ressources en fréquences diffé- rentes à chaque utilisateur ; - le CDMA12 qui donne un code différent à chaque utilisateur ; - le CSMA13 utilisé, dans la version CD (Collision Detection), par la norme Ethernet filaire qui impose à chaque utilisateur de s’assurer qu’aucun signal n’est présent avant d’émettre. sert à se protéger des brouillages à « bande étroite » (les plus courants dans les bandes ISM) en utilisant une bande de fréquences apparente plus large que 6 Amplitude shift Keying 7 Frequency shift Keying 8 Phase shift Keying 9 Quadrature Amplitude Modulation 10 Time Division Multiple Access 11 Frequency Division Multiple Access 12 Code Division Multiple Access 13 Carrier Sense Multiple Access Figure 2 : L’étalement de spectre par séquence directe et code de Barker. REE N°4/2016 119 Les Wi-Fi celle qui serait utilisée par la modulation de base. Les trois techniques les plus connues sont : - l’étalement de spectre à séquence directe ou DSSS14 qui multiplie le signal numérique par un code plus rapide ayant des propriétés statistiques particulières ; - l’étalement de spectre par saut de fréquence ou FHSS15 qui change de fréquence porteuse ou de canal très rapi- dement (figure 2) ; - l’étalement par multiplexage orthogonal de fréquences (OFDM16 ) qui permet de répartir le signal entre un nombre élevé de sous-porteuses rapprochées chacune l’une de l’autre grâce à l’orthogonalité des formes d’onde (voir plus loin). Les différentes évolutions du Wi-Fi L’édition de base: 802.11-1997 Les principales caractéristiques visées par la version de base hertzienne sont comparables à la version filaire de l’In- ternet de l’époque malgré les modifications imposées par le changement de support soit : 14 Direct Sequence Spread Spectrum 15 Frequency Hopping Spread Spectrum 16 Orthogonal Frequency Division Multiplexing à multipoint ; Cette édition prévoit deux types d’utilisateurs : la station (STA17 ) qui intègre les fonctions de base de la norme et le point d’accès (AP18 ) qui dispose en plus des capacités de gestion de deux modes de fonctionnement [4] possibles (figure 3) : le Wi-Fi direct) permet à deux stations de communiquer directement une fois les paramètres réseau partagés (choix manuel du canal, débit...). C’est aussi le mode le plus per- formant en termes de débit. Il permet à plusieurs stations de correspondre point à point entre elles, sans infrastruc- ture particulière mais sans routage ; plusieurs STAs. C’est l’AP qui choisit les paramètres et gère le réseau, toutes les communications passent par lui et sont répétées. Les stations s’associent en écoutant les informations diffusées en clair par le point d’accès (trame “Beacon”) puis font une demande de connexion, les para- mètres réseaux étant réglés automatiquement. C’est au- jourd’hui le mode le plus utilisé. La norme prévoit aussi deux modes de gestion liés à ces modes de fonctionnement : 17 Station 18 Access Point Figure 3 : Les différents modes de fonctionnement. 120 REE N°4/2016 ❱❱❱❱❱❱❱❱❱❱❱ RETOUR SUR 19 où toutes les stations sont équivalentes et en compétition pour l’accès à la parole. Il est applicable aux modes de fonctionnement « ad hoc » ou « infrastruc- ture » ; 20 qui implique un point d’accès gérant les demandes de parole des stations en fonction de la qualité de service demandée. La priorité est généralement donnée à des demandes de services en temps réel par rapport au streaming ou aux transferts de données. Ce mode n’occupe jamais 100 % du temps, il y a toujours une partie réservée au DCF pour que de nouvelles stations puissent s’associer. Il ne fonctionne pas avec le mode « ad hoc ». La figure 4 montre les différentes modifications apportées à la pile de protocole Internet filaire pour utiliser le support hertzien. Seules les deux couches basses du protocole de communication OSI21 ont été modifiées par l’IEEE : - lisation des fréquences pour le transport des données (modulation, codage et étalement de spectre) et définit donc l’aspect fréquentiel/spectral. Elle est composée de deux sous-couches : PLCP22 qui est en charge d’écouter le support grâce au PCS23 et de délivrer le CCA24 à la couche liaison de données pour l’encodage et l’envoi des données ; ressource (technique d’accès) et définit donc la forme temporelle du signal. Elle est aussi composée de deux sous-couches : LLC (Logical Link Control) identique à celle de 802.2 qui gère les associations, la synchroni- sation et la sécurité (entre autres choses) et MAC25 très 19 Distributed Coordination Function 20 Point Coordination Function 21 System Interconnection 22 Physical Layer Convergence Protocol 23 Physical Carrier Sense 24 Clear Channel Assessment 25 Medium access Control proche du 802.3 de l’Ethernet filaire qui s’occupe de l’accès au canal. La partie gauche de la figure 4 montre la position du pro- tocole 802.11, par rapport au modèle de référence OSI. Dans cette première version de la norme, trois types de support physique avaient été définis (zoom partie de droite), l’infra- rouge, et les radiofréquences à 2,4 GHz avec étalement de spectre FHSS et DSSS. Mais rapidement les deux premiers modes de fonctionnement ont été abandonnés pour ne laisser subsister que le mode RF DSSS proche de la tech- nique utilisée par les systèmes de télécommunication mobile CDMA : ce sera le seul mode de fonctionnement que nous décrirons dans la suite. Description de la couche physique retenue La bande de fréquences retenue dans la version initiale du Wi-Fi est la bande ISM à 2,4 GHz soit de 2,402 à 2,4835 GHz où 14 canaux de 5 MHz ont été définis. Deux types de mo- dulation de phase sont utilisés: le B-PSK26 utilisant deux états de phase et le Q-PSK27 utilisant quatre états de phase per- mettent d’atteindre des débits maximaux théoriques de 1 et 2 Mbit/s pour une portée maximale de l’ordre de la centaine de mètres. L’étalement de spectre de type DSSS utilise un code d’éta- lement unique aléatoire (code PN) constitué d’une séquence binaire de Barker de longueur 11 (le temps d’un bit de don- nées est égal à un temps équivalent à 11 chips du code) utilisant une bande de signal utile d’environ 22 MHz (au lieu de 1 MHz pour la modulation seule). Il faut noter que la bande de fréquences occupée par un équipement Wi-Fi ne dépend pas du débit qui est utilisé et est d’environ 22 MHz (taille du masque d’émission de la norme) soit plus de quatre fois la largeur d’un canal. On ne peut donc utiliser simultanément tous les canaux si l’on veut éviter les interférences. Aux États-Unis, où les canaux 11 à 26 Binary-Phase Shift Keying 27 Quaternary-Phase Shift Keying Figure 4 : Pile de protocole 802.11. REE N°4/2016 121 Les Wi-Fi 14 ne sont pas ouverts, seuls les canaux 1, 6 et 11 peuvent être utilisés simultanément. En Europe, où seul le canal 14 n’est pas ouvert, il est possible, avec les dispositifs actuels, d’utiliser quatre canaux : 1, 5, 9, 13 (figure 5). La puissance d’émission est règlementée dans chaque pays ou région en étant limitée, selon les conditions d’uti- lisation à 10 ou 100 mW28 , soit 10 ou 20 dBm de PIRE29 . La PIRE est égale au produit de la valeur de la puissance de l’amplificateur de sortie par le gain de l’antenne d’émis- sion. Elle est souvent de l’ordre de 50 mW pour la plupart des systèmes. Les systèmes non professionnels n’intègrent pas de régulation de puissance et émettent à puissance constante quelle que soit la distance entre l’émetteur et le récepteur. 28 Pour la France la puissance maximale est définie par la décision de l’ARCEP 2014-1263 fixant les conditions d’utilisation des fréquences radioélectriques par des dispositifs à courte portée. 29 Puissance Isotrope Rayonnée Équivalente Description de la couche MAC L’envoi des informations en Wi-Fi utilise un système fondé sur des trames de données ou de contrôle/gestion séparées par des temps ou espaces dits “inter-trames” : les IFS30 qui lui donnent un aspect temporel en rafales ou “bursté” (figure 6). L’unité de temps principale du système Wi-Fi est le time slot (TS) qui est égal à 20 s ; il intervient dans les calculs des différents IFS. Il existe trois types d’IFS qui contrôlent l’accès au canal : s séparant deux trames appartenant à une même transmission (données et accusé de réception ACK) ; s (1 SIFS + 1 TS), il est utilisé par un point d’accès pour accéder avec priorité au média radio et est inférieur au DIFS ; au média et est égal à 50 s (1 SIFS + 2 TS). 30 Inter Frame Spacing Figure 5 : Les 14 canaux Wi-Fi de la bande 2,4 GHz avec indication des quatre canaux utilisables simultanément en Europe. Figure 6 : Aspect temporel d’émission de données avec Wi-Fi. 122 REE N°4/2016 ❱❱❱❱❱❱❱❱❱❱❱ RETOUR SUR Les valeurs de ces IFS sont constantes, mais varient selon les versions : plus les IFS sont courts, plus le système est per- formant. On peut aussi faire varier la valeur de DIFS (tout en la gardant supérieure à PIFS), par exemple en fonction du type d’utilisation, et donner ainsi des priorités différentes (figure 7). Le Wi-Fi utilise quatre techniques élémentaires (CSMA- CA, RTS/CTS, ACK et NAV) pour accéder à la ressource : Le CSMA-CA31 est proche du CSMA-CD32 utilisé par le sys- tème filaire. Cette technique d’accès est de la famille des LBT33 : les nœuds du système écoutent leur environnement radio et estiment s’ils peuvent prendre la parole ou doivent attendre la fin d’une transmission. Comme il n’est pas possible de détecter les collisions car l’émission masque une éventuelle réception et que les ondes EM ne sont pas confinées dans un câble, Wi-Fi va chercher à les éviter. Le principe d’accès du CSMA-CA est un processus aléatoire temporel : dans un premier temps la station écoute la bande de fréquences ou le canal radio et compare le niveau mesuré avec une consigne. Si le niveau est supérieur, elle estime que le canal est utilisé par un autre équipement (Wi- Fi ou non), dans le cas contraire, elle considère que le canal est libre et va lancer la procédure d’accès (figure 7). 31 Carrier Sense Multiple Access-Carrier Avoidance 32 Carrier Detection 33 Listen Before Talk Dans le cas où une station a des données à transmettre et a détecté que le canal est libre, après avoir attendu un temps DIFS, elle lance un algorithme de back-off en tirant une valeur aléatoire comprise entre 1 et une valeur CW34 qui multipliée par le temps TS représente le temps que la station devra attendre avant de pouvoir accéder à la ressource. Pen- dant ce temps, elle poursuit l’écoute du canal : s’il apparaît qu’une autre station est passée en émission, elle interrompt le décompte du temps de back-off. La valeur résiduelle de ce temps sera utilisée pour tenter de transmettre les données que l’indisponibilité du canal n’a pas permis d’émettre : ainsi cette station se trouve favorisée pour l’accès à la ressource radio. La valeur de CW est très importante (ou stratégique), car plus elle est grande, moins il y a de risques de collision entre les émissions des stations (moins de pertes de trames), mais plus les stations attendent longtemps en moyenne avant d’émettre, ce qui entraîne une réduction importante du débit utilisable. La norme prévoit donc une variation de CW en fonction de la charge du réseau Wi-Fi : le back-off est dit exponentiel (BEB35 ) car il est réduit d’un facteur 2 chaque fois que la station ne perçoit pas de collision et multiplié par 34 Contention Window 35 Binary Exponential Back-Off Figure 7 : Les temps inter-trames : les IFS. Figure 8 : Algorithme du back-off. REE N°4/2016 123 Les Wi-Fi 2 (tout en restant toujours inférieur ou égal à une limite CW max) si la station perd trop souvent des trames. La performance d’un matériel Wi-Fi dépend très forte- ment de la qualité d’implémentation de cet algorithme, elle n’est pas précisée dans la norme et varie d’un constructeur à l’autre. Un et de retransmission permet de s’assurer de la bonne réception des données par la station destinataire. Pour chaque trame ou groupe de trames correctement reçus, le récepteur valide la bonne réception par une trame prioritaire spécifique d’accusé de réception, ACK. Lorsque l’ACK d’une trame ou d’un groupe de trames n’est pas correctement reçu par la station émettrice, celle-ci retransmet la trame ou le groupe de trames en cause. Lorsque le Wi-Fi est utilisé en mode « Infrastructure » il est possible de faire apparaître des situations où certaines stations ne sont pas visibles de toutes les autres stations. On appelle nœuds cachés, des stations (ou points d’accès) qui ne sont vues que par une partie des autres stations, la figure 9 en montre un exemple typique. Quatre équipements sont présents dans une zone (A, B, C, D), A veut dialoguer avec B et C avec D. Les cercles, vert autour de A et rouge autour de C, représentent leur zone d’influence et de détection. La station A détecte B, mais pas C ni D tandis que la station C détecte B et D, mais pas A. 36 indique la durée probable de la transmission et le RTS/CTS37 sert à évi- ter les collisions dans les cas des nœuds cachés (figure 10). Si la procédure RTS/CTS n’existait pas, il pourrait y avoir col- lision au niveau de la station B car A et C pourraient émettre en même temps. Mais avec ce mécanisme, A avant de trans- mettre indique par un RTS sa volonté de dialoguer avec B et la durée de cette transmission, il sera reçu par B seul (zone verte), qui répond par un CTS qui valide la demande de A, lequel sera reçu dans sa zone d’influence (en bleu) et donc par A et C. La station C sera donc avertie que A va émettre et attendra la fin du NAV pour relancer la procédure d’accès. La version 802.11b Cette version date de la fin de 1999 et apporte essentielle- ment une augmentation du débit de transmission pour rester compatible avec les évolutions des matériels et suivre l’amé- lioration de l’Ethernet sur câble et des normes concurrentes. Seule la couche physique est modifiée pour faire évoluer les débits maximaux théoriques de 1 à 5,5 Mbit/s et de 2 à 11 Mbit/s, tout en restant compatible avec la norme de 1997. La bande de fréquences et les canaux utilisés sont inchangés. L’augmentation du débit ne se fait pas par un changement de modulation, mais par l’utilisation d’un “sur code” le CCK38 qui va réarranger et optimiser le résultat de la modulation BPSK ou QPSK précédente, d’où ce gain net de 5,5. Cette amélio- ration n’est efficace qu’à courte portée, comme chaque fois que l’on optimise la modulation sans toucher à la puissance (figure 11 a). Une autre limite vient du fait que l’amélioration de la vitesse de transmission des bits dans une trame voit 36 Network Allocation Vector 37 Request To Send / Clear To Send 38 Complementary Code Keying Figure 9 : Problème des nœuds cachés. Figure 10 : La procédure RTS/CTS +NAV. 124 REE N°4/2016 ❱❱❱❱❱❱❱❱❱❱❱ RETOUR SUR son effet limité par l’absence d’une diminution proportionnée des durées des IFS (figure 11 b). La version 802.11g Cette version normalisée en 2003 apporte une amélio- ration importante du débit maximal théorique qui passe de 11 Mbit/s à 54 Mbit/s avec une modification importante des couches physique et MAC. En 1999, une version 802.11a a été normalisée et plutôt utilisée par le monde professionnel que par le grand public et plutôt aux États-Unis qu’en Europe. La norme « a » n’utilise pas la bande ISM à 2,4 GHz, mais la bande dite à 5 GHz (figure 12), qui est une bande libre, à l’époque sous-utilisée et donc moins brouillée ou polluée. Dans cette bande, 12 canaux de 20 MHz ont été définis sans problème de recouvrement comme c’est le cas avec la bande à 2,4 GHz. La technique d’étalement choisie est l’OFDM39 qui utilise un nombre éle- vé de sous-porteuses (SP) modulées indépendamment les unes des autres. Le principe en est apparu dans le milieu des années 1960, mais sa mise en œuvre nécessitait des proces- seurs de signaux (DSP) très rapides qui ne sont apparus que récemment (figure 13). L’OFDM permet de réduire la vitesse de modulation sur chaque sous-porteuse, mais augmente le débit final du fait de la mise en parallèle des données. Cette version appelée aussi Wi-Fi5 n’est pas compatible avec les autres versions Wi-Fi, mais a apporté aux profes- sionnels plus de QoS en termes de débit et de sécurité. Ses inconvénients sont sa portée moindre que celle de 802.11 b, liée à la fréquence d’utilisation plus haute, et un coût des équipements plus important. 39 Orthogonal Frequency Division Multiplexing (a) (b) Figure 11 : Portée et rendement du protocole suivant la modulation utilisée. Figure 12 : Définition des canaux dans la bande 5 GHz. REE N°4/2016 125 Les Wi-Fi La version “g” utilise les techniques de la version “a” en changeant la bande de fréquences qui passe de 5 à 2,4 GHz de façon à assurer la compatibilité ascendante avec la version « b ». Pour ce faire, la couche physique comprend donc deux parties : la couche physique DSSS compatible avec la version « b » et la couche physique OFDM dérivée de celle de la version « a ». Description de la couche physique La couche DSSS est identique à celle de la version « b ». Pour la partie OFDM, la bande utile utilisée est équivalente à celle de la version DSSS soit 20 MHz. 52 sous-porteuses sont utilisées sur 64 possibles (six porteuses, de chaque côté, sont mises à zéro pour introduire un intervalle de garde) : 48 pour les données et quatre “dites pilotes” pour l’estimation du canal de transmission. Elles sont espacées de 312,5 kHz. Une modulation plus performante, utilisant un nombre d’états plus important, est utilisée : la QAM 16 apportant un gain de modulation de 2 par rapport à la QPSK. Description de la couche MAC Pour fonctionner de façon optimale, trois modes de fonc- tionnement de la couche MAC ont été implantés : version “b”. Seule la couche physique DSSS est utilisée pour les trames de contrôle, de gestion et de données. version “a”, avec la même technique d’accès et un algo- rithme de back-off identique, mais avec des IFS plus courts et un time slot de 9 s (au lieu de 20 s pour les modes “b only” ou “mixte”). Les trames aussi sont modifiées, elles utilisent un en-tête plus court. La couche physique OFDM est utilisée pour les trames de contrôle, de gestion et de données. - tanément avec des stations version « b » et version « g ». Cette compatibilité descendante réduit la capacité de ce mode par rapport à la version “a”. Les deux couches phy- siques peuvent être utilisées. Généralement les trames de contrôle et de gestion utilisent le DSSS. La couche physique OFDM est utilisée pour les trames de contrôle, de gestion ainsi que les données si les conditions de propagation le permettent et que la distance est courte. En pratique le mode « g » permet d’atteindre des débits instantanés de l’ordre de la cinquantaine de Mbit/s (54 Mbit/s soit environ 20 Mbit/s utiles pour un utilisateur) pour une por- tée de quelques dizaines de mètres en fonction de la configu- ration du canal de transmission. La présence d’une station « b » dans un réseau « g » ralentit l’ensemble du réseau. Il existe aussi un mode “super a/g” qui est une modifica- tion de la norme par les constructeurs qui réduit la valeur de DIFS à la valeur des IFS et permet de doubler, en théorie, le débit maximal qui passe de 54 à 108 Mbit/s, mais il dégrade fortement le fonctionnement si le canal choisi est très occupé. La version 802.11n Cette version a été normalisée en 2009 et repose sur une nouvelle édition de la norme 802.11-2007 où la couche MAC n’est plus compatible avec les anciennes versions de DSSS. Elle intègre cinq améliorations de la couche physique OFDM permettant de faire passer la valeur du débit maximal théo- rique de 54 à 600 Mbit/s. La principale évolution est l’utilisation de la technique MIMO (Multiple Input Multiple Output) [5] qui fait appel à plusieurs antennes à l’émission comme à la réception en as- sociant celles-ci en flux spatiaux parallèles (figure 14). Ainsi, un système 2x3 : 2 dispose de deux antennes à l’émission, trois à la réception et peut supporter, en diversité spatiale, deux flux différents fonctionnant en parallèle. Pour faire efficacement du MIMO, les antennes d’un équi- pement doivent être suffisamment éloignées (une demi-lon- gueur d’onde au moins) pour être découplées. Sur la station, Figure 13 : Schéma de principe de l’OFDM. 126 REE N°4/2016 ❱❱❱❱❱❱❱❱❱❱❱ RETOUR SUR le nombre d’antennes est limité, le plus souvent, par la taille du récepteur. Cela explique l’obligation faite aux équipements de fonctionner a minima en mode MIMO 2x2 pour être cer- tifiés « n » par la Wi-Fi Alliance. Cependant le Wi-Fi 802.11n a été standardisé en 4x4 : 4, c’est-à-dire qu’il peut théorique- ment supporter quatre flux. Dans la pratique, les systèmes 802.11n disponibles sur le marché supportent généralement trois flux avec un débit maximal de 450 Mbit/s. Le débit de 600 Mbit/s annoncé n’est valable que si l’on utilise MIMO 4x4, sinon on ne dispose que de 150 Mbit/s par flux. Description de la couche physique Cette nouvelle couche est capable d’utiliser les bandes de fréquences 2,4 et/ou 5 GHz. La bande à 2,4 GHz est utilisée pour des échanges avec des versions plus anciennes ou à grande distance, tandis que la bande 5 GHz est utilisée pour les modes très haut débit et à courte distance. Une modulation encore plus performante peut être uti- lisée: la QAM 64 qui comporte 64 états différents. L’étale- ment de spectre est toujours assuré par l’OFDM, mais avec la possibilité d’avoir quatre sous-porteuses de plus, toujours espacées de 312,5 kHz. La largeur des canaux est variable : 20, 2x20 ou 40 MHz. Pour assurer la compatibilité avec l’édition 802.11-2007, la couche physique comporte plusieurs modes de fonction- nement : « a » et « g » (compatible avec les versions « a » et « g » pures) avec des canaux de 20 MHz et 52 sous-porteuses (48 data + 4 pilotes ; FFT 64) sans MIMO ; jusqu’à quatre flux en parallèle (4x4) et des canaux de 20 MHz avec 56 sous-porteuses, (52 data + 4 pilotes, FFT 64) ou de 40 MHz de large comportant 114 sous- porteuses (108 pour les données + 6 pour des pilotes ; FFT 128) ; adjacents de 20 MHz au format de la version “a” ; transmettre un paquet “Legacy” soit dans les 20 MHz de spectre supérieurs ou inférieurs d’un canal de 40 MHz (figure 15). Figure 14 : Principes de fonctionnement du MIMO. Figure 15 : Débit versus modulation et codage pour la version n en fonction de l’intervalle de garde temporel (GI: Guard interval). REE N°4/2016 127 Les Wi-Fi Les couches MAC et LLC ont été modifiées pour augmen- ter l’efficacité du système : - ferts temps réels, - mation électrique. La version 802.11ac Cette nouvelle version est sortie en fin d’année 2013 et évolue encore aujourd’hui. Elle prolonge l’édition 802.11- 2012 de la norme qui a intégré toutes les modifications et corrections apportées jusqu’à l’amendement “z”. L’évolution des techniques MIMO, l’augmentation de la vitesse des DSP et l’augmentation de la taille des mémoires ont permis d’optimiser encore davantage les systèmes Wi-Fi. Le 802.11ac offre une meilleure QoS et un débit théorique maximal qui pourrait passer de 600 Mbit/s à plus de 1 Gbit/s. Pour obtenir ces valeurs, la couche physique a été forte- ment “dopée” par rapport à la version “n” : et aller jusqu’à 160 MHz au lieu de 40 MHz en “n” ; un utilisateur. Mais l’emploi d’un nombre d’antennes plus important permet au point d’accès de faire du “beam for- ming”, c’est-à-dire de pouvoir modifier son diagramme d’émission et notamment de créer plusieurs lobes dans des directions différentes pour cibler plusieurs utilisateurs en même temps ; 40 ) alors que dans la version “n” il n’était que mono-utilisateur (SU-MIMO41 ). La modulation évolue vers l'emploi de la QAM 256. Le ta- bleau 1 indique les performances en débit théoriques atten- dues de 802.11ac dans un certain nombre de configurations d’usage avec des équipements au nombre d’antennes varié (d’après des sources IEEE) et en utilisant ce type de modula- tion. Parmi ces résultats on peut noter que : et une à la réception) sur un canal de 80 MHz, le débit attendu est de 433 Mbit/s ; l’émission et deux à la réception) sur un canal de 160 MHz, le débit attendu est de 1 690 Mbit/s par utilisateur pour un débit agrégé de 6,77 Gbit/s. Aujourd’hui, toutes les avancées prévues par cette version ne sont pas implémentées dans les matériels “ac” dispo- nibles dans le commerce et nous ne disposons pas d’assez de recul pour savoir ce qui est vraiment mis en œuvre par les industriels. Malgré tout, pour certains matériels disponibles sur le marché, le nombre de flux maximal par utilisateur serait de 3 et sur de courtes distances avec l’utilisation de la QAM 256 dans une bande de 80MHz, le débit pourrait atteindre 40 Multi User-MIMO 41 Single User-MIMO Configurations types AP = Access point - STA = Station Clients typiques Débit de chaque liaison physique Capacité agrégée AP Une antenne, une STA Une antenne, 80 MHz Handheld 433 Mbit/s 433 Mbit/s AP Deux antennes, deux STA Une antenne 80 MHz Tablet, laptop 867 Mbit/s 867 Mbit/s AP Une antenne, une STA Une antenne, 160 MHz Handheld 867 Mbit/s 867 Mbit/s AP Trois antennes, trois STA Une antenne, 80 MHz Laptop, PC 1.27 Gbit/s 1,27 Gbit/s AP Deux antennes, deux STA Une antenne, 160 MHz Tablet, laptop 1.69 Gbit/s 1,69 Gbit/s AP Quatre antennes, quatre STAs Une antenne, 160 MHz (MU-MIMO) Handheld 867 Mbit/s pour chaque STA 3,39 Gbit/s AP Huit-antennes, 160 MHz (MU-MIMO) Digital TV, Set-top Box, Tablet, Laptop, PC, Handheld 6,77 Gbit/s AP Huit antennes, quatre STAs Deux antennes, 160 MHz (MU-MIMO) Digital TV, tablet, laptop, PC 1.69 Gbit/s pour chaque STA 6,77 Gbit/s Tableau 1 : Débits maximaux théoriques en fonction de la configuration choisie (tous les débits supposent une modulation en 256-QAM) – Source IEEE. 128 REE N°4/2016 ❱❱❱❱❱❱❱❱❱❱❱ RETOUR SUR 1,2 ou 1,3 Gbit/s. Le reste des fonctionnalités possibles sera implanté progressivement dans les prochaines années lors des futures évolutions de cette version. La version 802.11ad Une première version de 802.11ad a été publiée en 2012 sous la dénomination de WiGig [6]. Celle-ci apporte des mo- difications aux couches physique et MAC pour pouvoir utiliser la bande libre à 60GHz (57 à 66 GHz) en complément des bandes à 2,4 et 5 GHz42 . Le transfert de données devrait se faire à très haut débit (> 6 Gbit/s) sur un canal de 2,16 GHz. La portée maximale serait la dizaine de mètres et le “beam forming” permettrait d’augmenter la portée du 60 GHz, qui se propage moins bien que les fréquences basses. Le beam forming à 60 GHz peut être facilité en utilisant les fréquences basses pour coordonner les stations « ad » ou faire plus faci- lement du MU-MIMO : les stations seront localisées par le calcul des matrices de passage MIMO en 2,4 GHz (figure 16). A ce jour, il n’y a pas encore de matériels 802.11ad dispo- nibles en France. La version 802.11af La première version de la norme a été publiée en 2014 et est prévue pour être utilisée aux États-Unis (pour l’ins- tant). C’est la première version utilisant une technologie de radio cognitive [7] en utilisateur secondaire dans des bandes dédiées normalement aux systèmes de télédiffusion VHF et UHF (dit primaires), soit entre 54 et 790 MHz. Elle utilise dans ces bandes des espaces dits “blancs” (TV White Space), 42 Voir la rubrique « Actualités » dans ce même numéro. c’est-à-dire où la ressource est localement inutilisée du fait que la réception ne fonctionne pas (trou de couverture) ou correspond à des canaux non utilisés localement. Ce type de systèmes doit pouvoir fonctionner sans jamais interférer avec les systèmes primaires, ils doivent donc intégrer des techniques de mesure et de reconfiguration rapides. La plu- part de ces techniques ont été développées pour la “radio (Cognitive Radio). Cet amendement introduit des techniques très similaires à celles utilisées dans la norme IEEE 802.22 spécifique [8] pour les applications utilisant la radio cognitive en espace blanc (Cognitive Radio in White Space). Le système utilise sa position géographique, obtenue à l’aide d’un récepteur GPS, puis recherche dans une banque de données la liste des canaux disponibles à un moment donné. Il peut utiliser un ou plusieurs canaux dont la bande utile ne devra pas excéder la largeur d’un canal de télévi- sion soit entre 6 et 8 MHz (suivant les normes TV) ainsi que toutes les techniques modernes de modulation et de codage, notamment l’OFDM, la modulation QAM 256 et le MU-MIMO. Le débit maximal visé serait de l’ordre de 160 Mbit/s par canal de 8 MHz en utilisant le MIMO 4x4. En France, on est encore en attente d’une autorisation d’émettre par les autorités de régulation et il n’y a pas encore de matériel disponible sur le marché. Autres versions 802.11 Pour être vraiment exhaustif sur Wi-Fi, il aurait fallu aussi parler des versions de la norme, moins connues mais non moins importantes. A la différence des versions décrites pré- Figure 16 : Principe de fonctionnement de 802.11ad - Source IEEE. REE N°4/2016 129 Les Wi-Fi cédemment qui étaient autosuffisantes, celles-ci ont été inté- grées et font partie des éditions (“Legacy”) de Wi-Fi suivant leur normalisation. Parmi ces amendements, on peut citer ceux qui ont eu un impact significatif sur les versions des normes Wi-Fi : et des modifications pour rendre la norme Wi-Fi compa- tible avec des règlementations ou contraintes particulières à certains pays. Par exemple elles peuvent restreindre ou sélectionner le nombre de canaux utilisables ou adapter la puissance maximale ; norme des mécanismes de chiffrement et d’authentifica- tion plus performants. A leurs débuts, les systèmes Wi-Fi utilisaient le WEP (Wired Equivalent Privacy) qui comme son nom l’indique vient du monde filaire et était devenu inefficace pour les transmissions sans fil : il suffisait d’écou- ter le canal un certain temps pour pouvoir récupérer les informations de décodage des trames. WEP a été rempla- cé par WPA (Wi-Fi Protected Access) puis rapidement par WPA2, plus adapté et performant pour les communications sans fil. Ce nouveau système de protection complique l’ac- tion des “pirates” mais ne saurait être parfait. Cependant la version « entreprise » du WPA2, dans laquelle l’identifica- tion est confiée à un serveur utilisant un protocole du type RADIUS, offre un niveau de sécurité jugé convenable. Nota : le mode « Personal » utilise une clé partagée qui peut être interceptée lorsque l’on utilise la fonctionnalité WPS (Wi-Fi Protected Setup) lancée par la Wi-Fi Alliance mais qui ne fait pas partie du standard ; gestion de la QoS en privilégiant certaines stations ou ap- plications, par exemple celles travaillant en temps réel. La version de base utilisait le même mécanisme d’accès à la ressource (CSMA-CA) pour toutes les demandes d’accès. Les mécanismes supplémentaires permettent de donner priorité à des applications ne supportant pas de retard par rapport à d’autres qui sont seulement sensibles aux erreurs de transmission. C’est par l’utilisation accrue du mode PCF dans lequel le point d’accès choisit la station qui parle et par l’ajustement des temps inter-trames (IFS) — plus ils sont courts plus la station est prioritaire — que des stations peuvent être rendues prioritaires ; à la bande réservée pour les véhicules c’est-à-dire la bande 5,7 - 5,8 GHz et être utilisé dans les projets de véhicules connectés ; des réseaux maillés avec Wi-Fi (“réseaux Mesh”). Cet amendement permet de basculer d’un point d’accès à un autre sans perdre la connexion et sans faire les démarches de recherche et d’association avec un nouvel AP. Ainsi, en théorie, une certaine mobilité devient possible : un piéton peut marcher en restant connecté, mais cet amendement ne permet pas d’offrir un service équivalent à celui d’un réseau mobile cellulaire. Avec 802.11r, la fréquence basse (2,4 GHz) est utilisée pour les transferts de données et la fréquence haute (5 GHz) est en principe réservée pour la synchronisation entre points d’accès. “Futures” versions 802.11 ah, …, ax, ay” devrait être approuvée fin 201643 . Elle a été annoncée début 2016 par la Wi-Fi Alliance sous contraintes qui sont celles de l’Internet des objets (IoT). Il s’agit en particulier de réduire la consommation des sta- tions qui dans le contexte de l’IoT sont des capteurs ne dis- posant que de très peu de puissance et d’améliorer la portée qui pourrait atteindre le kilomètre. Il utilise des bandes libres dans la bande de fréquences de 900 MHz. Il peut offrir des échanges à bas débit, au minimum 150 kbit/s. Les modes de fonctionnement s’éloignent de ceux du LAN traditionnel : par exemple, des mécanismes de mise en veille des stations et de réveil programmés peuvent être mis en œuvre avec l’objectif de réduire la consommation ainsi que la contention dans l’accès à la ressource radio, dans l’optique de réseaux à très grand nombre de stations. De même une fonction de relais peut être assurée par une station donnée pour étendre la zone de couverture d’un point d’accès et aussi réduire le temps pendant lequel d’autres stations restent en veille. Enfin des stations peuvent être groupées logiquement et il est pos- sible, à un instant donné, de limiter l’accès à un groupe de stations. est prévue pour 2019 : son objectif essentiel est d’améliorer le fonctionnement du Wi-Fi dans les zones possédant une très forte densité de stations où les mécanismes actuels d’accès au canal radio ont tendance à réduire fortement les débits utiles. L’objectif est pour l’heure de multiplier par quatre les débits moyens par utilisateur dans les zones denses. Les débits et largeurs de canaux restent ceux de 802.11ac mais on prévoit de faire appel aux nouveautés suivantes : mais avec la possibilité de constituer huit transmissions MU-MIMO ; 43 On peut se reporter à REE 2016-01 p. 21 pour des informations com- plémentaires 130 REE N°4/2016 ❱❱❱❱❱❱❱❱❱❱❱ RETOUR SUR dans lequel on assigne à chaque utilisateur un ensemble de sous-porteuses : cette technique est utilisée actuellement dans les systèmes mobiles de quatrième génération. Évidemment, nous sommes encore loin de la disponibi- lité des spécifications et des évolutions autres sont encore possibles. est en cours de définition. Son objectif est d’améliorer les débits et la portée de la version 802.11ad dans les bandes libres vers 60 GHz et d’atteindre des débits de 20 à 40 Gbit/s et une portée qui pourrait pas- ser de la dizaine à la centaine de mètres. La disponibilité des spécifications est planifiée pour 2017. Les futures versions de Wi-Fi ne sont pas encore sorties officiellement et sont en cours de développement. Elles apporteront encore d’autres améliorations en termes de consommation, de sécurité et de débit en intégrant de nou- velles techniques de modulation, de codage et de sécurité. Mais aussi du fait de la libération de nouvelles bandes de fré- quences libres, pour les communications radiofréquence, par l’UIT (Union internationale de télécommunications) et par les réglementations nationales, dans des bandes inférieures à 1 GHz et supérieures à 10 GHz. Les solutions Wi-Fi doivent aussi faire face à la concur- rence des télécommunications pour l’utilisation des bandes libres. Des industriels du monde des télécommunications testent en ce moment une nouvelle version de la 4G : le LTE-U ou LTE-LAA qui pourrait utiliser une partie de la bande 5 GHz (utilisée pour l’instant essentiellement par Wi-Fi) en association avec une fréquence de téléphonie mobile dédiée pour accroître les débits 4G qui viendrait donc fortement concurrencer les normes 802.11, mais aussi interférer avec elles. Mais on a vu également que les nouvelles versions du Wi-Fi s’appuient sur des techniques mises en œuvre dans les systèmes cellulaires de 4e génération. La définition des sys- tèmes cellulaires de 5e génération sera peut-être l’occasion d’un rapprochement des deux mondes. Bibliographie [1] “IEEE 802.11: The Group on Wireless Local Area Network (WLAN) Standards”, [En ligne]. Available: http://standards. ieee.org/about/get/802/802.11.html [2] “Wikipedia IEEE 802.11”, [En ligne]. Available: http:// en.wikipedia.org/wiki/IEEE_802.11. [3] P. Mühlethaler, 802.11 et les réseaux sans fil, Paris : Editions Eyrolles, 2002. [4] K. Al Agha, G. Pujolle et G. Vivier, Réseaux de mobiles et réseaux sans fil, Paris: Editions Eyrolles, 2001. [5] D. Le Ruyet et B. Özbek, « Systèmes MIMO et codage spatio-temporel », REE, n°4, p. 69, Avril 2005. [6] Wireless Gigabit Alliance (WiGig), “Defining the Future of Multi-Gigabit Wireless Communication”, 2010. [7] C. Le Martret, « A propos des applications de la radio cognitive », REE, n°1, 2013. [8] D. Lekomtcev et R. Marsalek, “Comparison of 802.11af and 802.22 standards physical layer and cognitive functionality ” elektrorevue, vol. 3, n°2, June 2012. Thierry Letertre est enseignant-chercheur, professeur adjoint au laboratoire SONDRA, à CentraleSupélec (campus de Gif-sur-Yvette). Il est docteur en électromagnétisme (École su- périeure d’électricité - Supélec) et son domaine de recherche est la mesure et la caractérisation de l’impact des ondes électromagnétiques sur l’environnement. Il contribue aux travaux de l’Agence nationale de sécurité sanitaire de l’alimentation (ANSES), de l’Agence nationale des fréquences (ANFR) et du comité français d’accréditation COFRAC. REE N°4/2016 131 Président de l’Académie des technologies ENTRETIEN AVEC ALAIN BUGAT REE : Alain Bugat, vous êtes président de l’Académie des technologies, pourriez-vous nous présenter cette institution ? Alain Bugat : L’Académie des tech- nologies est en France, en particulier au regard de ses consœurs de l’Insti- tut de France, la plus jeune des acadé- mies ; mais c’est loin d’être le cas dans le monde où de nombreuses institu- tions ont été créées depuis longtemps pour reconnaitre et mettre en valeur le domaine des technologies (ou ”engi- neering“). En France, il a fallu attendre le 12 décembre 2000 pour que le CADAS (Conseil des applications de l’Académie des sciences) soit transformé en Acadé- mie des technologies, à l’époque sous forme d’association. Le 6 décembre 2006, l’Académie a acquis le statut d’établissement public à caractère administratif national et le 22 juillet 2013 elle a été placée, par la loi relative à l’enseignement supérieur et à la recherche, sous la protection du Pré- sident de la République. L’Académie des technologies est au- jourd’hui financée pour l’essentiel par le budget de l’Etat ; son ministère de tutelle est le ministère chargé de la recherche. Un Fonds de dotation lui est associé afin de pouvoir mobiliser plus facilement des financements d’origine privée et nous réfléchissons à l’évolution de ce dernier vers un statut de fondation,. Les académiciens, au nombre de 304, ne sont pas rémunérés. La limite d’âge pour le statut de membre titulaire est de 72 ans. Au-delà, les membres deviennent émérites. Nous avons dans notre assemblée une large proportion de membres ayant une expérience in- dustrielle afin de bien coller à notre mis- sion principale qui est de conduire des réflexions, formuler des propositions et émettre des avis sur les questions rela- tives aux technologies et à leur interac- tion avec la société. Notre mission n’est donc pas de nous substituer aux organismes ayant la recherche et le développement comme vocation principale mais de nous focali- ser sur les problèmes liés à l’interaction entre les technologies et la société : comment les technologies nouvelles peuvent-elles être acceptées, comment mieux les utiliser, quelles opportuni- tés peuvent-elles offrir et quels risques peuvent-elles présenter ? Les sciences humaines et sociales jouent donc un rôle important dans nos réflexions, dans nos travaux et donc aussi dans notre recrutement et nous trouvons au sein de l’Académie, des psycholo- gues, des urbanistes, des architectes… Nous essayons d’avoir sur chaque sujet une approche pluridisciplinaire fondée sur des regards croisés. REE : Quels sont ses principaux thèmes de réflexion actuels ? A. B. : Nous travaillons par commissions thématiques qui sont au sein de l’Aca- démie des structures pérennes. Cette approche par commissions est complé- tée par des groupes de travail transver- saux. A la fin du travail en commission, un rapport et un avis sont produits et vo- tés par l’Académie après avis du Comité qualité. Nous essayons de nous appuyer sur notre expertise collective et indé- pendante pour produire des rapports aussi objectifs que possible, à l’abri des passions et de la mode. Nos rapports sont en outre relus par la commission d’éthique avant leur adoption. Aujourd’hui, le changement clima- tique, sur lequel nous avons publié un important rapport en novembre 2015 dans le cadre de la préparation de la COP21, reste un sujet important. Nous achevons la préparation d‘un nouveau rapport sur « Les technologies et le chan- gement climatique : des solutions pour l’atténuation et l’adaptation ». Un deuxième thème est celui des services urbains et de l’évolution du rôle des opérateurs. Le troisième thème a trait aux proces- sus de développement associant, à l’ère du numérique, innovation/création de start-up/croissance/emploi. Ce sera le thème du séminaire 2016 de l’Académie. Le quatrième thème est celui du “soft power” pour lequel il nous semble indispensable de renforcer le capital fran- çais. Le soft power se définit comme la capacité de séduire ou de persuader sans faire usage de la force ou de la menace. Cette influence s’exerce notamment par la culture qui est la fois « héritée » (c’est le patrimoine culturel et artistique) et « vivante » (c’est la partie qui relève de la créativité contemporaine). La culture vivante prend appui sur la culture héritée mais elle doit évoluer et se renouveler pour faire vivre des activités économiques très importantes pour notre pays telles que le tourisme et la mode. Or ces activités sont de plus en plus menacées par la concurrence d’autres pays, en particulier anglo-saxons, qui veulent par exemple remettre en cause le rôle de leaders que jouent les places Les technologies existent, il faut savoir les utiliser L’Académie des technologies : Pour un progrès raisonné, choisi et partagé 132 REE N°4/2016 de Paris et de Milan dans le domaine de la mode et plus généralement la posi- tion dominante acquise par la France dans l’industrie du luxe. Il faut donc faire preuve d’imagination et susciter de nou- velles initiatives. Un autre très grand thème est celui de l’industrie du futur que nous abor- dons en coopération avec le Conseil général de l’économie, avec notamment pour ambition de combler les lacunes dans les filières de formation et d’adap- tation aux nouveaux métiers. Sans vouloir être exhaustif, je men- tionnerai également nos travaux sur le séquençage génomique et le domaine des soins à domicile : la domo-médecine. REE : Vous avez préfacé le dernier rapport sur les Technologies-clés 2020 dont notre revue s’est faite l’écho dans son précédent numéro. On en recense 47. Cela fait beaucoup. Quelles sont selon vous les techno- logies véritablement structurantes et qu’il nous faut absolument maîtriser ? A. B. : Il y a effectivement beaucoup de technologies aujourd’hui en déve- loppement et il est très difficile d’iden- tifier celles qui pourront avoir un impact aussi majeur que celles que nous avons connues dans les années 1990. Il faut se méfier de la mode et de l’amplification que génère la multiplication des moyens d’information. Ainsi le stockage de l’électricité est-il un sujet d’actualité. Mais de quel stoc- kage parle-t-on : journalier, hebdoma- daire, saisonnier ? Les technologies sont tout à fait différentes. Il y a des appli- cations potentielles intéressantes mais ne parlons pas de révolution. A terme cependant, je pense que l’hydrogène est un vecteur qui peut se révéler comme technologie disruptive. Pour rester dans le secteur de l’éner- gie, je conseillerais de porter davantage d’attention aux SMR (Small Modular Reac- tors). Le nucléaire traverse une passe dif- ficile. Il est possible que l’ère des grands réacteurs soit, dans beaucoup de pays, derrière nous. Lee petits réacteurs, her- métiquement scellés, peuvent constituer une réponse appropriée aux besoins de nombreux pays. Il me semble dommage que la France n’ait pas encore vraiment pris la mesure de cet enjeu. Bien entendu les technologies de l’in- formation continuent à revêtir un intérêt primordial, sous différents aspects : le traitement des données massives, l’intel- ligence artificielle avec l’émergence de nouveaux procédés d’apprentissage et la modélisation des mécanismes du cer- veau. La France a la possibilité de revenir dans le jeu des moteurs de recherche et des systèmes d’exploration des grandes bases de données. Les techniques de communication sécurisée sont essentielles au regard des risques toujours grandissants de cyberattaques. Au niveau des matériels, le déve- loppement de supercalculateurs est un domaine où nous avons des atouts. Il faut les valoriser. La nanoélectronique est également un enjeu important : les techniques de gravure semblent encore à même de suivre la loi de Moore ; pour les matériaux, c’est plus difficile, il y a du chemin à faire. REE : Pensez-vous que le rythme d’évolution des technologies se soit accéléré ? A. B. : Oui, j’en ai le sentiment. Il y a de plus en plus de gens qui s’investissent dans le domaine de la recherche. Regardez par exemple le challenge 2016 d’Atos sur la gestion des données personnelles en ligne et la protection du droit à l’oubli : il y a eu 53 réponses provenant de 19 pays qui ont proposé chacune un concept différent ! REE : Vous nous disiez plus haut qu’il fallait se méfier des modes. L’impor- tance du numérique est souligné dans toutes les analyses technico- économiques et l’on compare parfois son impact à celui de l’arrivée de l’électricité. Mais le numérique est souvent synonyme de destruction d’emplois et son impact sur le bien- être des gens peut être discuté. N’a-t-on pas tendance à surestimer son poids ou du moins son apport positif ? A. B. : Le numérique est une vraie révolution et son impact sur la vie des gens est et restera très fort. Bien sûr il y a une phase de destruction mais la phase créative est considérable. Son impact est encore aujourd’hui sous-es- timé, aussi bien sur l’emploi que sur la vie quotidienne. L’Académie pro- pose la création d’une Agence inter- nationale du numérique dont les deux missions essentielles seraient la pro- motion mais aussi le contrôle de ces technologies. Changement climatique, services urbains, numérique, soft power, industrie du futur… Petits réacteurs, hydrogène, supercalculateurs, intelligence artificielle, nanoélectronique… Le numérique est une vraie révolution REE N°4/2016 133 REE : La transition énergétique est une autre grande affaire du moment. Quelle en est votre définition ? Pensez-vous que les objectifs de notre loi de transition énergétique soient raisonnables et que nous soyons à même de les atteindre ? A. B. : La bonne échelle de temps n’est pas celle de la loi. Les dirigeants politiques comme l’homme de la rue sont toujours trop pressés. Il ne s’agit pas de ne pas réduire nos émissions de gaz à effet de serre. Mais pourquoi faut-il imposer des dates butoirs aussi rappro- chées ? Les politiques pensent pouvoir maîtriser l’échelle de temps mais il faut que les choses mûrissent. L’objectif de ramener la part du nu- cléaire à 50 % n’est pas choquant en soi, mais pourquoi vouloir le faire dès 2025 ? Cela n’est pas raisonnable. L’hori- zon 2050 me semble plus réaliste. Sur le photovoltaïque, on veut aller trop vite alors que l’on n’a pas le recul néces- saire, sur les coûts de maintenance des panneaux par exemple ou les coûts des moyens en back up pour compenser l’intermittence. On compare des choses stabilisées et validées avec des proces- sus qui sont encore en développement. Si les prix actuels se confirment, il y aura un processus de substitution naturelle et il n’y a pas besoin d’aller à marche forcée. Je répète que je crois également au fu- tur de l’hydrogène, pour la mobilité notam- ment. Bien entendu, il faudra le fabriquer mais il existe des possibilités très intéres- santes de conversion de la biomasse, par exemple par des réactions qui s’apparentent à celles des procédés Fischer-Tropsch. A plus long terme, la fusion thermo- nucléaire offre des perspectives fon- damentales. Il n’y a pas de problèmes physiques majeurs à résoudre sur ITER qui est un très grand projet de recherche. Mais c’est un projet complexe, compte tenu notamment de sa structure interna- tionale, dont la gestion est difficile1 . 1 NDLR : Le lecteur pourra se référer au dos- sier sur la fusion thermonucléaire et ITER publié dans le présent numéro. REE : L’inventaire des technologies- clés n’a pas retenu la maîtrise du climat comme domaine applicatif à part entière. Quel est votre avis sur « l’urgence climatique » et les meil- leures façons d’y faire face ? Pensez-vous que l’Europe et la France en particulier ont raison de se poser en leaders dans ce domaine ? A. B. : L’Académie des technologies s’est penchée sur le problème du climat. Elle ne met absolument pas en cause les conclusions du GIEC, il n’y a pas de discussion sur ce point. On a regardé également le problème des effets du réchauffement et nous allons faire une série de recommandations. Notre sentiment est que le sujet est très important mais qu’il ne faut pas agir dans la précipitation. Nous ne sommes pas très convaincus par des objectifs dits « volontaristes » tel que le respect du fac- teur 4 en 2049. Par contre, la limitation moyenne à 2 °C fait sens. Nous pensons qu’elle résulte de modèles auxquels on peut faire confiance. REE : La mobilité est un sujet d’intérêt fondamental pour tous les citoyens. Comment voyez-vous évo- luer, et à quelle vitesse, les moyens que nous utilisons actuellement, les automobiles en particulier ? A. B. : Je pense que le véhicule élec- trique a cette fois véritablement démar- ré. Le mouvement est lancé et de plus en plus de parties prenantes y adhèrent. Le véhicule autonome est un autre challenge : on y va mais il y aura plu- sieurs stades, l’évolution se fera de fa- çon progressive avec de plus en plus de fonctionnalités installées, comme on l’a constaté au cours des dernières décen- nies lorsqu’il s’est agi de moderniser les métros. Mais je doute que le curseur aille jusqu’au bout, c’est-à-dire un véhicule to- talement autonome ; cela pose en effet un ensemble de problèmes qui ne sont pas seulement techniques et risquent de soulever pas mal de réticences de la part des populations concernées. REE : On a vu apparaître, en France comme ailleurs, un certain nombre de peurs : sur les déchets nucléaires, les ondes électromagnétiques, les nanoparticules, les OGM… qui entravent le développement de nouvelles technologies. Ne pensez- vous pas qu’il serait temps de reconsi- dérer le principe de précaution ? A. B. : Nous avons fait sur le sujet un travail il y a trois ans environ. Nos conclu- sions n’allaient pas dans le sens d’un abandon de ce principe qui, s’il était utilisé conformément à l’article 5 de la charte de l’environnement, répondrait à une préoccupation légitime. Malheureu- sement, son interprétation a été souvent dévoyée et orientée dans un sens néga- tif alors que le principe de précaution Ramener le nucléaire à 50 % n’est pas choquant mais vouloir le faire dès 2025 est déraisonnable Le changement climatique est un défi majeur mais il n’y a pas lieu d’agir dans la précipitation Le véhicule électrique a cette fois démarré 134 REE N°4/2016 est dans sa version constitutionnelle un principe d’action. Nous avons été sollicités plus récem- ment sur l’opportunité qu’il y aurait à introduire un « principe d’innovation » qui contrebalancerait le principe de pré- caution. Nous en avons discuté avec les autres Académies au sein de l’Observa- toire de l’expertise et nous avons conclu qu’il serait inapproprié d’inclure dans la Constitution un deuxième principe. Ce qui serait plus important serait de définir les conditions d’application du principe de précaution. Celles-ci devraient notamment prévoir une éva- luation du coût de l’inaction, de façon à prévenir une application excessive et stérilisante du principe de précaution. Nous restons en veille active sur ce thème, il faut préparer le terrain et sai- sir les opportunités pour agir le moment venu mais nous n’irons pas jusqu’à pro- poser un texte de loi. REE : Le problème est que la parole des experts – y compris celle de l’Académie – n’est plus crue. Com- ment pourrait-on redonner à la science et à la technique leurs lettres de noblesse ? A. B. : Nous proposons d’agir sur plusieurs fronts avec plusieurs leviers : 1. Faire en sorte que les avis, et les nôtres en particulier, soient issus de processus transparents, collectifs et indépendants ; 2. Comprendre pourquoi la société éprouve un tel scepticisme : méfiance envers les experts dont les avis sont contradictoires, aspects psycho-so- ciaux… On croit davantage ceux qui jouent sur les peurs, il faut donc cher- cher à rassurer et à convaincre par des arguments objectifs et compré- hensibles ; 3. Etre davantage présent dans les mé- dias, l’Académie s’y emploie ; 4. Etre également présent au niveau des universités et des écoles mais c’est une tâche de longue haleine. A ce stade je voudrais indiquer ma conviction profonde que le processus de débat public est dans notre pays inadapté. Les débats nationaux n’abou- tissent à rien et parfois sont même dans l’impossibilité de se tenir. Je préconise une approche en deux étapes, voisine du modèle anglo-saxon : une réflexion préliminaire très ouverte sur un sujet donné ; dans lequel les Autorités font des propositions sur la base de la matière collectée dans le Livre vert, lesquelles seront reprises et mises en forme dans un projet de loi, s’il y a lieu. Si l’on procède ainsi, il devient plus difficile aux « experts indépendants auto- proclamés » de faire de l’obstruction en donnant au public l’illusion du savoir. REE : Pensez-vous que nous soyons aujourd’hui organisés pour rester aux avant-postes de la course techno- logique? Le dispositif de formation est-il suffisant et efficace ? Beaucoup d’étudiants ou d’ingénieurs quittent la France et n’y reviennent pas. A. B. : On peut être légitimement pré- occupé par notre perte de savoir-faire sur le management des grands projets et les exemples ne manquent pas, de- puis l’EPR jusqu’à la Philharmonie de Paris. Nous avons été excellents mais aujourd’hui nous avons perdu une partie de notre crédit. Pourtant nos ingénieurs sont recon- nus comme très employables, grâce à leur formation, dans leur domaine mais aussi grâce à une ouverture d’esprit as- sez large qui leur a été donnée au cours de leur formation. Le domaine d’action privilégié par l’Académie est celui allant de Bac -3 à Bac+3. C’est aujourd’hui la tranche la plus utile pour faire redémarrer notre industrie et nos préconisations vont dans le sens d’un renforcement des filières alternance et apprentissage. Ce sont à ces tranches d’âges qu’il faut redonner l’esprit d’initiative et la confiance dans notre avenir industriel. REE : Mais on a l’impression qu’il ne s’agit pas seulement d’un problème humain mais aussi de problèmes structurels rendant difficile le lance- ment de nouvelles initiatives. A. B. : C’est vrai nos entreprises ont beaucoup de mal à se développer. Clai- rement, les banques ne font pas leur travail. Nous avons fait des propositions sur la réorientation des fonds collectés par l’assurance-vie. Mais le problème est que les opérateurs du système financier appliquent des méthodes et des règles qui tuent le développement industriel. Dans le domaine de la santé, nous essayons de promouvoir la création et le développement de start-up grâce à des holdings intermédiaires dotés de fonds de développement. REE : L’Union européenne est cen- sée jouer un rôle important dans la promotion de la recherche et des Il faudrait définir les conditions d’application du principe de précaution Le processus de débat public est à revoir REE N°4/2016 135 technologies nouvelles. Remplit- elle aujourd’hui correctement son rôle ? A. B. : J’ai une vision assez positive de l’action de l’Union européenne en ma- tière de développement technologique. L’Académie reste proche des décideurs de l’Union en matière de R&D notam- ment via Euro-Case, un interlocuteur écouté de la Commission européenne qui regroupe 22 académies euro- péennes des sciences et technologies. On perçoit bien la lourdeur des procé- dures mises en place mais il y a des ini- tiatives de qualité et de bons projets qui émergent. Les plates-formes technolo- giques et les JV associées fonctionnent, je crois, bien. Horizon 2020 est peut-être trop axé sur les problèmes sociétaux pour être moteur de la recherche mais ce qui nous gêne le plus, c’est la propension des dé- cideurs de ces programmes à privilégier in fine les travaux amont comme c’est le cas en France pour l’ANR. Il faudrait aller davantage vers les produits nouveaux, les démonstrateurs, les opérations-pi- lotes et privilégier les plates-formes in- dustrielles. Propos recueillis par Jean-Pierre Hauet et Alain Brenac Alain Bugat a été directeur adjoint des essais nucléaires de 1984 à 1989, directeur des technologies avancées de 1992 à 1999 et administrateur général du Commissariat à l’énergie atomique de 2003 à 2009,. Il fonde en 2009 NucAdvi- sor, société dédiée au conseil, à l’expertise et à l’assistance à maîtrise d’ouvrage pour les grands programmes nucléaires. Alain Bugat a été élu président de l’Académie des technologies le 1er janvier 2015 pour un mandat de deux ans. 136 REE N°4/2016 ENSEIGNEMENT & RECHERCHE REE : M. Bourgeois Demersay, vous dirigez depuis sa création l’Institut franco-chinois de l’énergie nucléaire à Zhuhaï, près de Canton. Pouvez-vous nous retracer l’historique de cet Institut, original à bien des égards? J-M Bourgeois-Demersay : L’idée de créer un institut franco- chinois de l’énergie nucléaire (IFCEN) a émergé dans les années 2000 pendant les échanges entre Français et Chinois sur les projets d’EPR à Taishan. La filiale commune de la CGN (China General Nu- clear Power Corporation) et d’EDF à Taishan s’appelle TNPJVC : créée pour des décennies, elle est détenue à 51 % par la CGN et à 30 % par EDF. Dans cet horizon temporel, le recrutement de jeunes ingé- nieurs d’excellence chinois qui comprennent parfaitement la culture française est une nécessité. S’agissant d’enseignement supérieur, qui s’inscrit aussi dans des temps longs, la formation à la française d’une élite chinoise prend beaucoup de sens. Une genèse et une mise en route rapide basées sur un consensus La conclusion d’un accord sur l’IFCEN a été grandement facilitée par le fait que de nombreux ingénieurs chinois, formés en France dans les années 1980, ont par la suite effectué de brillantes carrières en Chine et occupent aujourd’hui des postes stratégiques, notam- ment dans la filière nucléaire chinoise. C’est ainsi par exemple que M. He Yu, président de la CGN, a passé plusieurs années en France chez EDF et parle très bien notre langue. Il a ainsi pu se forger une opinion sur les systèmes de formation supérieure dans les deux pays et ceci l’a convaincu de l’excellence du système français. La CGN, aux côtés d’EDF et d’AREVA, est un partenaire industriel majeur de l’IFCEN. Fin 2008, le CEA a recherché un établissement d’enseignement supérieur français pour mener le montage de l’IFCEN et la décision a été prise de confier à l’Institut polytechnique de Grenoble le pilotage du projet. Les choses sont ensuite allées très vite. L’accord de coo- pération a été négocié en 2009, des locaux temporaires ont été mis à disposition dès l’été 2010 sur le campus de Zhuhai et la première promotion a intégré l’IFCEN en septembre 2010. Cent dix élèves ont été sélectionnés à l’issue du gaokao, qui est le baccalauréat chinois. Les effectifs se sont maintenus pour les promotions suivantes. Parmi les élèves de la promotion 2010, 88 ont obtenu le bachelor en 2014 et 79 viennent de recevoir le diplôme de master en 2016. REE : quels sont les acteurs français parties prenantes dans le fonctionnement de l’Institut ? J-M B-D : Un premier accord de coopération a été signé en 2009 entre l’université Sun Yat-sen et un consortium français constitué de cinq entités : (CEA) ; Nous avons constitué un consortium car aucun établissement français n’avait à lui seul la taille suffisante pour assumer les obli- gations découlant de l’accord de coopération. La présence de deux écoles de chimie s’explique aussi par l’importance de cette discipline et la rareté des compétences en chimie séparative. REE : comment s’effectue le recrutement des étudiants? J-M B-D : Le recrutement des élèves est du ressort de l’université chinoise. Il se fait sur le quota national de l’université Sun Yat-sen, qui recrute chaque année plus de dix mille étudiants. Les candidats expriment leurs vœux sur des fiches qui comportent six choix pos- sibles, plus une case ouverte à la discrétion de l’université. Le classe- ment de l’étudiant joue bien sûr un rôle essentiel dans la satisfaction de ses demandes. L’université Sun Yat-sen ayant très bonne réputa- tion – elle se classe suivant les années entre la 8e et la 12e place des universités chinoises – nous sommes assurés de nous voir confier de bons élèves à l’entrée de l’Institut. En 2010, les vœux des élèves qui ont intégré l’IFCEN comportaient beaucoup de premiers ou de deuxièmes choix et aucun non-choix. A partir de 2011, la situation s’est quelque peu inversée à la suite de l’accident de Fukushima, avec une explosion des «non-choix». Depuis 2014, la situation s’est rétablie. Cette question n’est d’ailleurs pas décisive car nous n’avons pas décelé de corrélation entre le pourcentage de choix délibérés en faveur de l’Institut et les résultats scolaires ultérieurs. L’Institut franco-chinois de l’énergie nucléaire (IFCEN) : une “success story” qui valorise l’enseignement supérieur français en Chine Entretien avec Jean-Marie Bourgeois-Demersay Directeur, Institut franco-chinois de l’énergie nucléaire Université Sun Yat-sen REE N°4/2016 137 ENSEIGNEMENT & RECHERCHE En ce qui concerne l’origine géographique de nos élèves, la moitié provient de la province de Canton en vertu d’une obligation contractuelle de recrutement, et le reste se répartit équitablement entre les autres provinces de Chine, à raison de 1 à 5 élèves par province, sauf exception. Un recrutement effectué principalement à partir des vœux des étudiants REE : Quelle est la motivation des étudiants chinois pour étu- dier dans un cadre «à la française»? J-M B-D : Les étudiants chinois sont très bien renseignés et les atouts des formations à forte composante internationale, comme c’est le cas de l’IFCEN, sont bien connus d’eux. Les universités chinoises sont en compétition entre elles et cherchent à se diffé- rencier en développant des cursus d’excellence. Comme le gou- vernement chinois est intéressé par le système d’éducation qui a donné naissance aux grandes écoles françaises d’ingénieurs, les universités chinoises sont prêtes à expérimenter des systèmes de formation différents du leur, grâce aux gros moyens dont elles dis- posent désormais. REE : Que pouvez-vous dire des différences de pédagogie entre les modèles chinois et français ? Quel type de cursus et quel modèle pédagogique avez-vous adopté à l’IFCEN? J-M B-D : Nous avons mis au point à l’IFCEN un cursus qui s’étend sur six ans. Il est original dans la mesure où les six années corres- pondent à la fois au modèle chinois (quatre ans de bachelor, suivis de deux ans de master) et au modèle français (classes prépara- toires, suivies d’un cycle d’ingénieur). Le cursus est lisible dans les deux modèles pédagogiques (figure 1). Le curriculum se divise en deux cycles de trois ans chacun et débouche sur l’obtention d’un master d’ingénierie en sciences et techniques nucléaires : approfondie du socle scientifique nécessaire aux futurs ingénieurs. On peut dire en ce sens que le cycle préparatoire est fondamen- tal dans le modèle pédagogique. Il commence d’ailleurs par un enseignement intensif du français (au 1er semestre). En cinq mois, les élèves doivent être capables de suivre des cours magistraux de mathématiques et de sciences physiques en français. Et ils y parviennent ! La place des mathématiques demeure considérable pendant tout le cycle préparatoire, de manière à développer chez les élèves une grande faculté d’abstraction ; spécialisées proprement dites : les contenus y sont résolument orientés vers le nucléaire. Pour chacun de ces cycles, une organisation spécifique a été mise en place dans le cadre de la coopération entre professeurs chinois et français (figure 2) : Un modèle pédagogique « à la française » adapté à l’environnement universitaire chinois En ce qui concerne la pédagogie, il faut savoir que le critère pri- mordial pour faire une carrière académique en Chine est fondé sur le volume et la qualité des publications. Dans l’enseignement supé- rieur chinois, les professeurs donnent la priorité à leurs activités de recherche, ce qui peut conduire à des cours assez stéréotypés (le professeur rédige rarement lui-même ses cours, mais s’appuie sur les manuels d’autrui). Du fait notamment de la taille des classes, où les amphis regroupent des centaines d’élèves, les interactions Figure 1 : Comparaison entre les systèmes d’enseignement (a) en France, (b) en université chinoise et (c) à l’IFCEN. 138 REE N°4/2016 ENSEIGNEMENT & RECHERCHE entre enseignants et étudiants sont réduites à la portion congrue. En outre, la culture chinoise incite peu les élèves à poser des ques- tions, soumis qu’ils sont au risque de « perdre la face » ou de la faire perdre au professeur…, ce qui conduit à un enseignement particu- lièrement descendant ou hiérarchique. Par ailleurs, le taux d’enca- drement est faible en travaux dirigés ou en travaux pratiques, ce qui ne favorise pas l’assimilation des connaissances ou le « rattrapage » des contenus mal compris. Une coopération quotidienne entre enseignants français et chinois C’est pourquoi nous avons choisi à l’IFCEN de privilégier une pédagogie interactive en petits groupes. Les cours magistraux ne dépassent guère la centaine d’étudiants, les travaux dirigés se font en classes de 20 à 25 élèves et les travaux pratiques sont organisés sur la base de binômes. Nous avons aussi développé un système efficace de tutorat qui permet de reprendre en chinois le contenu des cours en français, par groupes de huit à dix élèves. L’assimilation des contenus est ainsi garantie dans les deux langues. Des « colles » de type CPGE sont également pratiquées en 3e année, avec beaucoup de succès, bien que l’exercice soit culturellement difficile pour les élèves. En cycle préparatoire, le corps professoral comprend des ensei- gnants français permanents qui font office de professeurs référents dans leur discipline : deux en physique et deux en mathématiques, auxquels sont adjoints de jeunes professeurs agrégés en prove- nance de France, qui restent un ou deux ans à l’IFCEN en début de carrière. La majorité des enseignants sont bien évidemment chinois. Le niveau des élèves de l’IFCEN correspond à celui d’une bonne CPGE en France. Les têtes de classe sont du niveau des meilleures écoles. Pour preuve, sur les deux élèves de l’IFCEN qui ont été can- didats aux concours français, l’un a été reçu à l’Ecole polytechnique, l’autre à l’ENS de Paris. La Commission française des titres d’ingénieur (CTI) a accrédité en novembre 2015 le diplôme de master de l’IFCEN pour six an- nées. C’est la durée maximale d’accréditation possible. Il faut noter que les deux diplômes de l’IFCEN, que ce soit le bachelor en quatre ans ou le master en deux ans, sont 100 % chinois. C’est l’obtention du master qui permet aux élèves de porter en France et en Europe le titre d’ingénieur diplômé. Nous ne pratiquons pas la délivrance de doubles diplômes. Mais à partir de l’année 2016-2017 entreront en vigueur des accords d’échanges avec nos partenaires académiques français de Gre- noble, Nantes et Montpellier. La remise des diplômes constitue un événement qui se fait « à la chinoise », avec un cérémonial très réglé. C’est l’occasion de réunir dans une atmosphère à la fois festive et officielle les autorités politiques, universitaires et industrielles des deux pays. C’est aussi le moment de rendre hommage à l’ensemble du corps professoral, qui inclut nos partenaires français, et de saluer les mérites de nos meilleurs étudiants (figure 3). REE : Que peut-on dire des débouchés pour vos étudiants ? Certains s’orientent-ils vers la recherche ? J-M B-D : Les débouchés à la sortie de l’IFCEN ne posent aucun problème. Tous nos élèves ont la possibilité, mais pas l’obliga- tion, d’être pré-embauchés une année avant l’obtention de leur diplôme. La CGN serait même prête à les recruter tous ! EDF pour sa part a embauché des ingénieurs de la promotion 2010, qui passeront deux années dans les équipes d’EDF en Chine (par exemple à Taishan et à Shenzhen), puis trois années en France, avant de faire carrière vraisemblablement en Chine, ou pourquoi pas en Angleterre si les projets d’EPR s’y concrétisent. Areva et Engie ont également recruté plusieurs diplômés. 100% des élèves de la promotion 2010 avaient trouvé un emploi avant même leur diplomation. L’insertion professionnelle des élèves est donc garantie. Des débouchés garantis pour les étudiants Pour répondre à votre question sur la recherche, je préciserai que nous avons mis en place un parcours de recherche intégré au curriculum, qui prépare ceux des élèves qui le souhaitent à pour- suivre en thèse. C’est ainsi que 12 élèves de la première promotion Figure 2 : Coopération entre les professeurs chinois et français à l’IFCEN. REE N°4/2016 139 ENSEIGNEMENT & RECHERCHE vont démarrer un doctorat en France à l’automne 2016, dans les laboratoires de nos partenaires académiques et d’EDF. REE : Comment sont gérées les connaissances « propriétaires » du côté français? N’y a-t-il pas un risque de « fuite » du savoir, voire des technologies françaises, dans un secteur sensible vers la Chine ? J-M B-D : Les problèmes de PI ou de transferts de technologie ne se posent pas du tout à l’IFCEN car la formation que nous y dispensons est de niveau master. Tous les contenus relèvent du domaine public et sont déjà disponibles en bibliothèque ou sur internet, tout est accessible et largement publié. La marque de fabrique de l’IFCEN porte sur la pédagogie, pas sur les conte- nus. La question de la propriété intellectuelle peut toutefois devenir plus sensible au niveau du doctorat, notamment dans le choix des thèses qui se déroulent en laboratoire. Les besoins sont tels que les laboratoires savent très bien confier des sujets porteurs à nos anciens élèves. REE : Pouvez-vous nous donner une idée du coût de fonction- nement de l’Institut ? J-M B-D : La réponse n’est pas facile à donner car les cultures comptables sont très différentes entre la France et la Chine. La comptabilité chinoise ne relève pas de nos catégories habituelles. La gestion financière est du ressort de l’université chinoise et l’enca- drement français focalise son effort sur la qualité de l’enseignement délivré aux élèves. Je peux toutefois vous indiquer que les frais de scolarité s’élèvent annuellement à 5 500 yuans (soit environ 730 ) en bachelor et 15 000 yuans (environ 2 000 ) en master. Nous sélectionnons les élèves sur leurs performances académiques, pas sur leurs moyens financiers. Nous avons un système de bourses pour les élèves dont les familles ont des revenus modestes. Vers une croissance et une internationalisation renforcée ? Jean-Marie Bourgeois-Demersay est actuellement le directeur français de l’IFCEN, une des composantes de l’université Sun Yat-sen en République populaire de Chine. Depuis 2010, date de création du département, il a conçu et déployé l’inté- gralité du curriculum avec le concours d’une équipe de projet et dirigé l’Institut avec son homologue chinois, amenant des centaines d’étudiants à poursuivre avec succès un programme trilingue et très sélectif de master d’ingénierie en sciences et techniques nucléaires. Avant son poste actuel en Chine, Jean-Marie était vice-président de l’Institut polytechnique de Grenoble, où il a enseigné les sciences du management comme professeur associé entre 2008 et 2010. Jean-Marie a développé une expertise importante dans le management, l’industrie des télécoms et les câbles sous-marins, domaines dans lesquels il a occupé divers postes à responsabilité de 1993 à 2007 au sein du groupe Orange. Jean-Marie Bourgeois-Demersay est ingénieur général des mines, ancien élève de l’Ecole normale supérieure et diplômé de HEC Paris. Figure 3 : Remise du diplôme aux meilleurs élèves de la promotion 2010 en présence de Son Excellence M. Maurice Gourdault-Montagne, ambassadeur de France en Chine (au centre). A sa droite, le professeur Luo Jun, président de l’université Sun Yat-sen, le professeur Brigitte Plateau, administrateur général de Grenoble INP et M. He Yu, président de la CGN. 140 REE N°4/2016 ENSEIGNEMENT & RECHERCHE REE : Pour conclure, avec le recul et l’expérience de la colla- boration franco-chinoise que vous avez acquise, si le projet démarrait aujourd’hui, procéderiez-vous de la même façon? Avez-vous été gênés par les différences culturelles entre les deux pays ? J-M B-D : Dans l’ensemble, le juge-arbitre qu’est la CTI a été très satisfait de la genèse, du déroulement et des résultats de cette opération. La stratégie était la bonne et nous avons eu la chance de bénéficier de l’aide précieuse de nos partenaires académiques et industriels, ainsi que de l’ambassade de France à Pékin. Nous avons capitalisé sur l’expérience de nos prédécesseurs (je pense par exemple à l’Ecole centrale de Pékin et à l’Institut d’aéronautique de Tianjin) et mis en place, dès le début du projet et à tous les niveaux, des équipes franco-chinoises qui ont permis de traiter et d’aplanir les différences culturelles. Nous sommes désormais en ordre de marche avec la toute ré- cente diplomation de notre première promotion d’ingénieurs. Notre ambition est d’internationaliser encore davantage le cursus et d’aug- menter les effectifs – on pourrait aller sans difficultés jusqu’à des promotions de 150 élèves. Mais ce type de décision, qui engage les finances et l’immobilier, est du ressort du Conseil d’administra- tion conjoint : je ne puis que suggérer une évolution qui servirait la cause d’une coopération franco-chinoise dont nous n’avons qu’à nous louer. Propos recueillis pour la REE par Alain Brenac et Jean-Pierre Hauet Figure 4 : La traditionnelle festivité du « lancer de chapeau » qui célèbre l’obtention du diplôme de master de l’IFCEN. REE N°4/2016 141 ENSEIGNEMENT & RECHERCHE Une rentrée universitaire sous tension : le nombre d’étudiants continue à croître L’augmentation des effectifs se poursuit au sein des établissements d’enseignement supérieur. À la rentrée 2016, 40 000 étu- diants supplémentaires sont attendus sur les bancs des amphis portant à plus 2,5 millions le nombre total d’étudiants sur le territoire na- tional. Cette évolution continue n’est pas sans poser des problèmes d’accueil dans des struc- tures pas toujours adaptées et avec des res- sources en enseignants limitées. Ces derniers se sentent souvent submergés par cet afflux, surtout en 1ère année d’études, notamment dans les filières PACES (études de santé) et STAPS (éducation physique), ce qui les amène à recourir à des solutions innovantes pour faire face (retransmission des cours en amphis parallèles, développement des MOOC). Quoi qu’il en soit la surpopulation étudiante n’a pas fini de poser problème, le Ministère prévoyant un effectif de 2,81 millions en 2024 ! Les rai- sons de cet accroissement régulier (+ 2 à 3 % par an) tiennent non seulement aux pics de natalité des années 2000, 2001 et 2006 mais aussi à l’allongement des études, aux dys- fonctionnements de l’orientation1 ainsi qu’au nombre d’étudiants étrangers dont on prévoit le doublement d’ici 10 ans. La lutte contre la fraude scientifique Depuis quelques années, la fraude scienti- fique, l’inexactitude des données (volontaire ou de bonne foi) et le plagiat dans la recherche font régulièrement l’actualité. La course aux publications – le fameux publish or perish – contribue fortement à ce phénomène partout dans le monde, ce qui se traduit par une dimi- nution inexorable de la qualité scientifique de la chose publiée. A la demande du secrétaire d’Etat à l’enseignement supérieur et de la recherche, inquiet de la dimension prise par ces dérapages dans nos milieux scientifiques, Pierre Corvol, professeur honoraire au Collège de France, a remis un rapport le 29 juin au 1 Sur ces questions, le lecteur pourra se référer à l’entretien avec M. Jouanjean, délégué général de la conférence des grandes écoles, paru dans le numéro REE-3 p. 101. ministre dans un document intitulé : “Bilan et propositions de mise en œuvre de la charte nationale d’intégrité scientifique”. Après avoir fait le constat préoccupant du retard des ins- titutions françaises sur le sujet par rapport à leurs homologues européens et américains, M. Corvol dresse une liste de recommanda- tions visant à harmoniser la politique de lutte pour l’intégrité scientifique et préconise d’éta- blir une “nomenclature nationale des incon- duites et un vade-mecum juridique national des typologies de sanctions”. Toutefois la re- commandation essentielle consiste à sensibi- liser, voire former, les étudiants et chercheurs débutants aux questions d’éthique touchant à la publication des travaux de recherche, en vue d’un retour aux bonnes pratiques. Sinon il ne restera plus que la peur du gendarme pour ramener dans le droit chemin les auteurs usant de procédés déloyaux! Dans certains cas flagrants, certes encore peu nombreux, des sanctions lourdes ont déjà frappé des auteurs indélicats tel ce biologiste suspendu deux ans du CNRS pour fraude manifeste ! L’admission post-bac (APB) critiquée pour son manque de transparence En plus du feuilleton juridico-politique de la sélection en filière master (voir ci-dessous), une autre pomme de discorde est en train supérieur, relative à la procédure d’admission dans les universités, connue sous l’acronyme d’APB (admission post bac). De plus en plus d’étudiants déboutés des choix préféren- tiels qu’ils avaient formulés en ligne avant le baccalauréat pour entrer à l’Université se tournent vers la justice pour obtenir répara- tion d’une décision qu’ils jugent infondée et pour le moins opaque. L’association “Droits des lycéens” réclame pour sa part depuis longtemps plus de transparence sur les cri- tères utilisés par l’algorithme qui permet de répartir les admissions dans les différentes rebondissement important suite à une ré- cente décision du tribunal administratif de Nantes contraignant l’université à inscrire en Paces un étudiant en réorientation qui avait pourtant obtenu une place dans cette filière à l’université des Antilles. Le juge a argué qu’il existait “un doute sérieux quant à la légalité de la décision” de non admission à Nantes, premier choix du bachelier. On peut donc s’at- tendre à une multiplication des recours, no- tamment de la part d’étudiants en année de réorientation qui s’estiment, à tort ou à raison, particulièrement visés par des décisions n’al- lant pas dans le sens de leurs choix. Il faudra finalement que le Conseil d’Etat tranche sur la légalité des procédures APB car les décisions des tribunaux saisis n’iront pas nécessaire- ment toutes dans le même sens. Arts et Métiers : les statuts qui fâchent Depuislaréformedesstatutsopéréeen2012 visant à donner plus de pouvoir au directeur gé- néral face au poids, jugé excessif, de la Société des anciens élèves (Soce), le ton n’a cessé de monter entre les “Anciens” garants d’un certain respect des traditions chères aux “gadzarts” et la direction de l’école soutenue par la ministre de l’Education dans sa tentative de moderniser son fonctionnement. La pomme de discorde a pris pour prétexte la réforme de la “période de transmission des valeurs“ (PTV), euphémisme technocratique qui cache une pratique initia- tique des élèves de première année qui relevait plus du bizutage que de la transmission des valeurs. Dans un rapport rendu au ministère fin janvier 2016, l’Inspection générale (IGAENR) faisait le bilan des efforts entrepris depuis un an par la direction de l’école pour mieux enca- drer la PTV mais insistait principalement sur le “poids hégémonique de la société des anciens dans la gouvernance de l’établissement”. La ministre de l’Education qui n’attendait que ce signal pour agir, annonce un nouveau projet de décret, actuellement à l’examen en Conseil d’Etat, qui modifie à nouveau les statuts afin de limiter les pouvoirs des anciens élèves au sein du CA. Depuis le torchon brûle publique- ment entre la direction de l’école et les anciens élèves qui n’échangent plus que par courriers incendiaires. Dernier épisode en date, un appel solennel du président de la Société des anciens au Président de la République. Mais il semble bien que dans ce remake local de la guerre des Anciens et des Modernes, les premiers soient en passe de perdre la partie. E C H O S D E L ' E N S E I G N E M E N T S U P É R I E U RE C H O S D E L ' E N S E I G N E M E N T S U P É R I E U R 142 REE N°4/2016 ENSEIGNEMENT & RECHERCHE La sélection autorisée pour certains masters Comme la REE s’en est déjà fait l’écho, le feuilleton sur la sélection éventuelle à l’entrée dans la filière master (M1) ou lors du passage M1-M2 n’a pas fini d’alimenter la polémique au sein de la communauté de l’enseignement supérieur (Cf. Les Echos de l’ES du numéro REE 2016-4). Pour calmer les esprits, le secrétaire d’Etat, Thierry Mandon, a publié comme il l’avait promis un décret (pro- visoire ?) listant les 1 300 masters, issus de 80 établissements, autorisés pour la rentrée 2016 à effectuer une sélection au passage M1-M2. On trouve en particulier dans la liste 370 autorisations concernant le secteur des technologies et de la santé. La répartition est très inégale sur le territoire et certaines uni- versités comme Paris Saclay ou Lyon II voient plus de 90 % de leurs masters autorisés à opérer une sélection via un examen complé- mentaire pour passer en M2, si les capacités d’accueil fixées par l’établissement l’imposent. Pour autant ce décret ne règle pas le cas des masters hors liste. Le président de la CPU es- time que ces derniers continueront à procé- der comme précédemment, au mépris de la réglementation. Le problème de la sélection au sein de ces filières n’est donc pas réglé et il est urgent qu’une loi précise un fonction- nement pérenne des pratiques en la matière qui concilient des principes reconnus par tous avec la réalité du terrain. Mais le ministre au- ra-t-il le temps d’ici la fin du quinquennat de mener ce chantier à bien ? Il faut le souhaiter. La réforme du doctorat Cette réforme débattue de longue date a fait l’objet d’un arrêté en date du 27 mai 2016 applicable dès la rentrée 2016. Il comprend un certain nombre de dispositions nouvelles dont la principale est la limitation de la durée de toutes les thèses à six ans maximum, avec une durée indicative de trois ans, étant précisé que ce temps est mesuré en équiva- lent temps plein et hors congés exception- nels. Cet arrêté met donc un terme à une pratique des “thèses longues” que l’on ren- contrait principalement dans le domaine des sciences humaines et sociales. Autre innova- tion : l’année de césure, pendant laquelle le doctorant sera autorisé à titre exceptionnel à exercer une activité différente de sa thèse. Le ministère a voulu aussi profiter de ce texte pour préciser le rôle des écoles doc- torales dans l’encadrement des doctorants. Ces structures agissent maintenant officiel- lement sous la responsabilité des Etablisse- ments, la représentation de ces derniers au sein des conseils d’école doctorale étant sta- tutairement supérieure à 60 %. En plus de leur rôle de formation habituel, l’arrêté met l’accent sur l’importance d’une formation à l’éthique de la recherche et à l’intégrité scien- tifique (Cf. la première rubrique des présents échos). Enfin une autre nouveauté a trait à la mise en place d’un “portfolio du doctorant” censé rassembler les activités du doctorant durant sa formation. Un dernier point impor- tant concerne l’instauration d’un comité de suivi individuel qui aura pour rôle de veiller au bon déroulement de la thèse, de contribuer à résoudre certains conflits, voire de signaler d’éventuels harcèlements ou discriminations. Classements internationaux : les universités françaises en perte de vitesse Dans la nouvelle édition du classement de Shanghai 2016, publiée en août 2016, les uni- versités françaises peinent à tenir un rang tout juste honorable. Sixième pays par le nombre d’établissements classés, la France n’en place que trois dans les cent premiers (université Pierre et Marie Curie : 39e , Paris XI : 46e et l’ENS 87e ) et 22 dans les 500 premiers classés. Par comparaison l’Allemagne et le Royaume-Uni en recensent respectivement 37 et 38 et ce dernier compte des leaders incontestés en tête de liste (Cambridge 4e et Oxford 8e ). Plus récemment c’est au tour du classe- ment QS World University Rankings de venir confirmer la place insuffisante qu’occupe l’enseignement supérieur français dans le concert mondial avec des résultats plus que modestes. Ce classement, contrairement à celui de Shanghai, est fondé sur l’opinion, analysée après enquête, que se font les étu- diants des universités du monde entier. Dans celui-ci, la France, qui comptait l’an passé 20 établissements classés parmi les 400 pre- miers, n’en compte plus que 17. On note en outre le recul sensible de l’École Polytech- nique, désormais classée 53e , et une perte de 10 places de la 23e à la 33e position pour l’ENS, pourtant créditée d’une excellente 6e place sur le seul critère de la qualité de la recherche. Plus grave encore, 74 % des 39 universités françaises examinées connaissent une baisse de leur réputation académique. Parmi les handicaps de la France, les res- ponsables de l’enquête mettent notamment en avant les difficultés rencontrées par les universitaires étrangers désireux de venir tra- vailler dans une université française. Le secré- taire d’Etat en est conscient et admet qu’il faut “fluidifier” les règles de recrutement pour faci- liter la venue d’étrangers mais aussi renforcer la communication extérieure des universités dont beaucoup sont maintenant recompo- sées et dotées de nouveaux moyens d’action. Vers une fusion des écoles Telecom Paristech et TelecomSud Paris Deux grandes écoles d’ingénieurs Tele- com relevant toutes deux de l’Institut Mines Telecom avaient-elles vocation à coexister de façon distincte alors qu’elles sont toutes deux destinées à se rassembler sur le plateau de Saclay en même temps que d’autres éta- blissements prestigieux ? Poser la question c’est y répondre par la négative et envisager à terme une fusion des deux établissements est une idée naturelle. C’est en tout cas ce qu’ont dû conclure, après quelques mois de réflexion, les directions des deux écoles qui ont annoncé simultanément à leurs person- nels lors de leur amphi de rentrée, le 8 sep- tembre dernier, réfléchir à un projet de fusion pour 2019. Si l’idée était dans l’air, personne ne s’attendait à une annonce aussi rapide. Il faut en fait y voir une politique réfléchie et sur le long terme de la tutelle exercée par le ministère de l’Economie par le biais du Conseil général de l’économie (CGE, ex-CGIET). Après les deux fusions déjà actées et en cours de mise en place de Mines Nantes et Télécom Bretagne d’une part, et de Mines Douai et Télé- com Lille d’autre part, le CGE entend continuer la rationalisation des outils de formation dont il dispose afin de donner une dimension critique et un rayonnement accru à deux pôles d’ensei- gnement majeurs et bientôt trois avec l’implan- tation à Saclay, dont il a la responsabilité. En tout état de cause, la convergence thématique des deux écoles franciliennes de Télécom et leur implantation commune sur un site d’avenir devraient faciliter la fusion envisagée. REE N°4/2016 143 LIBRES PROPOS Pr William Dab Chaire d’Hygiène et sécurité, Cnam S ocrate, comment vas-tu t’y prendre pour chercher une chose dont tu ne sais absolu- ment pas ce qu’elle est ? Quel point particu- lier entre tant d’inconnus proposeras-tu à ta recherche ? Et à supposer que tu tombes par hasard sur le bon à quoi le reconnaîtras-tu puisque tu ne le connais pas ? [Platon, Ménon]. Je plaide coupable : en 2005, alors que j’exerçais les fonctions de directeur général de la santé, j’ai eu à prendre position sur le projet de Charte de l’Environne- ment aujourd’hui adossée à la Constitution. L’article 5 de cette Charte stipule : « Lorsque la réalisation d’un dom- mage, bien qu’incertaine en l’état des connaissances scientifiques, pourrait affecter de manière grave et ir- réversible l’environnement, les autorités publiques veil- lent, par application du principe de précaution et dans leurs domaines d’attributions, à la mise en œuvre de procédures d’évaluation des risques et à l’adoption de mesures provisoires et proportionnées afin de parer à la réalisation du dommage ». J’ai soutenu cette rédaction et je ne le regrette pas. Notre pays a plus souffert d’un déficit de précaution que de ses excès. Pour dire le vrai, cette formulation qui était le fruit d’un laborieux compromis politique sans lequel elle n’aurait pas pu être adoptée, ne m’apparaissait pas idéale pour trois raisons. La première est qu’à y regarder de près, ce principe n’est pas réellement défini. La deuxième est que le texte parle de mesures « proportionnées » alors même que l’idée de précaution concerne l’action sous incertitude, d’où la question évidente : proportionnée à quoi ? Et la troisième raison est que les modalités d’ap- plication de ce principe ne sont pas définies. Cependant, deux arguments ont prévalu dans ma prise de position. Le premier est que le principe s’adres- se aux autorités publiques. C’est un principe de politique publique, alors même que les grandes crises de sécu- rité sanitaire des 30 dernières années montraient que le ministère de la santé n’était doté ni d’une doctrine claire d’action ni de moyens suffisants pour prendre à temps les décisions permettant de limiter les risques sanitaires. Mais contrairement à ce que l’on lit ici ou là, ce principe ne change pas directement les responsabilités civiles et pénales des acteurs économiques et des entreprises. Le deuxième argument décisif est qu’en situation d’incerti- tude, la Charte de l’environnement prescrit d’évaluer les risques. Non seulement, il ne s’agit donc pas comme l’af- firment certains d’un principe antiscientifique, mais c’est au contraire un appel à la science pour réduire le plus possible l’incertitude sur l’existence ou la gravité des ris- ques. Sachant qu’effectivement, si on exige d’avoir toutes les preuves disponibles avant d’agir, nous pouvons mettre en péril l’existence même de la vie sur Terre. Au demeurant, la nécessité d’agir avant qu’il ne soit trop tard n’est pas une nouveauté et elle existe dans de nombreux textes internationaux depuis le principe 15 de la Déclaration de Rio en 1992, suivi du traité d’Amster- dam (article 174) de l’Union européenne. Mais en France, la question a pris une ampleur particulière à la suite du triple choc qu’ont été la transmission transfusionnelle du sida, Tchernobyl et la vache folle. C’est-à-dire trois affaires de sécurité sanitaire dans lesquelles il y a eu au départ une dénégation du risque et par conséquent, dans un mouvement de balancier dont notre pays est coutumier, cette situation a créé un excès d’alarmisme. Convoquer un principe sans le définir précisément et sans que son application opérationnelle ne soit pré- cisée, s’apparente plus à une pétition de principe, voire à une illusion politique, plutôt qu’à une réelle volonté de protéger la santé et l’environnement. La France ex- celle dans la rédaction de principes comme si leur seul énoncé suffisait à changer la réalité. Et inévitablement, puisque l’on reste dans l’abstrait et dans le théorique, les passions se déchaînent. On ne réfléchit pas à la manière d’appliquer ce principe le plus intelligemment possible. On est pour, on est contre et on s’invective dans un affrontement binaire qui laisse l’opinion incrédule ce qui accroît sa méfiance dans le fait que lorsque la protection de la santé met en cause des intérêts économiques, Le principe de précaution : une passion française 144 REE N°4/2016 LIBRES PROPOS celle-ci sera sacrifiée. Or, l’objectif du président Chirac était de favoriser le retour de la confiance en matière de sécurité sanitaire et de ce point de vue, c’est un échec. Il faut donc reconnaître que le principe de précau- tion crée actuellement une incertitude juridique sans que cela corresponde à des bénéfices tangibles pour la population. Certaines associations écologistes en font un usage radical qui prône la suspension ou l’arrêt d’une activité en cas de doute, définition éloignée d’un prin- cipe d’action publique, cadre unique auquel le principe de précaution est destiné. Pour elles, le principe de pré- caution est un principe d’interdiction. Les entrepreneurs, eux, considèrent que la précaution freine l’innovation indispensable à la santé de l’économie et réclament son abolition en le diabolisant sans même réaliser que la mise sur le marché d’une activité ou d’un produit dont les risques sont mal cernés n’est pas dans leur intérêt. La mauvaise gestion des incertitudes relatives aux OGM par les grands groupes qui les produisent a sa part de responsabilité dans cette situation de blocage. Il est clair qu’un principe aussi vague ne peut que don- ner lieu à des interprétations divergentes et au total, à pro- duire plus de tensions que de solutions. Dans le livre que j’ai écrit avec une sociologue, Danielle Salomon (Agir face aux risques. PUF, 2013), je donne de nombreux exemples qui permettent de comprendre qu’il ne suffit pas de scan- der le principe de précaution pour croire que les risques sanitaires seront maîtrisés au mieux des connaissances et des moyens disponibles. De même est-il inacceptable d’affirmer que la précaution nous ruine. Ces exemples permettent de comprendre que le cœur du problème est qu’il existe des visions différentes du risque. C’est cela qu’il faut commencer à clarifier. Le risque traduit une opportunité éventuellement as- sociée à des conséquences que l’on souhaite minimiser sur un plan sanitaire et pour lesquelles existent des possi- bilités d’action. Mais comment cette éventualité qui incite à l’action est-elle construite : est-ce une hypothèse, la reconnaissance d’un doute, ou bien découle-t-elle d’une connaissance établie démontrant un lien entre un état de l’environnement et un état de santé ? C’est cette distinc- tion qui permet de séparer les situations de précaution des situations de prévention. Mais au-delà des questions sémantiques, il y a des conceptions différentes de ce qui « motive l’action » pour reprendre la célèbre définition du risque donnée par Ulrich Beck. Car, ce qui fait véritable- ment débat, c’est que pour les uns, il y a risque quand le danger est démontré alors que pour les autres, la seule éventualité d’une atteinte à la santé ou à la qualité de l’environnement suffit pour définir le risque. Dès lors, comment trouver collectivement la voie d’une précaution démocratique conciliant l’innovation et la protection. Peu de personnes revendiquent un risque nul, mais beaucoup demandent que les risques soient réfléchis, débattus et pris en charge. Il est temps de se réconcilier avec la précaution. Et c’est possible. Avec le recul, la façon dont a été gé- rée l’hypothèse que les champs électromagnétiques de basse fréquence soient cancérigènes fournit des pistes pour opérationnaliser le principe de précaution. J’ai eu à connaître ce dossier alors que j’étais chercheur dans le service des études médicales d’EDF-GDF. Dans les années 80, plusieurs études épidémiologiques avaient observé une relation entre l’exposition aux champs élec- tromagnétiques générés par la production, le transport et l’usage de l’électricité et le risque de cancers chez les adultes et les enfants. Aucune équipe n’a conclu à la causalité de cette relation, cependant plusieurs études l’ont observée. Bien que les lignes à haute tension ne soient pas la seule source d’exposition, c’est la plus vi- sible. Au nom du principe de précaution, fallait-il évacuer les centaines de milliers de personnes vivant à proximité d’une ligne ? Pour éviter de se laisser enfermer dans une solution de type tout ou rien, on peut résumer l’attitude qui a été adoptée par les pouvoirs publics avec la colla- boration d’EDF en quatre points. Le premier était de se doter d’un dispositif de veille d’une part, pour recenser les études épidémiologiques et toxicologiques disponibles, les soumettre à une ex- pertise contradictoire. Il s’agissait aussi de soutenir des registres de cancers afin de savoir si les cancers suspec- tés, notamment les leucémies chez l’enfant, étaient de nature épidémique. Le deuxième était de contribuer à la production des connaissances. Un important programme d’études épidémiologiques et toxicologiques a été lancé, en particulier une vaste étude épidémiologique réalisée REE N°4/2016 145 LIBRES PROPOS conjointement en France, au Québec et en Ontario chez les travailleurs de l’électricité. Le troisième point était d’accepter un dialogue avec les parties prenantes pour permettre un débat ouvert en mettant sur la table les arguments pour et contre l’existence d’une relation causale. Il faut reconnaître la légitimité du débat sur les critères de choix relatifs aux risques. Vouloir s’en affranchir produit souvent un blocage social. Et le dernier point élaboré dans un cadre international était de proposer un dispositif de valeur limite d’exposi- tion provisoire et révisable. Aujourd’hui, si la relation épidé- miologique n’a pas fait ses preuves chez l’adulte, il reste un doute chez l’enfant. L’OMS a ainsi classé cette exposition comme étant un cancéri- gène « possible » (groupe 2B du centre international de recherche sur le cancer). Malgré cette incertitude per- sistante, le débat et l’inquiétude restent bien moins vifs qu’il y a 15 ans. Cela montre qu’il est possible de ne pas se laisser enfermer dans de fausses solutions et de trouver un moyen terme entre un alarmisme excessif et un négationnisme absolu. Le point crucial dans les situa- tions d’incertitude est celui de la confiance. Pour conclure, on peut se demander si le problème de la précaution n’est pas qu’on a voulu en faire un principe sans s’attacher à son opérationnalisation. Et si on parlait plutôt d’une procédure plutôt que d’un principe ? Une procédure scientifique prenant en compte les craintes de la population qui appel- lerait à prendre des mesures dans la double acception de cette expres- sion : mesurer et agir. William Dab est médecin, épi- démiologiste et spécialiste qualifié en santé publique. Il a été directeur général de la santé (2002-2005), membre du comité exécutif de l’OMS et président du comité européen environnement et santé pour la ré- gion Europe de l’OMS. Titulaire de la chaire Hygiène et Sécurité du Cnam, il dirige la chaire Entreprises et Santé créée en partenariat avec Malakoff Médéric et le laboratoire Modélisa- tion, Épidémiologie et Surveillance des Risques Sanitaires (MESuRS). Il a publié Santé et Environnement (Que sais-je n° 3771, 2012), Santé et travail (Arnaud Franel, 2015) et Agir face aux risques (PUF, 2013) 146 REE N°4/2016 SEE EN DIRECT INFORMATIONS Conférence Confrège 27, 28 et 29 juin 2016 - Genève Après Toulouse en 2010, Montréal en 2012 et Albi en 2014, la quatrième édition de la conférence CONFREGE a été organisée en Suisse par le Groupe Midi-Pyrénées de la SEE. Elle s’est tenue les 27, 28 et 29 juin 2016 au sein de l’HEPIA (Haute Ecole du Paysage, d’Ingénierie et d’Architecture de Genève), école membre de l’HES-SO (Haute Ecole Spécialisée de Suisse Occidentale). 129 participants de 10 nationalités différentes (11 % de participants français) et d’ori- gines diverses : 30 % issus du monde industriel, 30 % du monde académique, 30 % d’étudiants et 10 % d’agences et organismes spécialisés ont assisté à cet événement consacré à l’Eco-conception et au Développement durable dans le Génie Electrique. CONFREGE a également été parrainée par les sociétés savantes SRBE (Société Royale Belge des Electriciens) et l’IEEE (sections francophones de Montréal et de Québec), l’association Electro Suisse (Association pro- fessionnelle dans le domaine de l’électrotechnique et des techno- logies de l’énergie et de l’information) et le cluster Cleantech ALPS (technologies, industries et services qui contribuent à la protection et à la conservation des ressources naturelles). Un soutien a également été apporté par l’Ambassade de France en Suisse. Lors du 1er jour, 11 exposés invités d’experts du domaine se sont succédés de manière à proposer un état des lieux : du législatif aux pratiques industrielles. Antonio Hodgers, Conseiller d’Etat chargé du Département de l’Aménagement, du Logement et de l’Énergie, a dressé un bilan de la politique énergétique suisse au service de la qualité de vie. Marie Chantal Vincent (EcosystèmeIE) a ensuite abordé le concept d’éco- logie industrielle. Marc Jobin (HEPIA- HES.SO) a traité des nouvelles opportunités relatives au photovoltaïque intégré aux bâtiments. Eric Plan (Cleantech ALPS) a ensuite défini le Smartgrid comme un potentiel d’innovation pour l’éco-conception. Christophe Garnier (Schneider Electric) et Maud Jacquot (b4green-consulting.com) ont décrit le programme européen dédié à l’empreinte environne- mentale des onduleurs. Damien Prunel (Bureau Véritas CODDE) a quant à lui rappelé la législation environnementale européenne relative aux équipements électriques et électroniques. La notion de développement durable et d’éco-conception dans le domaine aéronautique a été abordée par Miguel Garcia Claro (Bombardier Aéronautique). Toufann Chaudhuri (ABB) a consacré son exposé à la mobilité durable et à l’efficacité énergétique dans le domaine ferroviaire. Le domaine des machines outils intelligentes et éco- efficientes a été également au cœur de la présentation de Roberto Perez (GF Machining Solutions). Olivier Eichwald (Université de Toulouse) a expliqué comment les décharges électriques pouvaient être mises à profit pour le développement durable. Enfin, Jean Michel Deswert (Laborelec) a clôturé cette première journée sur la théma- tique « Eclairage et développement durable ». La seconde journée a été organisée autour de 20 exposés clas- sés en 2 sessions : Eco-conception et Développement durable. Ces sessions ont été entrecoupées de 6 exposés invités : Rôle de l’éco-concep- tion dans la stratégie énergétique suisse 2050 ; François Affolter (HEIG-VD/HES.SO) : Les développements de la pile à hydrogène pour la mobilité et application à la navigation ; Evaluation de l’im- pact environnemental du cycle de vie de systèmes d’éclairage ; La petite hydro-électricité est ses voies de développement ; La pensée cycle de vie au service d’Hydro Québec. De nombreux échanges fructueux ont eu lieu lors de ces diffé- rentes sessions. CONFREGE a été l’occasion de diffuser des informations concer- nant la législation, les outils associés ainsi que les pratiques industrielles dans ce domaine vers la communauté du Génie électrique. Elle a éga- lement fourni l’opportunité d’échanges entre industrie et recherche sur les défis qui se présentent aux concepteurs des futurs systèmes du Génie électrique et sur les capacités de la recherche à apporter REE N°4/2016 147 SEE EN DIRECT des solutions réfléchies et pérennes. Une part des discussions qui ont animé cette conférence a également été tournée vers l’enseignement de l’éco-conception au sein de nos Universités et Grandes Ecoles et notamment sur la manière de préparer au mieux nos futurs diplômés à développer un Génie électrique plus éco-responsable. Des visites techniques ont été organisées le 29 juin respective- ment chez GF Machining solutions (Machines outils – sponsor de la conférence) et ABB (Transformateurs de traction) le matin et au CERN l’après-midi. Nous tenons encore une fois à remercier toutes les personnes qui, par leurs conseils, leurs encouragements, leur aide, leur dévoue- ment, ont fait en sorte que cette quatrième édition de CONFREGE fût un succès ! La conférence a été clôturée par l’annonce de la cin- quième édition qui se tiendra en 2018 au Canada dans la province du Québec. David Malec et Dominique Mary Membres senior de la SEE et co-présidents fondateurs de CONFREGE. 46e session du Cigré 22 au 26 août 2016 - Paris Le Cigré (Conseil international des grands réseaux électriques) tient traditionnellement sa grande conférence tous les deux ans pendant l’été au Palais des Congrès de la porte Maillot à Paris. La 46e session de cet évènement majeur s’est déroulée cette année du 22 au 26 août 2016. Comme les précédentes éditions, elle a connu un grand succès malgré un contexte difficile sur le plan de la sécurité dans la capitale. Cet évènement a rassemblé pas moins de 3200 délégués provenant de 89 pays et la grande exposition qui occupait les 3 niveaux du Palais a rassemblé devant les stands tenus par 249 exposants, quelque 8500 décideurs et experts ve- nus s’informer des derniers développements techniques de leur profession. Comme les années précédentes, une semaine entière de discus- sions techniques a permis de nombreux échanges sur les grandes problématiques du moment : HVDC, microgrids, différences régio- nales, marchés de l’électricité, substitution du SF6 dans les postes blindés, pour n’en citer que quelques unes. Dans les faits marquants de cette session, on aura noté en par- ticulier : thèmes déjà cités et faisant une large place aux débats ; Facchini, président de la division Power Grids chez ABB ; - tèmes que sur les marchés ; Puis, à partir du Mardi, de façon classique et organisés en sessions parallèles : Au cours de l’assemblée générale du Cigré, le Président Klaus Froehlich1 qui arrivait en fin de mandat passa le relais à son successeur Robert Stephen, directeur général de la compagnie Eskom, principal fournisseur d’électricité en Afrique du Sud. A noter que le nouveau trésorier élu est Michel Augonnet, personnalité bien connue de la communauté électrique française, à qui la REE est heureuse d’adres- ser ses félicitations à cette occasion. Comme c’est l’usage depuis plu- sieurs sessions, la SEE tenait un stand au niveau 1 de l’exposition, stand mis à sa disposition par le Cigré dans le cadre d’un échange Presse. Ce fut l’occasion de nombreux contacts contribuant à ac- centuer le rayonnement de notre association au sein d’une com- munauté d’importance majeure, à un moment où la SEE renforce ses interactions avec le Cigré et son comité national français (Cf. le compte rendu du Conseil d’administration SEE ci-dessous). En conclusion la 46e session du Cigré a relevé cette fois encore le défi de réunir en France au cours d’une manifestation très réussie et capitale pour les professionnels du monde des réseaux élec- triques, les meilleurs spécialistes venus du monde entier confronter leurs expériences respectives dans la gestion et l’optimisation des réseaux électriques. 1 Rappelons que M. Froehlich a donné une interview exclusive à la REE que nous invitons le lecteur à relire dans le précédent numéro de la revue (2016-3 pp. 19-21). Le stand de la SEE à l'exposition du Cigré 148 REE N°4/2016 SEE EN DIRECT Conseil d’administration de la SEE 1er septembre 2016 - Paris Le Président François Gerin ouvre la séance à 9 h 05. 13 membres du Conseil sont présents dans la salle et 4 autres membres participent par téléphone. 9 pouvoirs ont été reçus, le quorum est donc atteint. 1- Approbation du compte rendu du CA du 24 juin 2016 : adopté à l’unanimité 2- Liste du CA et cooptation d’administrateurs Le Conseil comporte à ce jour 31 membres, suite à la démission de Christian Aucourt, dont le mandat se terminait en 2017. Il est pro- posé au Conseil de coopter sur le poste libéré, M. David de Almeida, Chef du département « Modélisation et Expérience Voyageur » à SNCF Innovation & Recherche. Cette désignation permettrait de conserver au Conseil un représen- tant de la SNCF, Entreprise partenaire, après le départ de Patrice Aknin. Le mandat de M. de Almeida se terminerait en 2017, mais il pourra se présenter à l’élection 2017 pour un mandat normal de trois ans. Cette cooptation est adoptée à l’unanimité. Il pourra être proposé ultérieurement, selon les disponibilités, les cooptations de Philippe Gaucher et Jean-Claude Vannier (tous deux de Centrale-Supélec) qui souhaitent poursuivre les actions vers les jeunes, entamées lors de leur précédente participation au Conseil. 3- Organisation du bureau et élection des membres complétant le bureau La proposition de composition du Bureau est la suivante : - Président : François Gerin - Secrétaire : Catherine Mancini1 - Trésorier : Michel Dupire - Vice-président, animateur des Clubs Techniques : Jean-Luc Leray - Vice-président , animateur des Groupes Régionaux : Patrick Leclerc - Vice-président, Président du Conseil Scientifique et Technique : Bruno Meyer - Président du Comité des Conférences et Congrès : Florent Christophe - Président du Comité de Rédaction REE : Jean-Pierre Hauet - Responsable des actions « jeunes et écoles » : Pierre Rolin - Animatrice du Cercle des Entreprises : Suzanne Debaille Invités : - Secrétaire général : Jacques Horvilleur (invité permanent) - Président du Comité Distinctions et Grades : François Le Chevalier - Président du Comité Web : Patrice Collet François Gerin en tant que Président et Patrick Leclerc en tant que Vice-président des Groupes Régionaux ont déjà été élus lors du Conseil du 24 juin 2016. 1 Coopérant avec Pierre Rolin pour les actions « jeunes et écoles ». Les autres personnes sont proposées pour élection selon la liste ci-dessus. Cette élection est adoptée à l’unanimité. 4. Tableau de bord de la SEE Michel Dupire présente le tableau de bord. La situation financière est difficile, toujours très dépendante du calendrier des congrès, avec une diminution des rentrées en 2016. Le plan d’actions destiné à améliorer le résultat net est piloté par Michel Dupire avec Jacques Horvilleur. Il est nécessaire de réduire les charges externes, avec notam- ment un meilleur travail préparatoire sur le coût des congrès. Il faut reprendre la bonne pratique de l’examen des budgets prévi- sionnels. Nécessaire également de renforcer les manifestations des GR et CT et de renverser la tendance à la baisse des adhésions (hors gratuites) : c’est la base de l’action d’animation de la communauté scientifique et des groupes régionaux. Michel Dupire rappelle l’inté- ressement des GR à ces deux actions, associé à un dispositif de soutien en trésorerie par le Siège. L’évolution du nombre des adhésions individuelles montre une croissance soudaine mi-2016 qui correspond à l’inscription de 200 adhésions d’étudiants à titre gratuit suite à l’action particulière en- treprise en direction des jeunes au printemps via les écoles et la CNJE. Cette évolution doit être poursuivie dès cette nouvelle année universitaire, tout en visant à transformer un maximum d’adhésions d’étudiants de l’année écoulée en adhésions « jeunes actifs » lors de leur entrée dans la vie professionnelle. 5. Plan de développement de la SEE ; mesures de redressement économique à court terme. Augmentation des recettes. Adhésions : relances jeunes ; actions des GR Catherine Mancini présente une proposition de signature de convention avec les écoles, pour mieux faire connaître la SEE et intéresser tant les enseignants que les élèves de dernière année ou des cycles Master et Master Pro avant qu’ils entrent dans la vie professionnelle. C’est également une opportunité de recettes à court et moyen terme. Cette convention est inspirée de celle que la SEE a signée avec l’école ECAM-EPMI (basée à Cergy-Pontoise) en avril dernier. Le rôle clé des GR, grâce à leurs contacts avec écoles et entre- prises, est réaffirmé. Une liste des écoles à prospecter et d’administrateurs volontaires pour les démarcher en s’appuyant sur une convention-type, est éta- blie en séance. Il serait souhaitable d’organiser à l’occasion de ces démarches une intervention en amphi. Il pourrait être intéressant d’organiser en complément un chal- lenge sur un thème donné, en association avec des entreprises, qui permettrait de détecter des talents (challenge ouvert ou restreint aux écoles ayant signé une convention). REE N°4/2016 149 SEE EN DIRECT Il est suggéré de se rapprocher des associations d’anciens élèves qui sont demandeurs pour des sujets d’animation (prêts de salles possibles). Il est important de mettre en place un système d’adhésion avec suivi des étudiants à l’entrée dans la vie active. Attention au taux d’at- trition constaté à la fin des études. Pour en limiter l’effet, proposer une adhésion gratuite aux élèves de cycle ingénieur/Master /Master Pro pour le reste de l’année 2016 dans le cadre de cette convention. Publications Une action est menée en vue du déstockage des numéros anciens. La REE est de plus en plus visitée sur le web. En revanche la publici- té est très insuffisante en volume. Des compétences sont recherchées pour recueillir des pages de publicité liées aux dossiers prévus, en par- ticulier des publi-rédactionnels et pour poster de la publicité sur le site SEE. Un partenariat avec une Junior Entreprise est une piste à explorer. On pourrait envisager enfin de créer une rubrique permanente dans la REE sur la sortie de nouveaux produits, comme cela se pra- tique souvent dans des revues comparables. Partenaires entreprises : adhésions SEE et/ou Cercle des entreprises ; cas des PME-PMI - Adhésions entreprises De nouvelles adhésions ont été enregistrées représentant près de 900 salariés mais cela ne compense pas la défection (totale ou partielle) de certaines entreprises associées traditionnelles ; Le président insiste sur l’importance d’un lien direct entre les ad- ministrateurs et les entreprises partenaires, acteurs clé de la SEE. Afin de fidéliser ces dernières, il est nécessaire de disposer d’un kit sur les droits d’accès des salariés bénéficiant d’une adhésion entreprises : tarifs privilégiés sur certaines manifestations, revue en ligne, réduc- tion sur le coût de la publicité, soirées d’études y compris en régions. L’objectif affiché par le président est de doubler le montant des recettes annuelles. Une première liste d’entreprises ou institutions à prospecter et de volontaires associés pour cette démarche est établie en séance. Elle sera à compléter. Une suggestion est faite de faire souscrire des adhérents “per- sonnes morales”, possibilité prévue aux statuts mais non exploitée, à la place de la procédure actuelle des conventions avec les entre- prises partenaires, ce qui donnerait plus de souplesse et de conti- nuité à la coopération. - Cercle des Entreprises La proposition tarifaire 2017 pour être membre du CdE est ac- ceptée. Le lancement d’un 3e GT prévu sur les véhicules connectés, voire autonomes, est toujours à l’ordre du jour. L’intérêt d’un des participants est confirmé en séance et Christel Seguin est mandatée pour lancer ce nouveau GT. C3 : Congrès, Conférences et autres manifestations Florent Christophe présente la vue pluriannuelle de ce chapitre important des activités. Christel Seguin témoigne de la démarche complémentaire de vul- garisation (soirées) et de formation grâce à EuroSAE, sur des thèmes d’actualité, de manière identique au fonctionnement d’un CT. L’approche régionale est essentielle, combinée avec celle des CT : Florent Christophe rappelle la nécessité que tous les CT et le GR contribuent en 2017 à l’organisation de manifestations, comme indiqué dans les transparents présentés. Le contact a été repris avec l’IEEE pour définir un programme de manifestations communes. Une présentation des nouveaux CT sera programmée lors d’un CA fin d’année. De même il est prévu une présentation réciproque des CT de la SEE et des comités du Cigré, le 22 novembre prochain. Opérations avec Grandes écoles et universités (incluant des synergies avec CNF Cigré) Patrick Leclerc présente les exemples de coopération avec cer- taines grandes écoles et le CNF Cigré. A titre d’exemple, l’organisation d’une journée d’études à Lyon sur les « Réseaux Electriques et Super- grid » le 12 octobre 2016 est mentionnée. Un projet similaire est pré- vu en novembre 2016 sur Grenoble avec ENSE3 (INPG) et SIEMENS. La déclinaison de cette démarche est envisagée dans les autres GR, dans les sièges de grandes villes. La valorisation de ces mani- festations devra trouver sa place dans les publications du Cigré et de la SEE. Le principe d’un échange mensuel avec le CNF Cigré a été re- tenu en vue de partager le plan de manifestations à 6 mois et les possibilités d’événements communs. Réduction des dépenses : optimisation des m² Le déplacement des bureaux de la SEE au sein de l’Espace Hamelin est en cours de préparation. Il devrait s’accompagner d’un déménagement des archives actuellement stockées à Asnières vers les sous-sols de l’Espace Hamelin ce qui permettra de réaliser une économie annuelle significative. 6. Aspects stratégiques Le rapprochement avec le CNF Cigré prévoit un scénario en 3 phases. La phase 1 de collaboration est déjà lancée. Les phases 2 de mutualisation et 3 d’hébergement sont actuellement en cours de définition avec le CNF du Cigré. Un audit a été lancé pour pré- parer l’évolution éventuelle des statuts dans le contexte du rappro- chement avec le CNF Cigré et de renforcement de l’organisation des partenaires de Jicable. L’audit analysera finement la distinction entre services vers les membres ou des tiers et actions d’intérêt général, aux plans juridique et fiscal. La Vision SEE 2020 est à construire pour planifier les années 2018 et au-delà. L’implication des administrateurs sera décisive pour ce développement. Conclusion Le Président remercie les administrateurs pour leur participa- tion active et compte sur leur engagement pour mener à bien les actions décidées, avec le soutien actif et attentif du Bureau et une démarche PDCA rendue plus efficace grâce au nouveau tableau de bord. François Gerin clôture la réunion du Conseil à 12 h 35. 150 REE N°4/2016 SEE EN DIRECT Prop’élec 2016 Date : 23-24 novembre 2016 - ECAM-EPMI Cergy Pontoise (France) Renouant avec une initiative antérieure, l’ECAM-EPMI orga- nise en partenariat avec la SEE un colloque de deux jours dans les locaux de l’Ecole à Cergy-Pontoise centrée sur les techno- logies de la propulsion électrique. Cette manifestation se veut également un rendez-vous et un forum de rencontres entre responsables de la recherche, de l’exploitation et des industries du secteur. Thèmes traités : A l’occasion du colloque, deux plates formes techniques déve- loppées sur place par l’ECAM-EPMI seront ouvertes aux participants. Conférence > La cybersécurité des réseaux électriques intelligents (REI) Date : 25 novembre 2016 - Rennes (France) Cette conférence entre dans le cadre plus général de la semaine de la cybersécurité (21-25 novembre). Organisée à l’initiative de la SEE, cette Journée REI s’attachera à faire le point des derniers développements dans le domaine de la cybersé- curité des réseaux électriques intelligents, notamment à partir des premiers retours d’expérience du terrain, en France et à l’étranger, des évolutions de la technique, des normes et des certifications de matériels. Un accent particulier sera mis sur la résilience des REI. Demi-journée d’études > Claude Elwood Shannon : le jongleur de l’électronique et des mathématiques Date : 14 décembre 2016 (après-midi) - Paris, Espace Hamelin Dans le cadre du Cercle histoire, la SEE organise une demi- journée consacrée à Claude Shannon à l’occasion du centième anniversaire de sa nais- sance. A la fois mathéma- ticien et ingénieur, Claude Shannon a formalisé de manière rigoureuse et générique la transmission d’ informations. Ses articles sur le cryptage et l’échantillonnage ont marqué des générations de mathématiciens et ingénieurs et ont eu une profonde in- fluence sur l’ensemble des techniques numériques qui se sont développées à partir des années 60. La demi-journée mettra en perspective sa vie et ses travaux au MIT et aux Bell Labs et l’importance historique que son œuvre a représentée dans l’histoire de l’informatique, de l’électronique et des communica- tions, sans oublier son incursion pertinente dans la génétique. Shannon a aussi marqué les sciences humaines et l’épistémolo- gie par son interprétation de la notion d’entropie. La demi-journée sera organisée autour de quatre présenta- tions et une table ronde. Conférence > MEA’17 - More Electric Aircraft Date : 1-2 février 2017 - Bordeaux (France) The aviation industry has seen a trend for greater electri- cal power requirements for aircraft systems. However, tech- nology has progressed to the point where some light piloted aircrafts are already battery powered, and it is envisioned that future larger aircraft will, to various degrees, be electri- cally powered. Following the successful European conference held in Toulouse in February 2015 with more than 100 focused pre- sentations, the organisers of MEA2017 invite industry and re- search representatives to contribute to this new exciting edi- tion in Bordeaux, and prepare to share ideas, lessons learnt and solutions relating to technological developments as well as future concepts associated to more/all electrical aircraft. Main themes: than air, either for commercial, military or private use; - craft dismantling; - tive and incremental improvements of related technolo- gies. MANIFESTATIONS SCIENTIFIQUES PROCHAINEMENT ORGANISÉES PAR OU EN PARTENARIAT AVEC LA SEE Pour toute information concernant l'une de ces manifestations prière de vous adresser à : congres@see.asso.fr REE N°4/2016 151 SEE EN DIRECT Conférence > ICOLIM - International Conference on Live Maintenance Date : 26-28 avril 2017 - Strasbourg (France) From 1992, the Live Working Association (LWA) has organized conferences for experts dealing with the development and imple- mentation of live work technology. At the ICOLIM 2014 conference (Budapest, Hungary), the French representation made a commit- ment to organize the 12th ICOLIM conference with the following partners: TSO (RTE), DSO (ERDF, ES) and the Electricity and Elec- tronics Society (SEE). The 12th conference will be held on 26-28 April, 2017 in Strasbourg at the Convention and Exhibition Center. Topics: Deadlines: Full paper submission: Friday, 28 October, 2016 Notification of acceptance: Friday, 13 January, 2017 Opening registration: Friday, 2 September 2016 Early bird registration: Friday, 17 February, 2017 Pour en savoir plus : www.icolim2017.org Adresse : info@icolim2017.org Conférence > European Test and Telemetry Conference (ETTC 2017) Date : 13-15 juin 2017 - Toulouse (France) La 31e édition d’ETTC fournira l’occasion aux ingénieurs et scientifiques de présenter et discuter les derniers développe- ments dans les méthodes de test et équipements pour les sys- tèmes de transport aéronautique, spatial et terrestre. Thèmes : Exposition : En appui de la Conférence, une exposition sera organisée pendant cet évènement. Elle permettra aux participants de faire des contacts utiles et illustrera la grande variété des dévelop- pements techniques intervenus dans les méthodes de tests et de mesures. Plus en savoir plus : www.ettc2017.org Être membre de la SEE c’est : Elargir votre réseau professionnel par la participation à des structures de réflexion adaptées (clubs techniques, groupes régionaux) Consulter et télécharger gratuitement les articles, dossiers ou numéros complets de la REE sur le site SEE, (rubrique e-REE) Tarifs préférentiels pour les Conférences et Journées d’études SEE : une ou deux inscriptions vous remboursent le prix de l’adhésion ! Réduction fiscale avec tarification attrayante pour les enseignants, les actifs de moins de 35 ans et les étudiants Adhérer en ligne : Renseignements sur le site www.see.asso.fr à la rubrique : adhérez à la SEE Pour plus d’informations, vous pouvez nous appeler au 01 5690 3717 ou 3709 ou 3704, nous serons heureux de vous présenter l’Association. Cher lecteur de la REE, avez-vous pensé à adhérer à la SEE ? Vous aimez notre Revue, vous allez adorer notre Association ! SEE - 17, rue de l’Amiral Hamelin - 75783 Paris cedex 16 - Fax : 01 5690 3719 www.see.asso.fr 152 REE N°4/2016 Impression : Jouve - 53100 Mayenne Dépôt légal : octobre 2016 Edition/Administration : SEE - 17, rue de l’Amiral Hamelin - 75783 Paris cedex 16 Tél. : 01 5690 3709 - Fax : 01 5690 3719 Site Web : www.see.asso.fr Directeur de la publication : François Gerin Comité de rédaction : Bernard Ayrault, Alain Brenac, Patrice Collet, André Deschamps, Jean-Pierre Hauet, Jacques Horvilleur, Marc Leconte, Bruno Meyer Secrétariat de rédaction : Alain Brenac, Aurélie Bazot-Courtoisier Tél. : 01 5690 3717 Partenariats Presse & Annonces : Mellyha Bahous - Tél. : 01 5690 3711 Régie publicitaire : FFE - Cyril Monod - Tél. : 01 5336 3787 cyril.monod@revue-ree.fr Promotion et abonnements : 5 numéros : mars, mai, juillet, octobre, décembre. Aurélie Bazot-Courtoisier - Tél. : 01 5690 3717 - www.see.asso.fr/ree Prix de l’abonnement 2016 : France & UE : 120 - Etranger (hors UE) : 140 Tarif spécial adhérent SEE : France & UE : 60 - Etranger : 70 Vente au numéro : France & UE : 28 - Etranger : 30 Conception & réalisation graphique JC. Malaterre - Tél. : 09 8326 0343 Impression : Jouve - 53100 Mayenne. Siège social : 11 Bd de Sébastopol - 75027 Paris cedex 1 Tél. : 01 4476 5440 CPPAP : 1017 G 82069 Copyright : Toute reproduction ou représentation intégrale ou partielle, par quelque procédé que ce soit, des présentes pages publiées faite sans l’autori- sation de l’éditeur, est illicite et constitue une contrefaçon. Toutefois les copies peuvent être utilisées après autorisation obtenue auprès du CFC - 20 rue des Grands Augustins, 75006 Paris (Tél. : 01 4404 4770) auquel la SEE a donné mandat pour la représenter auprès des utilisateurs (loi du 11 mars 1957, art. 40 & 41 et Code Pénal art. 425). La revue REE est lue par plus de 10 000 ingénieurs et cadres de l’industrie, dirigeants d’entreprises, directeurs des ressources humaines, formateurs... Profitez de ce lectorat ciblé et de qualité pour publier vos annonces. Répertoire des annonceurs Schneider Electric ............................................................................. C 2 LEM ................................................................................................... p. 3 SES Europe ................................................................................ p. 18-19 IFTEC ............................................................................................... p. 25 Prix Jean Jerphagnon ............................................................... ... p. 116 Smart City ........................................................................................... C3 GENERAL CABLE ............................................................................... C4 Prochains Grands Dossiers Dossier 1 : Enjeux d’un développement massif des EnR dans le système électrique européen du futur Dossier 2 : URSI France 2016 Une publication de la Entre science et vie sociétale, les éléments du futur 6 CLUBS TECHNIQUES Automatique, Informatique et Systèmes Ingénierie des Systèmes d’Information et de Communication Cybersécurité et Réseaux intelligents Radar, Sonar et Systèmes Radioélectriques Stockage et Production de l’Energie Systèmes Electriques 12 GROUPES RÉGIONAUX Conférences nationales et internationales Journées d’études thématiques Conférences-Débat Congrès internationaux, en partenariat ou non, avec d’autres sociétés scientifiques La SEE contribue à l’organisation et ses Groupes régionaux Grades Senior et Emérite SEE Prix : Brillouin-Glavieux, Général Ferrié, André Blanc-Lapierre, Thévenin Médailles : Ampère, Blondel La SEE récompense les contributeurs éminents au progrès des sciences et technologies dans ses domaines Revue de l’Électricité et de l’Électronique (REE) Revue 3EI Monographies Publications électroniques : SEE Actualités La SEE favorise le partage du savoir, et contribue aux débats sur des problèmes de société en éditant des revues La SEE fédère un vaste réseau d’experts universitaires et industriels en faveur des La SEE, société savante française fondée en 1883, forte de 2 000 membres, couvre les secteurs de l’Électricité, de l’Électronique et des Technologies de l’Information et de la Communication. Elle a pour vocation de favoriser et de promouvoir le pro- grès dans les domaines : Énergie, Télécom, Signal, Composants, Automatique, Informatique. SOCIÉTÉ DE L’ÉLECTRICITÉ, DE L’ÉLECTRONIQUE ET DES TECHNOLOGIES DE L’INFORMATION ET DE LA COMMUNICATION 17, rue de l’Amiral Hamelin - 75783 Paris cedex 16 Tél. : 01 56 90 37 09/17 - Fax : 01 56 90 37 19 www.see.asso.fr SALON DE LA VILLE ET DES TERRITOIRES INTELLIGENTS,DURABLESETCONNECTES Exposition – Conférences – Ateliers Smart networks for smart cities En parallèle de PARIS EXPO PORTE DE VERSAILLES PAVILLON 2.2 8 & 9 NOVEMBRE 2016 2 JOURS 15 CONFERENCES 10 ATELIERS 80 EXPOSANTS 4000 VISITEURS www.smartgrid-smartcity.com @salonsmartgrid Réservezdèsmaintenant votrebadgegratuitsur: www.smartgrid-smartcity.com GENERAL CABLE PROPOSE UNE GAMME DE PRODUITS VARIÉS Nous avons la capacité de fournir des produits et solutions pour des applications très diverses allant de l’éolien au photovoltaïque, en passant par la marine, l’industrie et le nucléaire, etc... Nous mettons notre savoir-faire au service de vos besoins car notre mission est de faciliter votre travail. www.generalcable.com/eu GENERAL CABLE, LA DIVERSITÉ AU SERVICE DE VOS APPLICATIONS INFRASTRUCTURE TRANSPORT INDUSTRIEL

Creative Commons Aucune (Tous droits réservés) Aucune (Tous droits réservés)

20 Z REE N°4/2016 La mission Quantum Experiment at Space Scale (QUESS) a été lancée le 16 août 2016 à 1h40, heure locale du centre de lancement Jiuquan au nord de la Chine. Le satellite, appe- lé Mozi (ou Micius) du nom d’un philosophe chinois, doit démontrer la faisabilité des commu- nications quantiques entre l’espace et la Terre et tester l’intrication de photons sur des distances sans précédent jusqu’à présent. Le programme QUESS résulte d’une collaboration entre l’Aca- démie chinoise des sciences et l’Académie autri- chienne des sciences. Rappels sur les techniques de chiffrement : l’apport de la cryptographie quantique De tout temps le chiffrement des messages a été utili- sé pour transmettre des données secrètes. Différentes mé- thodes ont été imaginées avec bien sûr, face à elles, le risque de voir percé le secret des données. Avec l’arrivée de l’infor- matique, le chiffrement est devenu électronique. Les don- nées à chiffrer devinrent des bits et les lettres de l’alphabet furent converties en binaire selon divers protocoles. Un grand apport des calculateurs électroniques a été la possibilité de programmer le chiffrement et d’offrir un grand éventail de choix et une grande rapidité. Ces caractéristiques ont fait de la clé de chiffrement l’élément le plus important de la chaîne de chiffrement mais aussi le point faible potentiel. Les travaux de Shannon ont ainsi démontré en 1948 qu’un chiffrement ne pouvait être parfaitement sécurisé qu’à la condition que la clé soit de même taille que la donnée et ne soit utilisée qu’une seule fois. La fabrication des clés et leur gestion de- vinrent rapidement un problème crucial au fur et à mesure que le nombre de transactions à sécuriser augmentait. Le concept de distribution de clés apparut alors comme une solution à ce problème. Et pour le résoudre, les cher- cheurs développèrent une méthode de transmission de clés dite « asymétrique », dans laquelle la clé de chiffrement et la clé de déchiffrement sont des nombres différents. Un émetteur garde secrète sa clé de déchiffrement appelée « clé privée » mais peut diffuser à tout le monde sa clé de chiffrement appelée « clé publique », ce qui permet d’éviter les échanges de clés devant rester secrètes. A la fin des an- nées 70, un groupe de trois chercheurs, Rivest, Shamir et Adleman, proposa une solution algorithmique permettant de mettre en œuvre le concept de clé asymétrique, connue sous l’acronyme RSA, qui est, depuis cette date, l’une des bases du chiffrement asymétrique classique. Figure 1 : Vue d’artiste montrant le projet de transmission de clés entre deux stations sol et le satellite de la mission QUESS. ACTUALITÉS Lancement par la Chine d’un satellite « quantique » REE N°4/2016 Z 21 Toutefois les systèmes asymétriques risquent de ne pas rester inviolés indéfiniment. S’ils venaient à être craqués, il faudrait imaginer d’autres solutions et c’est là que la crypto- graphie quantique peut intervenir. Celle-ci consiste à utiliser les propriétés de la physique quantique pour établir des pro- tocoles de chiffrement qui permettent d’atteindre des niveaux de sécurité qu’on ne peut atteindre par la cryptographie clas- sique. Cette technique est particulièrement bien adaptée à la distribution quantique de clés secrètes (QKD: quantum key distribution) entre deux interlocuteurs distants, tout en assu- rant la sécurité totale de la transmission grâce à l’utilisation de paires de photons intriqués, c’est-à-dire qui possèdent des propriétés physiques qui restent corrélées quelle que soit la distance pouvant s’établir entre des photons « jumeaux ». Cette technologie permet à coup sûr de savoir si la clé a été intercep- tée lorsqu’elle a été distribuée et donc de revenir sans risque à des systèmes symétriques. Le premier protocole de cryptographie quantique proposé en 1984 par Charles Bennet et Gilles Brassard, connu sous le terme de BB84, s’appuie sur quatre états de polarisation. Les émetteur et récepteur du message utilisent un canal de transmission quantique par lequel ils s’échangent des photons polarisés en parallèle avec un canal public. L’intercepteur, s’il existe, peut intercepter le canal quantique et le canal public. Le canal public sert à échanger les séquences des choix de polarisation des photons. En premier lieu, l’émetteur envoie une série de photons de polarisation aléatoire. Le récepteur reçoit les photons et choisit au hasard l’une des polarisations. Il indique ensuite publiquement quel type de mesure il a ef- fectué mais sans révéler le résultat de la mesure. L’émetteur lui répond pour chaque cas s’il est bien en conformité avec le récepteur et se trouve alors en possession d’une clé secrète. Si l’intercepteur, qui connait les filtres utilisés par le récepteur, intercepte un photon, il a une chance sur deux de perturber le message en faisant une mauvaise mesure mais il est aus- si dans l’incapacité d’effectuer la mesure une deuxième fois. L’interception est prouvée de manière probabiliste si le taux d’erreur excède une certaine valeur. On remarquera que, dans sa version la plus simple, le protocole BB84 ne requiert pas de photons dans des états intriqués ou superposés. Si des photons dans des états intriqués sont utilisés, récepteur et in- tercepteur n’ont accès qu’au deuxième photon mais n’importe quelle mesure de ce dernier détruit l’intrication. Beaucoup de progrès ont été faits depuis le premier pro- tocole BB84. A la fin des années 90, des dispositifs pouvant transmettre des clés secrètes à un débit de l’ordre du kbit/s dans des fibres optiques ont été commercialisés. A la fin des années 2000, une nouvelle génération de produits a été mise au point en utilisant des détecteurs supraconducteurs. La transmission des clés a atteint alors une distance de 250 km lors de l’expérimentation effectuée par l’équipe de Nicolas Gi- sin à Genève. En parallèle, Philippe Granger a étudié non plus des photons uniques mais des états cohérents de la matière qui pouvaient être détectés par des photodiodes. Mais à ce stade la transmission par fibre semblait avoir atteint ses limites du fait de l’atténuation des lignes et il s’avérait impossible prati- quement de dupliquer des états cohérents pour les réémettre. C’est ainsi que les spécialistes de cryptographie quantique se sont tournés vers la transmission en air libre. Distribution de clés quantiques via des satellites Dans les années 2000, l’intérêt s’est donc porté vers les communications optiques en air libre en menant des expé- riences au sommet des montagnes, là où les perturbations atmosphériques sont moins élevées qu’au sol pour la trans- mission de clés. Les moyens de transmission et de réception sont devenus alors le laser et le télescope. Des impulsions laser très atténuées sont utilisées comme sources de pho- tons. Par rapport aux fibres optiques, la transmission dans l’atmosphère présente l’avantage d’une moindre absorption et de l’absence de biréfringence ce qui permet un maintien de la polarisation. Elle est toutefois soumise aux conditions météorologiques et autres causes de turbulences atmosphé- riques et bien sûr sensible à l’interposition d’obstacle sur la ligne de visée. L’utilisation de satellite en orbite basse – entre 500 et 2 000 km – constitue l’une des solutions pour remé- dier à ces inconvénients. Plusieurs expériences de validation de ces principes ont été réalisées ces dernières années. En 2005, C.-Z. Peng et ses collègues ont rapporté la première distribution de paires de photons intriqués sur une distance de plus de 13 km, au-delà de l’épaisseur effective de l’aérosphère. C’était une première étape importante vers la communication quantique globale par satellite car elle a montré que l’intrication des photons émis se maintenait après la propagation dans l’at- mosphère malgré les turbulences. En 2007, deux expériences ont été réalisées dans les îles Canaries dans le cadre d’une collaboration européenne de plusieurs laboratoires spécialisés. La distribution quantique de clés était réalisée selon le protocole BB84 au moyen de photons intriqués, et en utilisant une technique dite des « états leurres »1 . La transmission a été réalisée en espace libre sur une distance de 144 km, reliant La Palma à Tenerife. Pour ces expériences, la station sol de l’Agence spatiale euro- péenne, conçue pour l’étude des communications optiques standard entre les satellites et la Terre, a été adaptée aux 1 La technique des états leurres (decoy states) consiste à utiliser des sources multiphotons à niveaux d’intensité différents qui permettent d’augmenter la longueur de transmission sans altérer son intégrité. ACTUALITÉS 22 Z REE N°4/2016 communications quantiques (figure 2). Il est important de souligner que la source à deux photons a pu atteindre des taux de coïncidence temporelle suffisants pour compenser l’atténuation du canal satellite-sol. Cette expérience a fini de démontrer la faisabilité des communications quantiques entre le sol et des satellites en orbite basse et le papier qui lui est associé2 a été abondamment cité. Le programme chinois QUESS C’est dans ce contexte que se situe le dernier lancement effectué par les Chinois dans le cadre de la mission QUESS. En effet, dans ce cas, l’essentiel du parcours des photons se fait dans le vide et seule une fraction du parcours, environ 10 km, s’effectue dans l’atmosphère. Commencé en 2011, le programme chinois Quess a conduit au lancement, le 16 août 2016, du satellite Mozi de 600 kg, mis en orbite depuis la Terre à environ 500 km au-dessus du sol. L’instrument principal est un interféromètre « Sagnac » qui est utilisé pour générer deux photons infrarouges intriqués en braquant un laser ultraviolet sur un cristal optique non-linéaire. Les principaux objectifs de QUESS visent à démontrer la fai- sabilité de la distribution de clés quantiques (QKD) entre le satellite et deux stations distantes de 2 500 km sur le terrain : Nanshan, un télescope de 25 m à l’observatoire astronomique du Xinjiang en Chine occidentale, et l’observatoire Xinglong à Yanshan, à environ 200 km au sud de Pékin. Ces expérimen- 2 Schmitt-Manderbach, T., Weier, H., Fürst, M., Ursin, R., Tiefenbacher, F., Scheidl, T. & Zeilinger, A. (2007). Experimental demonstration of free-space decoy-state quantum key distribution over 144 km. Physical Review Letters, 98(1), 010504. tations seront effectuées uniquement par l’équipe chinoise, a indiqué Jianwei Pan de l’Université de la science et de la tech- nologie chinoise, qui est le directeur scientifique de QUESS. Celle-ci va ensuite collaborer avec le Pr. Anton Zeilinger et ses collègues de l’Université de Vienne en vue de créer un canal QKD intercontinental entre Pékin et Vienne, avec la possibilité d’y associer des stations en Italie et en Allemagne. QUESS sera le premier test de la communication quantique par satellite, a indiqué Anton Zeilinger. Le programme européen Space-QUEST L’Agence spatiale européenne (ESA) a également lancé à partir de 2002, dans le cadre de son programme de re- cherche, plusieurs études dans le domaine des communi- cations quantiques pour les systèmes spatiaux. À la suite de ces travaux, un consortium européen de recherche dirigé par le professeur Zeilinger déjà cité, a présenté le programme de la mission Space-QUEST3 (Quantum Entanglement for Space Experiment : Intrication quantique dans des expérimenta- tions spatiales) dans le cadre des programmes de sciences physiques dans l’espace de l’ESA, visant à une expérimenta- tion de communication quantique espace-sol depuis la sta- tion spatiale Internationale ISS. Ce programme est en cours 3 Ursin, R., Jennewein, T., Kofler, J., Perdigues, J. M., Cacciapuoti, L., de Matos, C. J., ... & Barbieri, C. (2009). Space-quest, experiments with quantum entanglement in space. Europhysics News, 40(3), 26-29. et Armengol, J. M. P., Furch, B., de Matos, C. J., Minster, O., Cacciapuoti, L., Pfennigbauer, M., ... & Baister, G. (2008). Quantum communications at ESA: Towards a space experiment on the ISS. Acta Astronautica, 63(1), 165-178. Figure 2 : Schéma de l’expérimentation des Canaries. BS : séparateur de faisceau. PBS : séparateurs de faisceau polarisé. HPW : semi réfléchissant. ACTUALITÉS REE N°4/2016 Z 23 et il présente de grandes similitudes avec le programme chinois à ceci près que le programme européen utilise la station spatiale internationale au lieu d’un satellite. On no- tera l’implication dans ces deux programmes du laboratoire d’Anton Zeilinger de Vienne ce qui montre la volonté des Chinois de collaborer avec l’Europe tout en restant maître d’œuvre du programme d’expérimentation à bord de leur sa- tellite dit « quantique ». Conclusion Le lancement du satellite chinois s’inscrit dans les expé- rimentations de distribution de clés quantiques dans l’air et dans l’espace qui se sont développées depuis une bonne dizaine d’années. Depuis longtemps la Chine a mis en place de nombreux laboratoires de recherche spécialisés dans l’ex- ploitation de la cryptographie quantique pour développer un chiffrement hyper-sécurisé. Face aux expérimentations pré- vues en Europe avec l’ISS dans ce domaine, il existait de fortes probabilités que ce pays développe son propre pro- gramme en s’appuyant sur un satellite d’émission lancé de- puis le sol chinois afin de ne pas se faire distancer au plan international. Ceci n’exclut pas d’ailleurs des interactions, voire des recherches en commun avec d’autres programmes spatiaux comme le montre la collaboration entamée avec un laboratoire autrichien. Q Marc Leconte ACTUALITÉS Les radiocommunications à ondes millimétriques arrivent à maturité L’encombrement du spectre électromagnétique, tout par- ticulièrement, dans les fréquences les plus faciles d’utilisa- tion, est un obstacle au développement des nouvelles appli- cations des radiocommunications. Par ailleurs, les utilisateurs sont de plus en plus friands de fréquences libres qui évitent d’avoir à souscrire un contrat de licence auprès des autorités compétentes et permettent de mettre sur le marché des pro- duits d’usage universel dès lors que les bandes de fréquence se trouvent suffisamment ouvertes dans le monde. Dans les Actualités de la REE 2016-3, nous avons évoqué l’élargissement envisagé en Europe et en France de la bande libre des 865-868 MHz afin de donner de nouvelles possi- bilités de développement aux RFID et à l’Internet des objets. Dans le présent article, nous appelons l’attention de nos lecteurs sur le potentiel offert par la bande EHF (Extrême- ment haute fréquence) allant de 30 à 300 GHz, qui corres- pond à des longueurs d’onde de 1 à 10 mm. Cette bande est aujourd’hui utilisée pour des applications relevant des domaines militaires, de l’astronomie et de la sécurité (scree- ning des passagers dans les aéroports). Elle offre pour les radiocommunications des ressources en bande passante très importantes qui permettent notamment d’envisager le dé- veloppement de nouvelles technologies de transmission en ultra-large bande. Mais l’utilisation des ondes millimétriques se heurte à de grosses difficultés. Il faut bien évidemment disposer de com- posants électroniques présentant la dynamique nécessaire – c’est un point sur lequel nous revenons ci-après –, mais il faut également composer avec la forte atténuation par les murs, les feuillages et les gaz de l’atmosphère. En particulier, les signaux aux alentours de 60 GHz correspondent à une fréquence de résonance de la molécule O2 et sont sévère- ment atténués. La vapeur d’eau présente également des pics d’absorption, quoique plutôt entre 20 et 30 GHz. Les ondes millimétriques sont donc a priori limitées aux transmissions à courte distance, typiquement sur des distances inférieures à 1 km. Cependant, les inconvénients peuvent constituer des avantages : la forte atténuation rend plus facile la réutilisation des fréquences et la propension à la diffusion et à la dif- fraction des ondes multiplie les chemins de propagation et ouvre la voie à l’usage de technologies MI-MO. Les courtes longueurs d’onde permettent de réaliser de petites antennes en plus grand nombre, avec des faisceaux plus étroits. L’organisation des fréquences La bande des 60 GHz est à présent reconnue comme une bande libre d’accès dans la plupart des pays, avec une largeur comprise entre 5 et 9 GHz qui dépend des réglementations locales. Le tableau 1 donne un extrait du tableau annexé à la dé- cision Arcep 2014/1263 du 6 novembre 2014 qui intègre les décisions les plus récentes prises au niveau européen, notamment la décision d’exécution de la Commission 2013/752/UE du 11 décembre 2013 relative à l’harmoni- sation du spectre radioélectrique en vue de l’utilisation de dispositifs à courte portée. Aux Etats-Unis, la FCC (Federal Communications Commis- sion) a étendu le 18 juillet 2016 la bande libre 57-64 GHz jusqu’à 71 GHz. Selon les pays, des fréquences à des niveaux divers peuvent être concédées sous licence pour les applications de radiocommunications et en particulier pour la 5G. Ainsi,

Creative Commons Aucune (Tous droits réservés) Aucune (Tous droits réservés)

REE N°4/2016 Z 23 et il présente de grandes similitudes avec le programme chinois à ceci près que le programme européen utilise la station spatiale internationale au lieu d’un satellite. On no- tera l’implication dans ces deux programmes du laboratoire d’Anton Zeilinger de Vienne ce qui montre la volonté des Chinois de collaborer avec l’Europe tout en restant maître d’œuvre du programme d’expérimentation à bord de leur sa- tellite dit « quantique ». Conclusion Le lancement du satellite chinois s’inscrit dans les expé- rimentations de distribution de clés quantiques dans l’air et dans l’espace qui se sont développées depuis une bonne dizaine d’années. Depuis longtemps la Chine a mis en place de nombreux laboratoires de recherche spécialisés dans l’ex- ploitation de la cryptographie quantique pour développer un chiffrement hyper-sécurisé. Face aux expérimentations pré- vues en Europe avec l’ISS dans ce domaine, il existait de fortes probabilités que ce pays développe son propre pro- gramme en s’appuyant sur un satellite d’émission lancé de- puis le sol chinois afin de ne pas se faire distancer au plan international. Ceci n’exclut pas d’ailleurs des interactions, voire des recherches en commun avec d’autres programmes spatiaux comme le montre la collaboration entamée avec un laboratoire autrichien. Q Marc Leconte ACTUALITÉS Les radiocommunications à ondes millimétriques arrivent à maturité L’encombrement du spectre électromagnétique, tout par- ticulièrement, dans les fréquences les plus faciles d’utilisa- tion, est un obstacle au développement des nouvelles appli- cations des radiocommunications. Par ailleurs, les utilisateurs sont de plus en plus friands de fréquences libres qui évitent d’avoir à souscrire un contrat de licence auprès des autorités compétentes et permettent de mettre sur le marché des pro- duits d’usage universel dès lors que les bandes de fréquence se trouvent suffisamment ouvertes dans le monde. Dans les Actualités de la REE 2016-3, nous avons évoqué l’élargissement envisagé en Europe et en France de la bande libre des 865-868 MHz afin de donner de nouvelles possi- bilités de développement aux RFID et à l’Internet des objets. Dans le présent article, nous appelons l’attention de nos lecteurs sur le potentiel offert par la bande EHF (Extrême- ment haute fréquence) allant de 30 à 300 GHz, qui corres- pond à des longueurs d’onde de 1 à 10 mm. Cette bande est aujourd’hui utilisée pour des applications relevant des domaines militaires, de l’astronomie et de la sécurité (scree- ning des passagers dans les aéroports). Elle offre pour les radiocommunications des ressources en bande passante très importantes qui permettent notamment d’envisager le dé- veloppement de nouvelles technologies de transmission en ultra-large bande. Mais l’utilisation des ondes millimétriques se heurte à de grosses difficultés. Il faut bien évidemment disposer de com- posants électroniques présentant la dynamique nécessaire – c’est un point sur lequel nous revenons ci-après –, mais il faut également composer avec la forte atténuation par les murs, les feuillages et les gaz de l’atmosphère. En particulier, les signaux aux alentours de 60 GHz correspondent à une fréquence de résonance de la molécule O2 et sont sévère- ment atténués. La vapeur d’eau présente également des pics d’absorption, quoique plutôt entre 20 et 30 GHz. Les ondes millimétriques sont donc a priori limitées aux transmissions à courte distance, typiquement sur des distances inférieures à 1 km. Cependant, les inconvénients peuvent constituer des avantages : la forte atténuation rend plus facile la réutilisation des fréquences et la propension à la diffusion et à la dif- fraction des ondes multiplie les chemins de propagation et ouvre la voie à l’usage de technologies MI-MO. Les courtes longueurs d’onde permettent de réaliser de petites antennes en plus grand nombre, avec des faisceaux plus étroits. L’organisation des fréquences La bande des 60 GHz est à présent reconnue comme une bande libre d’accès dans la plupart des pays, avec une largeur comprise entre 5 et 9 GHz qui dépend des réglementations locales. Le tableau 1 donne un extrait du tableau annexé à la dé- cision Arcep 2014/1263 du 6 novembre 2014 qui intègre les décisions les plus récentes prises au niveau européen, notamment la décision d’exécution de la Commission 2013/752/UE du 11 décembre 2013 relative à l’harmoni- sation du spectre radioélectrique en vue de l’utilisation de dispositifs à courte portée. Aux Etats-Unis, la FCC (Federal Communications Commis- sion) a étendu le 18 juillet 2016 la bande libre 57-64 GHz jusqu’à 71 GHz. Selon les pays, des fréquences à des niveaux divers peuvent être concédées sous licence pour les applications de radiocommunications et en particulier pour la 5G. Ainsi, 24 Z REE N°4/2016 aux Etats-Unis, les bandes 37-38,6, 38,6-40, 71-76, 81-86 et 92-95 GHz, qui ne souffrent pas de l’absorption par l’O2 , donnent ainsi lieu à licence par la FCC. Wi-Fi 802.11ad et réseaux 5G Aujourd’hui deux applications principales des ondes mil- limétriques se dessinent dans le domaine des radiocommu- nications : distances, dans le cadre du WI-Fi IEEE 802.11ad ; 1 entre stations de base des futurs réseaux 5G. Le Wi-Fi 802.11ad, promu sous le nom commercial de WiGig, est un standard approuvé en octobre 2012 mais ap- paru commercialement seulement début 2016. Il utilise la bande des 60 GHz (57 à 66 GHz en Europe) et est destiné au monde du multimedia. Tout en utilisant une puissance maximale à l’émission de seulement 10 mW (le 1/10e du Wi- Fi 802.11ac), ce standard vise les très hauts débits (jusqu’à 6,76 Gbit/s) mais sur de très courtes distances (moins de 10 m) et à l’intérieur d’une seule pièce (les ondes à 60 GHz ne pouvant traverser les murs). Le débit de plusieurs Gbit/s est obtenu en utilisant de larges canaux de 2,16 GHz et les technologies multi-antennes de beamforming. réseaux mobiles et le cœur de réseau est différent. Le ré- seau 5G vise à offrir aux usagers de très hauts débits qui nécessiteront un réseau très dense de petites cellules. La connexion entre elles de ces petites cellules par un réseau traditionnelle par fibres optiques se heurte à des difficultés pratiques de mise en œuvre et n’offre pas la flexibilité né- 1 En téléphonie mobile, les réseaux de « backhaul » servent à rapatrier l’information depuis les stations de base vers le cœur de réseau. Les fibres optiques ou les faisceaux hertziens sont largement utilisés. Il n’ex- iste pas de traduction satisfaisante du terme « backhaul » en français. Les canadiens utilisent le vocable « réseau d’amenée » mais cette ap- pellation reste peu usitée. cessaire. Dans ces conditions le recours à des solutions par ondes millimétriques, dans la bande des 60 GHz ou au-des- sus est envisagé. L’arrivée de nouveaux composants Le développement au stade du prototype ou l’arrivée sur le marché de nouveaux composants destinés aux ondes mil- limétriques ont fait l’objet récemment de plusieurs annonces. Nous avons retenu deux d’entre elles. La première est l’annonce par le centre de recherches belge imec à Louvain et par l’université libre de Bruxelles (Vrije University) d’un chip développé en technologie CMOS 28 nm assurant l’émission et la réception des ondes à 60 GHz Ce chip de 7,9 mm2 a été validé IEEE 802.11ad sur une dis- tance de 1 m. Il comporte un faisceau de quatre antennes accordables afin de réaliser le beamforming et permet un débit de transmission de 4,62 Gbit/s. Il consomme 630 mW en émission et 431 mW en réception à 0,9 V. L’autre annonce vient du Japon et a trait au dévelop- pement par le Tokyo Institute of Technology et par les Fujitsu Laboratories d’un transmetteur capable de traiter Tableau 1 : Extrait du tableau de l’annexe 1 à la décision Arcep 2014/1263 du 6 novembre 2014. Figure 1 : Chip 60 GHz à quatre antennes développé par l’imec et l’Université libre de Bruxelles – Source : imec. ACTUALITÉS Bande de fréquences Catégorie de dispositifs Limite de puissance /d'intensité de champ / de densité de puissance Paramètres supplémentaires Autres restrictions d'utilisation 57-64 GHz Dispositifs à courte portée non spécifiques 100 mW PIRE, puissance émise max- imale de 10 dBm et densité spectrale maximale de 13 dBm/MHz PIRE. 57-66 GHz Dispositifs de transmission de données à large bande 40 dBm PIRE et une densité de PIRE de 13 dBm/MHz Doivent être utilisées des techniques d’accès au spectre et d’atténuation des interférences au moins aussi performantes que celles décrites dans les normes harmonisées adoptées en vertu de la directive 1999/5/CE. Les installations extérieures fixes sont exclues. REE N°4/2016 Z 25 des signaux dans des bandes de fréquence supérieures à 72 GHz et ayant démontré en laboratoire, sur une distance de 10 cm, un débit de 56 Gbit/s, ce qui constitue un re- cord mondial. Le chip, développé en technologie CMOS et le module qui l’incorpore (figure 2), comportent deux tech- nologies-clés : bande la connexion entre le circuit imprimé et l’antenne en forme de guide d’onde cylindrique. Au niveau du chip, le signal est décomposé en deux parties, chacune dans différentes bandes de fréquence : 72-82 GHz et 89-99 GHz. Cette approche permet de mo- duler le signal sur une ultra large bande de 20 GHz tout en gardant les mêmes performances que celles obtenues par les systèmes existants de modulation sur 10 GHz (figure 3). Fujitsu prévoit la mise en œuvre de ces solutions dans les systèmes de téléphonie cellulaire de 5e génération aux environs de 2020. Q Jean-Pierre Hauet Figure 2 : Chip et module développés par le Tokyo Institute of Technology et par les Fujitsu Laboratories – Source : Fujitsu.com. Figure 3 : Schéma de principe du fonctionnement de l’émetteur-récepteur en ultra large bande – Source : Fujitsu.com.  FORMATION PROFESSIONNELLE  CERTIFICATIONS IPC DU PERSONNEL  PRESTATIONS DE SERVICES : INSPECTION, MESURES, ANALYSES  DISTRIBUTEUR DE NORMES IPC NEEENE SSSSS ELLLLLL Authorized Distributor ® « L’ÉTAT DE L’ART ET LA MAÎTRISE DES PROCÉDÉS DE LA FABRICATION DES CARTES ÉLECTRONIQUES ( DE LA CONCEPTION JUSQU’AU TEST ) » IFTEC - 33 rue Ravon - 92340 Bourg-la-Reine - France - Tél : +33 (0)1 45 47 02 00 - E-mail : iftec@iftec.fr ACTUALITÉS

Creative Commons Aucune (Tous droits réservés) Aucune (Tous droits réservés)
contenu protégé  Document accessible sous conditions - vous devez vous connecter ou vous enregistrer pour accéder à ou acquérir ce document.
Prix : 10,00 € TVA 20,0% comprise (8,33 € hors TVA) - Accès libre pour les ayants-droit

se connecter ou s'enregistrer pour commander.

Creative Commons Aucune (Tous droits réservés) Aucune (Tous droits réservés)

REE N°4/2016 Z 1 C ’est à la demande de la Revue de l’Électricité et de Électronique, dont je veux saluer ici l’heureuse initiative et l’en remercier, qu’a été élaborée cette série d’articles sur la fusion et sur le projet ITER. Les informations rassemblées dans ce nu- méro ont l’ambition de vous faire partager notre conviction commune de l’extraordinaire potentiel que représente cette technologie de fusion dans la perspective, avant la fin de ce siècle, d’un appro- visionnement en énergie de nos concitoyens du monde entier qui sera sûr, massif, continument programmable, sans impact sur le climat et l’envi- ronnement, et d’une durée quasi-illimitée dans le temps, à l’échelle des civilisations humaines, au vu des ressources en combustible de fusion dis- ponible sur Terre à l’image de ce qui existe depuis des millions d’années, dans le soleil et les étoiles. Ce dossier offrira à ses lecteurs la possibilité de découvrir les remarquables défis scientifiques et techniques associés à la conception de cette ins- tallation de recherche en parcourant la descrip- tion de ses principaux composants. C’est à la fois le potentiel unique que représente cette technologie de fusion, complémentaire des énergies renouvelables, et la nécessaire taille et complexité de cette indispensable installation en vue de l’optimisation et de la démonstration de faisabilité industrielle de cette technologie, qui expliquent l’engagement actuel conjoint, pour 40 ans au moins, de 35 pays représentant plus de la moitié de la population mondiale et assu- rant plus de 85% du produit mondial brut annuel. Ainsi la Chine, la Corée du Sud, l’Inde, le Japon, la Fédération de Russie, l’Union Européenne et les Etats Unis sont convenus de collaborer dans le cadre de l’accord International ITER signé le 21 novembre 2006 à Paris, il y a cette année 10 ans. Cette revue est une certaine manière de célébrer cet anniversaire et de donner rendez- vous dans moins de 10 ans maintenant pour le premier plasma désormais programmé en dé- cembre 2025, jalon majeur sur la route qui de- vrait mener en 2035 aux premières expériences de fusion à pleine puissance produisant 500 MW thermique avec un facteur de rendement de la machine d’une valeur objectif égale ou supé- rieure à 10 entre l’énergie injectée et récupérée. C’est dans l’histoire de cette extraordinaire aven- ture humaine qui porte le nom de ITER, « la voie », que nous vous invitons à entrer pour vous permettre d’en comprendre les ressorts, d’en apprécier les progrès de la construction sur le site de Saint-Paul-lez-Durance, de juger person- nellement de la pertinence de l’extraordinaire investissement de recherche qu’elle représente, et pourquoi pas de vous donner l’envie d’y parti- ciper personnellement… Je voudrais pour conclure rendre un hommage appuyé à tous ceux qui, dans le monde entier ont contribué ou contribuent actuellement, sans ménager leurs efforts, pour que ce « rêve » d’une source d’énergie propre et quasi inépuisable de- vienne bientôt réalité. Qu’ils en soient chaleureu- sement remerciés. Bernard Bigot Directeur général de ITER Organization ITER: un projet extraordinaire, une aventure humaine unique EDITORIAL BERNARD BIGOT

Creative Commons Aucune (Tous droits réservés) Aucune (Tous droits réservés)
contenu protégé  Document accessible sous conditions - vous devez vous connecter ou vous enregistrer pour accéder à ou acquérir ce document.
Prix : 10,00 € TVA 20,0% comprise (8,33 € hors TVA) - Accès libre pour les ayants-droit

se connecter ou s'enregistrer pour commander.

REE N°4/2016 117 RETOUR SUR ❱❱❱❱❱❱❱❱❱ Thierry Letertre Professeur adjoint à Centrale Supelec Introduction Le terme de Wi-Fi est utilisé pour décrire non pas une norme de système de communication, mais un ensemble de versions pouvant exister simultanément sur le marché, la version la plus récente restant, dans certaines limites, compatible avec la version de base. Cet article n’a pas la prétention de décrire de façon complète et exhaustive les différentes versions suc- cessives de la norme, mais d’en expliquer le fonction- nement et de présenter les principales évolutions et avancées techniques introduites depuis la genèse de la version de base jusqu’aux toutes dernières versions actuellement utilisées ou en cours de normalisation (fu- tures évolutions). Les explications seront abordées de la façon la plus simple possible en respectant, autant que faire se peut, l’ordre chronologique de leur apparition. Les origines du Wi-Fi Wi-Fi, Wireless Fidelity ou IEEE802.11 [1], est une norme créée par le comité 802 de l’IEEE1 qui gère les spécifications des systèmes de communication à 1 Institute of Electrical and Electronic Engineers courte et moyenne portée (LAN2 , MAN3 …). L’idée de départ date du milieu des années 1980 lorsque l’orga- nisme de régulation des fréquences américain la FCC4 , équivalente américaine de l’ARCEP en France, a libéré l’accès aux bandes de fréquences dites libres ou aux Etats-Unis, ISM5 (figure 1) pour des systèmes de com- munication sans fil et sans licence. La première version de la norme a été officiellement publiée en 1997 ; à la suite de l’intérêt qu’elle a soulevé dans le déploiement d’Internet et compte-tenu de la diversité des fabricants industriels, le consortium “Wi-Fi Alliance” a été créé en 1999 pour vérifier la conformité et l’interopérabilité des matériels sortant sur le marché. La norme évolue au cours du temps, il y a eu environ 30 modifications (amendments en anglais) depuis l’origine jusqu’à aujourd’hui, elles sont estampillées par une lettre et maintenant deux lettres (comme pour les colonnes d’un tableur) : on les appellera versions dans la suite de l’article. Chaque version apporte une correction [2] ou une évolution de la norme de référence (legacy en anglais) qu’on appellera « édition » dans la suite, par exemple pour intégrer des contraintes liées à un pays 2 Local Area Network 3 Metropolitan Area Network 4 US Federal Communication Commission 5 Industrial Scientific et Medical Les Wi-Fi The term Wi-Fi is not used to describe a standard, but a set of different versions or amendments which can exist simultaneously on the market, the latest version being compatible to a certain extent with the legacy version. This paper does not aim to describe comprehensively and exhaustively the various successive versions of the standard, but how they work and what are their fields of application and to present the main modifications and advanced techniques introduced since the genesis of the basic version up to the latest versions currently used or being standardized. ABSTRACT Figure 1 : Les bandes libres intéressant le Wi-Fi en France en 2016 – Nota : la bande des 868 MHz a fait l’objet d’une consultation en vue de son extension en juillet 2016. 118 REE N°4/2016 ❱❱❱❱❱❱❱❱❱❱❱ RETOUR SUR particulier, pour améliorer la sécurité des transmissions, pour réduire la consommation électrique ou intégrer une avancée technologique. Le nom d’une édition de la norme ne comporte pas de lettre, mais une date : 802.11-1997 pour la première édition, puis 802.11-2007 pour celle intégrant les versions de “a” à “j” et 802.11-2012 intégrant les versions de “k” à “z”. En plus de l’évolution de la norme, il existe aussi des mo- difications apportées par les constructeurs pour augmenter le débit ou la portée par une amélioration logicielle ou par ajout d’antennes supplémentaires. Ces matériels sont com- patibles avec tous les autres matériels certifiés par “Wi-Fi alliance” (portant le logo : “Wi-Fi certified”), à l’exception des fonctionnalités supplémentaires qui restent propriétaires. Les bandes de fréquences dites « libres » sont soumises à certaines conditions d’utilisation qui permettent le partage de la ressource avec d’autres systèmes de communication (Bluetooth, ZigBee,...), mais aussi avec des systèmes domes- tiques ou industriels (four micro-onde, soudeuse…) ou des systèmes médicaux (scanner, bistouris, appareils de chauf- fage...) ayant chacun des contraintes de fonctionnement très différentes (problèmes de compatibilité) par exemple : pas d’usage exclusif ou limitation des brouillages. Les objectifs de la version de base étaient de modifier/ adapter la norme Ethernet 802.3 existant pour des liaisons filaires (sur câble électrique) afin d’utiliser les ondes élec- tromagnétiques, infrarouges ou radiofréquences comme support physique et donner ainsi plus de mobilité aux équi- pements [3]. Les modifications apportées devaient être les plus réduites possibles pour garder la compatibilité avec les couches hautes de la version filaire et assurer les mêmes performances que cette dernière sans entraîner de surcoût trop important pour les matériels : ceci a été obtenu, en ne modifiant que les deux couches les plus basses du protocole. Rappels sur les techniques utilisées L’utilisation des bandes dites « libres » impose des con- traintes importantes en termes de partage des fréquences et de compatibilité ou brouillages. Trois principales techniques sont mises en œuvre : qui sert à assurer le transport de l’infor- mation autour de la fréquence porteuse en respectant la qualité de service (QoS: Quality of Service) en termes de débit, d’intégrité des données et de portée. Des deux types de modulations, analogiques et numériques, seules les der- nières sont utilisées. Les modulations numériques d’ampli- tude (ASK6 ), de fréquence (FSK7 ), de phase (PSK8 ) et en quadrature (QAM9 ) sont appliquées à l’information échantil- lonnée et quantifiée. Wi-Fi fait appel aux modulations xPSK pour les trames de contrôle ou lorsque la transmission n’est pas de bonne qualité et aux modulations xxQAM pour les débits importants (cf. description des couches physiques des différentes versions). qui permet à plusieurs utilisateurs de partager de façon équitable la bande de fréquences sans interférence entre eux. Les plus connues sont : - le TDMA10 qui répartit le temps d’usage d’une même res- source entre plusieurs utilisateurs ; - le FDMA11 qui alloue des ressources en fréquences diffé- rentes à chaque utilisateur ; - le CDMA12 qui donne un code différent à chaque utilisateur ; - le CSMA13 utilisé, dans la version CD (Collision Detection), par la norme Ethernet filaire qui impose à chaque utilisateur de s’assurer qu’aucun signal n’est présent avant d’émettre. sert à se protéger des brouillages à « bande étroite » (les plus courants dans les bandes ISM) en utilisant une bande de fréquences apparente plus large que 6 Amplitude shift Keying 7 Frequency shift Keying 8 Phase shift Keying 9 Quadrature Amplitude Modulation 10 Time Division Multiple Access 11 Frequency Division Multiple Access 12 Code Division Multiple Access 13 Carrier Sense Multiple Access Figure 2 : L’étalement de spectre par séquence directe et code de Barker. REE N°4/2016 119 Les Wi-Fi celle qui serait utilisée par la modulation de base. Les trois techniques les plus connues sont : - l’étalement de spectre à séquence directe ou DSSS14 qui multiplie le signal numérique par un code plus rapide ayant des propriétés statistiques particulières ; - l’étalement de spectre par saut de fréquence ou FHSS15 qui change de fréquence porteuse ou de canal très rapi- dement (figure 2) ; - l’étalement par multiplexage orthogonal de fréquences (OFDM16 ) qui permet de répartir le signal entre un nombre élevé de sous-porteuses rapprochées chacune l’une de l’autre grâce à l’orthogonalité des formes d’onde (voir plus loin). Les différentes évolutions du Wi-Fi L’édition de base: 802.11-1997 Les principales caractéristiques visées par la version de base hertzienne sont comparables à la version filaire de l’In- ternet de l’époque malgré les modifications imposées par le changement de support soit : 14 Direct Sequence Spread Spectrum 15 Frequency Hopping Spread Spectrum 16 Orthogonal Frequency Division Multiplexing à multipoint ; Cette édition prévoit deux types d’utilisateurs : la station (STA17 ) qui intègre les fonctions de base de la norme et le point d’accès (AP18 ) qui dispose en plus des capacités de gestion de deux modes de fonctionnement [4] possibles (figure 3) : le Wi-Fi direct) permet à deux stations de communiquer directement une fois les paramètres réseau partagés (choix manuel du canal, débit...). C’est aussi le mode le plus per- formant en termes de débit. Il permet à plusieurs stations de correspondre point à point entre elles, sans infrastruc- ture particulière mais sans routage ; plusieurs STAs. C’est l’AP qui choisit les paramètres et gère le réseau, toutes les communications passent par lui et sont répétées. Les stations s’associent en écoutant les informations diffusées en clair par le point d’accès (trame “Beacon”) puis font une demande de connexion, les para- mètres réseaux étant réglés automatiquement. C’est au- jourd’hui le mode le plus utilisé. La norme prévoit aussi deux modes de gestion liés à ces modes de fonctionnement : 17 Station 18 Access Point Figure 3 : Les différents modes de fonctionnement. 120 REE N°4/2016 ❱❱❱❱❱❱❱❱❱❱❱ RETOUR SUR 19 où toutes les stations sont équivalentes et en compétition pour l’accès à la parole. Il est applicable aux modes de fonctionnement « ad hoc » ou « infrastruc- ture » ; 20 qui implique un point d’accès gérant les demandes de parole des stations en fonction de la qualité de service demandée. La priorité est généralement donnée à des demandes de services en temps réel par rapport au streaming ou aux transferts de données. Ce mode n’occupe jamais 100 % du temps, il y a toujours une partie réservée au DCF pour que de nouvelles stations puissent s’associer. Il ne fonctionne pas avec le mode « ad hoc ». La figure 4 montre les différentes modifications apportées à la pile de protocole Internet filaire pour utiliser le support hertzien. Seules les deux couches basses du protocole de communication OSI21 ont été modifiées par l’IEEE : - lisation des fréquences pour le transport des données (modulation, codage et étalement de spectre) et définit donc l’aspect fréquentiel/spectral. Elle est composée de deux sous-couches : PLCP22 qui est en charge d’écouter le support grâce au PCS23 et de délivrer le CCA24 à la couche liaison de données pour l’encodage et l’envoi des données ; ressource (technique d’accès) et définit donc la forme temporelle du signal. Elle est aussi composée de deux sous-couches : LLC (Logical Link Control) identique à celle de 802.2 qui gère les associations, la synchroni- sation et la sécurité (entre autres choses) et MAC25 très 19 Distributed Coordination Function 20 Point Coordination Function 21 System Interconnection 22 Physical Layer Convergence Protocol 23 Physical Carrier Sense 24 Clear Channel Assessment 25 Medium access Control proche du 802.3 de l’Ethernet filaire qui s’occupe de l’accès au canal. La partie gauche de la figure 4 montre la position du pro- tocole 802.11, par rapport au modèle de référence OSI. Dans cette première version de la norme, trois types de support physique avaient été définis (zoom partie de droite), l’infra- rouge, et les radiofréquences à 2,4 GHz avec étalement de spectre FHSS et DSSS. Mais rapidement les deux premiers modes de fonctionnement ont été abandonnés pour ne laisser subsister que le mode RF DSSS proche de la tech- nique utilisée par les systèmes de télécommunication mobile CDMA : ce sera le seul mode de fonctionnement que nous décrirons dans la suite. Description de la couche physique retenue La bande de fréquences retenue dans la version initiale du Wi-Fi est la bande ISM à 2,4 GHz soit de 2,402 à 2,4835 GHz où 14 canaux de 5 MHz ont été définis. Deux types de mo- dulation de phase sont utilisés: le B-PSK26 utilisant deux états de phase et le Q-PSK27 utilisant quatre états de phase per- mettent d’atteindre des débits maximaux théoriques de 1 et 2 Mbit/s pour une portée maximale de l’ordre de la centaine de mètres. L’étalement de spectre de type DSSS utilise un code d’éta- lement unique aléatoire (code PN) constitué d’une séquence binaire de Barker de longueur 11 (le temps d’un bit de don- nées est égal à un temps équivalent à 11 chips du code) utilisant une bande de signal utile d’environ 22 MHz (au lieu de 1 MHz pour la modulation seule). Il faut noter que la bande de fréquences occupée par un équipement Wi-Fi ne dépend pas du débit qui est utilisé et est d’environ 22 MHz (taille du masque d’émission de la norme) soit plus de quatre fois la largeur d’un canal. On ne peut donc utiliser simultanément tous les canaux si l’on veut éviter les interférences. Aux États-Unis, où les canaux 11 à 26 Binary-Phase Shift Keying 27 Quaternary-Phase Shift Keying Figure 4 : Pile de protocole 802.11. REE N°4/2016 121 Les Wi-Fi 14 ne sont pas ouverts, seuls les canaux 1, 6 et 11 peuvent être utilisés simultanément. En Europe, où seul le canal 14 n’est pas ouvert, il est possible, avec les dispositifs actuels, d’utiliser quatre canaux : 1, 5, 9, 13 (figure 5). La puissance d’émission est règlementée dans chaque pays ou région en étant limitée, selon les conditions d’uti- lisation à 10 ou 100 mW28 , soit 10 ou 20 dBm de PIRE29 . La PIRE est égale au produit de la valeur de la puissance de l’amplificateur de sortie par le gain de l’antenne d’émis- sion. Elle est souvent de l’ordre de 50 mW pour la plupart des systèmes. Les systèmes non professionnels n’intègrent pas de régulation de puissance et émettent à puissance constante quelle que soit la distance entre l’émetteur et le récepteur. 28 Pour la France la puissance maximale est définie par la décision de l’ARCEP 2014-1263 fixant les conditions d’utilisation des fréquences radioélectriques par des dispositifs à courte portée. 29 Puissance Isotrope Rayonnée Équivalente Description de la couche MAC L’envoi des informations en Wi-Fi utilise un système fondé sur des trames de données ou de contrôle/gestion séparées par des temps ou espaces dits “inter-trames” : les IFS30 qui lui donnent un aspect temporel en rafales ou “bursté” (figure 6). L’unité de temps principale du système Wi-Fi est le time slot (TS) qui est égal à 20 s ; il intervient dans les calculs des différents IFS. Il existe trois types d’IFS qui contrôlent l’accès au canal : s séparant deux trames appartenant à une même transmission (données et accusé de réception ACK) ; s (1 SIFS + 1 TS), il est utilisé par un point d’accès pour accéder avec priorité au média radio et est inférieur au DIFS ; au média et est égal à 50 s (1 SIFS + 2 TS). 30 Inter Frame Spacing Figure 5 : Les 14 canaux Wi-Fi de la bande 2,4 GHz avec indication des quatre canaux utilisables simultanément en Europe. Figure 6 : Aspect temporel d’émission de données avec Wi-Fi. 122 REE N°4/2016 ❱❱❱❱❱❱❱❱❱❱❱ RETOUR SUR Les valeurs de ces IFS sont constantes, mais varient selon les versions : plus les IFS sont courts, plus le système est per- formant. On peut aussi faire varier la valeur de DIFS (tout en la gardant supérieure à PIFS), par exemple en fonction du type d’utilisation, et donner ainsi des priorités différentes (figure 7). Le Wi-Fi utilise quatre techniques élémentaires (CSMA- CA, RTS/CTS, ACK et NAV) pour accéder à la ressource : Le CSMA-CA31 est proche du CSMA-CD32 utilisé par le sys- tème filaire. Cette technique d’accès est de la famille des LBT33 : les nœuds du système écoutent leur environnement radio et estiment s’ils peuvent prendre la parole ou doivent attendre la fin d’une transmission. Comme il n’est pas possible de détecter les collisions car l’émission masque une éventuelle réception et que les ondes EM ne sont pas confinées dans un câble, Wi-Fi va chercher à les éviter. Le principe d’accès du CSMA-CA est un processus aléatoire temporel : dans un premier temps la station écoute la bande de fréquences ou le canal radio et compare le niveau mesuré avec une consigne. Si le niveau est supérieur, elle estime que le canal est utilisé par un autre équipement (Wi- Fi ou non), dans le cas contraire, elle considère que le canal est libre et va lancer la procédure d’accès (figure 7). 31 Carrier Sense Multiple Access-Carrier Avoidance 32 Carrier Detection 33 Listen Before Talk Dans le cas où une station a des données à transmettre et a détecté que le canal est libre, après avoir attendu un temps DIFS, elle lance un algorithme de back-off en tirant une valeur aléatoire comprise entre 1 et une valeur CW34 qui multipliée par le temps TS représente le temps que la station devra attendre avant de pouvoir accéder à la ressource. Pen- dant ce temps, elle poursuit l’écoute du canal : s’il apparaît qu’une autre station est passée en émission, elle interrompt le décompte du temps de back-off. La valeur résiduelle de ce temps sera utilisée pour tenter de transmettre les données que l’indisponibilité du canal n’a pas permis d’émettre : ainsi cette station se trouve favorisée pour l’accès à la ressource radio. La valeur de CW est très importante (ou stratégique), car plus elle est grande, moins il y a de risques de collision entre les émissions des stations (moins de pertes de trames), mais plus les stations attendent longtemps en moyenne avant d’émettre, ce qui entraîne une réduction importante du débit utilisable. La norme prévoit donc une variation de CW en fonction de la charge du réseau Wi-Fi : le back-off est dit exponentiel (BEB35 ) car il est réduit d’un facteur 2 chaque fois que la station ne perçoit pas de collision et multiplié par 34 Contention Window 35 Binary Exponential Back-Off Figure 7 : Les temps inter-trames : les IFS. Figure 8 : Algorithme du back-off. REE N°4/2016 123 Les Wi-Fi 2 (tout en restant toujours inférieur ou égal à une limite CW max) si la station perd trop souvent des trames. La performance d’un matériel Wi-Fi dépend très forte- ment de la qualité d’implémentation de cet algorithme, elle n’est pas précisée dans la norme et varie d’un constructeur à l’autre. Un et de retransmission permet de s’assurer de la bonne réception des données par la station destinataire. Pour chaque trame ou groupe de trames correctement reçus, le récepteur valide la bonne réception par une trame prioritaire spécifique d’accusé de réception, ACK. Lorsque l’ACK d’une trame ou d’un groupe de trames n’est pas correctement reçu par la station émettrice, celle-ci retransmet la trame ou le groupe de trames en cause. Lorsque le Wi-Fi est utilisé en mode « Infrastructure » il est possible de faire apparaître des situations où certaines stations ne sont pas visibles de toutes les autres stations. On appelle nœuds cachés, des stations (ou points d’accès) qui ne sont vues que par une partie des autres stations, la figure 9 en montre un exemple typique. Quatre équipements sont présents dans une zone (A, B, C, D), A veut dialoguer avec B et C avec D. Les cercles, vert autour de A et rouge autour de C, représentent leur zone d’influence et de détection. La station A détecte B, mais pas C ni D tandis que la station C détecte B et D, mais pas A. 36 indique la durée probable de la transmission et le RTS/CTS37 sert à évi- ter les collisions dans les cas des nœuds cachés (figure 10). Si la procédure RTS/CTS n’existait pas, il pourrait y avoir col- lision au niveau de la station B car A et C pourraient émettre en même temps. Mais avec ce mécanisme, A avant de trans- mettre indique par un RTS sa volonté de dialoguer avec B et la durée de cette transmission, il sera reçu par B seul (zone verte), qui répond par un CTS qui valide la demande de A, lequel sera reçu dans sa zone d’influence (en bleu) et donc par A et C. La station C sera donc avertie que A va émettre et attendra la fin du NAV pour relancer la procédure d’accès. La version 802.11b Cette version date de la fin de 1999 et apporte essentielle- ment une augmentation du débit de transmission pour rester compatible avec les évolutions des matériels et suivre l’amé- lioration de l’Ethernet sur câble et des normes concurrentes. Seule la couche physique est modifiée pour faire évoluer les débits maximaux théoriques de 1 à 5,5 Mbit/s et de 2 à 11 Mbit/s, tout en restant compatible avec la norme de 1997. La bande de fréquences et les canaux utilisés sont inchangés. L’augmentation du débit ne se fait pas par un changement de modulation, mais par l’utilisation d’un “sur code” le CCK38 qui va réarranger et optimiser le résultat de la modulation BPSK ou QPSK précédente, d’où ce gain net de 5,5. Cette amélio- ration n’est efficace qu’à courte portée, comme chaque fois que l’on optimise la modulation sans toucher à la puissance (figure 11 a). Une autre limite vient du fait que l’amélioration de la vitesse de transmission des bits dans une trame voit 36 Network Allocation Vector 37 Request To Send / Clear To Send 38 Complementary Code Keying Figure 9 : Problème des nœuds cachés. Figure 10 : La procédure RTS/CTS +NAV. 124 REE N°4/2016 ❱❱❱❱❱❱❱❱❱❱❱ RETOUR SUR son effet limité par l’absence d’une diminution proportionnée des durées des IFS (figure 11 b). La version 802.11g Cette version normalisée en 2003 apporte une amélio- ration importante du débit maximal théorique qui passe de 11 Mbit/s à 54 Mbit/s avec une modification importante des couches physique et MAC. En 1999, une version 802.11a a été normalisée et plutôt utilisée par le monde professionnel que par le grand public et plutôt aux États-Unis qu’en Europe. La norme « a » n’utilise pas la bande ISM à 2,4 GHz, mais la bande dite à 5 GHz (figure 12), qui est une bande libre, à l’époque sous-utilisée et donc moins brouillée ou polluée. Dans cette bande, 12 canaux de 20 MHz ont été définis sans problème de recouvrement comme c’est le cas avec la bande à 2,4 GHz. La technique d’étalement choisie est l’OFDM39 qui utilise un nombre éle- vé de sous-porteuses (SP) modulées indépendamment les unes des autres. Le principe en est apparu dans le milieu des années 1960, mais sa mise en œuvre nécessitait des proces- seurs de signaux (DSP) très rapides qui ne sont apparus que récemment (figure 13). L’OFDM permet de réduire la vitesse de modulation sur chaque sous-porteuse, mais augmente le débit final du fait de la mise en parallèle des données. Cette version appelée aussi Wi-Fi5 n’est pas compatible avec les autres versions Wi-Fi, mais a apporté aux profes- sionnels plus de QoS en termes de débit et de sécurité. Ses inconvénients sont sa portée moindre que celle de 802.11 b, liée à la fréquence d’utilisation plus haute, et un coût des équipements plus important. 39 Orthogonal Frequency Division Multiplexing (a) (b) Figure 11 : Portée et rendement du protocole suivant la modulation utilisée. Figure 12 : Définition des canaux dans la bande 5 GHz. REE N°4/2016 125 Les Wi-Fi La version “g” utilise les techniques de la version “a” en changeant la bande de fréquences qui passe de 5 à 2,4 GHz de façon à assurer la compatibilité ascendante avec la version « b ». Pour ce faire, la couche physique comprend donc deux parties : la couche physique DSSS compatible avec la version « b » et la couche physique OFDM dérivée de celle de la version « a ». Description de la couche physique La couche DSSS est identique à celle de la version « b ». Pour la partie OFDM, la bande utile utilisée est équivalente à celle de la version DSSS soit 20 MHz. 52 sous-porteuses sont utilisées sur 64 possibles (six porteuses, de chaque côté, sont mises à zéro pour introduire un intervalle de garde) : 48 pour les données et quatre “dites pilotes” pour l’estimation du canal de transmission. Elles sont espacées de 312,5 kHz. Une modulation plus performante, utilisant un nombre d’états plus important, est utilisée : la QAM 16 apportant un gain de modulation de 2 par rapport à la QPSK. Description de la couche MAC Pour fonctionner de façon optimale, trois modes de fonc- tionnement de la couche MAC ont été implantés : version “b”. Seule la couche physique DSSS est utilisée pour les trames de contrôle, de gestion et de données. version “a”, avec la même technique d’accès et un algo- rithme de back-off identique, mais avec des IFS plus courts et un time slot de 9 s (au lieu de 20 s pour les modes “b only” ou “mixte”). Les trames aussi sont modifiées, elles utilisent un en-tête plus court. La couche physique OFDM est utilisée pour les trames de contrôle, de gestion et de données. - tanément avec des stations version « b » et version « g ». Cette compatibilité descendante réduit la capacité de ce mode par rapport à la version “a”. Les deux couches phy- siques peuvent être utilisées. Généralement les trames de contrôle et de gestion utilisent le DSSS. La couche physique OFDM est utilisée pour les trames de contrôle, de gestion ainsi que les données si les conditions de propagation le permettent et que la distance est courte. En pratique le mode « g » permet d’atteindre des débits instantanés de l’ordre de la cinquantaine de Mbit/s (54 Mbit/s soit environ 20 Mbit/s utiles pour un utilisateur) pour une por- tée de quelques dizaines de mètres en fonction de la configu- ration du canal de transmission. La présence d’une station « b » dans un réseau « g » ralentit l’ensemble du réseau. Il existe aussi un mode “super a/g” qui est une modifica- tion de la norme par les constructeurs qui réduit la valeur de DIFS à la valeur des IFS et permet de doubler, en théorie, le débit maximal qui passe de 54 à 108 Mbit/s, mais il dégrade fortement le fonctionnement si le canal choisi est très occupé. La version 802.11n Cette version a été normalisée en 2009 et repose sur une nouvelle édition de la norme 802.11-2007 où la couche MAC n’est plus compatible avec les anciennes versions de DSSS. Elle intègre cinq améliorations de la couche physique OFDM permettant de faire passer la valeur du débit maximal théo- rique de 54 à 600 Mbit/s. La principale évolution est l’utilisation de la technique MIMO (Multiple Input Multiple Output) [5] qui fait appel à plusieurs antennes à l’émission comme à la réception en as- sociant celles-ci en flux spatiaux parallèles (figure 14). Ainsi, un système 2x3 : 2 dispose de deux antennes à l’émission, trois à la réception et peut supporter, en diversité spatiale, deux flux différents fonctionnant en parallèle. Pour faire efficacement du MIMO, les antennes d’un équi- pement doivent être suffisamment éloignées (une demi-lon- gueur d’onde au moins) pour être découplées. Sur la station, Figure 13 : Schéma de principe de l’OFDM. 126 REE N°4/2016 ❱❱❱❱❱❱❱❱❱❱❱ RETOUR SUR le nombre d’antennes est limité, le plus souvent, par la taille du récepteur. Cela explique l’obligation faite aux équipements de fonctionner a minima en mode MIMO 2x2 pour être cer- tifiés « n » par la Wi-Fi Alliance. Cependant le Wi-Fi 802.11n a été standardisé en 4x4 : 4, c’est-à-dire qu’il peut théorique- ment supporter quatre flux. Dans la pratique, les systèmes 802.11n disponibles sur le marché supportent généralement trois flux avec un débit maximal de 450 Mbit/s. Le débit de 600 Mbit/s annoncé n’est valable que si l’on utilise MIMO 4x4, sinon on ne dispose que de 150 Mbit/s par flux. Description de la couche physique Cette nouvelle couche est capable d’utiliser les bandes de fréquences 2,4 et/ou 5 GHz. La bande à 2,4 GHz est utilisée pour des échanges avec des versions plus anciennes ou à grande distance, tandis que la bande 5 GHz est utilisée pour les modes très haut débit et à courte distance. Une modulation encore plus performante peut être uti- lisée: la QAM 64 qui comporte 64 états différents. L’étale- ment de spectre est toujours assuré par l’OFDM, mais avec la possibilité d’avoir quatre sous-porteuses de plus, toujours espacées de 312,5 kHz. La largeur des canaux est variable : 20, 2x20 ou 40 MHz. Pour assurer la compatibilité avec l’édition 802.11-2007, la couche physique comporte plusieurs modes de fonction- nement : « a » et « g » (compatible avec les versions « a » et « g » pures) avec des canaux de 20 MHz et 52 sous-porteuses (48 data + 4 pilotes ; FFT 64) sans MIMO ; jusqu’à quatre flux en parallèle (4x4) et des canaux de 20 MHz avec 56 sous-porteuses, (52 data + 4 pilotes, FFT 64) ou de 40 MHz de large comportant 114 sous- porteuses (108 pour les données + 6 pour des pilotes ; FFT 128) ; adjacents de 20 MHz au format de la version “a” ; transmettre un paquet “Legacy” soit dans les 20 MHz de spectre supérieurs ou inférieurs d’un canal de 40 MHz (figure 15). Figure 14 : Principes de fonctionnement du MIMO. Figure 15 : Débit versus modulation et codage pour la version n en fonction de l’intervalle de garde temporel (GI: Guard interval). REE N°4/2016 127 Les Wi-Fi Les couches MAC et LLC ont été modifiées pour augmen- ter l’efficacité du système : - ferts temps réels, - mation électrique. La version 802.11ac Cette nouvelle version est sortie en fin d’année 2013 et évolue encore aujourd’hui. Elle prolonge l’édition 802.11- 2012 de la norme qui a intégré toutes les modifications et corrections apportées jusqu’à l’amendement “z”. L’évolution des techniques MIMO, l’augmentation de la vitesse des DSP et l’augmentation de la taille des mémoires ont permis d’optimiser encore davantage les systèmes Wi-Fi. Le 802.11ac offre une meilleure QoS et un débit théorique maximal qui pourrait passer de 600 Mbit/s à plus de 1 Gbit/s. Pour obtenir ces valeurs, la couche physique a été forte- ment “dopée” par rapport à la version “n” : et aller jusqu’à 160 MHz au lieu de 40 MHz en “n” ; un utilisateur. Mais l’emploi d’un nombre d’antennes plus important permet au point d’accès de faire du “beam for- ming”, c’est-à-dire de pouvoir modifier son diagramme d’émission et notamment de créer plusieurs lobes dans des directions différentes pour cibler plusieurs utilisateurs en même temps ; 40 ) alors que dans la version “n” il n’était que mono-utilisateur (SU-MIMO41 ). La modulation évolue vers l'emploi de la QAM 256. Le ta- bleau 1 indique les performances en débit théoriques atten- dues de 802.11ac dans un certain nombre de configurations d’usage avec des équipements au nombre d’antennes varié (d’après des sources IEEE) et en utilisant ce type de modula- tion. Parmi ces résultats on peut noter que : et une à la réception) sur un canal de 80 MHz, le débit attendu est de 433 Mbit/s ; l’émission et deux à la réception) sur un canal de 160 MHz, le débit attendu est de 1 690 Mbit/s par utilisateur pour un débit agrégé de 6,77 Gbit/s. Aujourd’hui, toutes les avancées prévues par cette version ne sont pas implémentées dans les matériels “ac” dispo- nibles dans le commerce et nous ne disposons pas d’assez de recul pour savoir ce qui est vraiment mis en œuvre par les industriels. Malgré tout, pour certains matériels disponibles sur le marché, le nombre de flux maximal par utilisateur serait de 3 et sur de courtes distances avec l’utilisation de la QAM 256 dans une bande de 80MHz, le débit pourrait atteindre 40 Multi User-MIMO 41 Single User-MIMO Configurations types AP = Access point - STA = Station Clients typiques Débit de chaque liaison physique Capacité agrégée AP Une antenne, une STA Une antenne, 80 MHz Handheld 433 Mbit/s 433 Mbit/s AP Deux antennes, deux STA Une antenne 80 MHz Tablet, laptop 867 Mbit/s 867 Mbit/s AP Une antenne, une STA Une antenne, 160 MHz Handheld 867 Mbit/s 867 Mbit/s AP Trois antennes, trois STA Une antenne, 80 MHz Laptop, PC 1.27 Gbit/s 1,27 Gbit/s AP Deux antennes, deux STA Une antenne, 160 MHz Tablet, laptop 1.69 Gbit/s 1,69 Gbit/s AP Quatre antennes, quatre STAs Une antenne, 160 MHz (MU-MIMO) Handheld 867 Mbit/s pour chaque STA 3,39 Gbit/s AP Huit-antennes, 160 MHz (MU-MIMO) Digital TV, Set-top Box, Tablet, Laptop, PC, Handheld 6,77 Gbit/s AP Huit antennes, quatre STAs Deux antennes, 160 MHz (MU-MIMO) Digital TV, tablet, laptop, PC 1.69 Gbit/s pour chaque STA 6,77 Gbit/s Tableau 1 : Débits maximaux théoriques en fonction de la configuration choisie (tous les débits supposent une modulation en 256-QAM) – Source IEEE. 128 REE N°4/2016 ❱❱❱❱❱❱❱❱❱❱❱ RETOUR SUR 1,2 ou 1,3 Gbit/s. Le reste des fonctionnalités possibles sera implanté progressivement dans les prochaines années lors des futures évolutions de cette version. La version 802.11ad Une première version de 802.11ad a été publiée en 2012 sous la dénomination de WiGig [6]. Celle-ci apporte des mo- difications aux couches physique et MAC pour pouvoir utiliser la bande libre à 60GHz (57 à 66 GHz) en complément des bandes à 2,4 et 5 GHz42 . Le transfert de données devrait se faire à très haut débit (> 6 Gbit/s) sur un canal de 2,16 GHz. La portée maximale serait la dizaine de mètres et le “beam forming” permettrait d’augmenter la portée du 60 GHz, qui se propage moins bien que les fréquences basses. Le beam forming à 60 GHz peut être facilité en utilisant les fréquences basses pour coordonner les stations « ad » ou faire plus faci- lement du MU-MIMO : les stations seront localisées par le calcul des matrices de passage MIMO en 2,4 GHz (figure 16). A ce jour, il n’y a pas encore de matériels 802.11ad dispo- nibles en France. La version 802.11af La première version de la norme a été publiée en 2014 et est prévue pour être utilisée aux États-Unis (pour l’ins- tant). C’est la première version utilisant une technologie de radio cognitive [7] en utilisateur secondaire dans des bandes dédiées normalement aux systèmes de télédiffusion VHF et UHF (dit primaires), soit entre 54 et 790 MHz. Elle utilise dans ces bandes des espaces dits “blancs” (TV White Space), 42 Voir la rubrique « Actualités » dans ce même numéro. c’est-à-dire où la ressource est localement inutilisée du fait que la réception ne fonctionne pas (trou de couverture) ou correspond à des canaux non utilisés localement. Ce type de systèmes doit pouvoir fonctionner sans jamais interférer avec les systèmes primaires, ils doivent donc intégrer des techniques de mesure et de reconfiguration rapides. La plu- part de ces techniques ont été développées pour la “radio (Cognitive Radio). Cet amendement introduit des techniques très similaires à celles utilisées dans la norme IEEE 802.22 spécifique [8] pour les applications utilisant la radio cognitive en espace blanc (Cognitive Radio in White Space). Le système utilise sa position géographique, obtenue à l’aide d’un récepteur GPS, puis recherche dans une banque de données la liste des canaux disponibles à un moment donné. Il peut utiliser un ou plusieurs canaux dont la bande utile ne devra pas excéder la largeur d’un canal de télévi- sion soit entre 6 et 8 MHz (suivant les normes TV) ainsi que toutes les techniques modernes de modulation et de codage, notamment l’OFDM, la modulation QAM 256 et le MU-MIMO. Le débit maximal visé serait de l’ordre de 160 Mbit/s par canal de 8 MHz en utilisant le MIMO 4x4. En France, on est encore en attente d’une autorisation d’émettre par les autorités de régulation et il n’y a pas encore de matériel disponible sur le marché. Autres versions 802.11 Pour être vraiment exhaustif sur Wi-Fi, il aurait fallu aussi parler des versions de la norme, moins connues mais non moins importantes. A la différence des versions décrites pré- Figure 16 : Principe de fonctionnement de 802.11ad - Source IEEE. REE N°4/2016 129 Les Wi-Fi cédemment qui étaient autosuffisantes, celles-ci ont été inté- grées et font partie des éditions (“Legacy”) de Wi-Fi suivant leur normalisation. Parmi ces amendements, on peut citer ceux qui ont eu un impact significatif sur les versions des normes Wi-Fi : et des modifications pour rendre la norme Wi-Fi compa- tible avec des règlementations ou contraintes particulières à certains pays. Par exemple elles peuvent restreindre ou sélectionner le nombre de canaux utilisables ou adapter la puissance maximale ; norme des mécanismes de chiffrement et d’authentifica- tion plus performants. A leurs débuts, les systèmes Wi-Fi utilisaient le WEP (Wired Equivalent Privacy) qui comme son nom l’indique vient du monde filaire et était devenu inefficace pour les transmissions sans fil : il suffisait d’écou- ter le canal un certain temps pour pouvoir récupérer les informations de décodage des trames. WEP a été rempla- cé par WPA (Wi-Fi Protected Access) puis rapidement par WPA2, plus adapté et performant pour les communications sans fil. Ce nouveau système de protection complique l’ac- tion des “pirates” mais ne saurait être parfait. Cependant la version « entreprise » du WPA2, dans laquelle l’identifica- tion est confiée à un serveur utilisant un protocole du type RADIUS, offre un niveau de sécurité jugé convenable. Nota : le mode « Personal » utilise une clé partagée qui peut être interceptée lorsque l’on utilise la fonctionnalité WPS (Wi-Fi Protected Setup) lancée par la Wi-Fi Alliance mais qui ne fait pas partie du standard ; gestion de la QoS en privilégiant certaines stations ou ap- plications, par exemple celles travaillant en temps réel. La version de base utilisait le même mécanisme d’accès à la ressource (CSMA-CA) pour toutes les demandes d’accès. Les mécanismes supplémentaires permettent de donner priorité à des applications ne supportant pas de retard par rapport à d’autres qui sont seulement sensibles aux erreurs de transmission. C’est par l’utilisation accrue du mode PCF dans lequel le point d’accès choisit la station qui parle et par l’ajustement des temps inter-trames (IFS) — plus ils sont courts plus la station est prioritaire — que des stations peuvent être rendues prioritaires ; à la bande réservée pour les véhicules c’est-à-dire la bande 5,7 - 5,8 GHz et être utilisé dans les projets de véhicules connectés ; des réseaux maillés avec Wi-Fi (“réseaux Mesh”). Cet amendement permet de basculer d’un point d’accès à un autre sans perdre la connexion et sans faire les démarches de recherche et d’association avec un nouvel AP. Ainsi, en théorie, une certaine mobilité devient possible : un piéton peut marcher en restant connecté, mais cet amendement ne permet pas d’offrir un service équivalent à celui d’un réseau mobile cellulaire. Avec 802.11r, la fréquence basse (2,4 GHz) est utilisée pour les transferts de données et la fréquence haute (5 GHz) est en principe réservée pour la synchronisation entre points d’accès. “Futures” versions 802.11 ah, …, ax, ay” devrait être approuvée fin 201643 . Elle a été annoncée début 2016 par la Wi-Fi Alliance sous contraintes qui sont celles de l’Internet des objets (IoT). Il s’agit en particulier de réduire la consommation des sta- tions qui dans le contexte de l’IoT sont des capteurs ne dis- posant que de très peu de puissance et d’améliorer la portée qui pourrait atteindre le kilomètre. Il utilise des bandes libres dans la bande de fréquences de 900 MHz. Il peut offrir des échanges à bas débit, au minimum 150 kbit/s. Les modes de fonctionnement s’éloignent de ceux du LAN traditionnel : par exemple, des mécanismes de mise en veille des stations et de réveil programmés peuvent être mis en œuvre avec l’objectif de réduire la consommation ainsi que la contention dans l’accès à la ressource radio, dans l’optique de réseaux à très grand nombre de stations. De même une fonction de relais peut être assurée par une station donnée pour étendre la zone de couverture d’un point d’accès et aussi réduire le temps pendant lequel d’autres stations restent en veille. Enfin des stations peuvent être groupées logiquement et il est pos- sible, à un instant donné, de limiter l’accès à un groupe de stations. est prévue pour 2019 : son objectif essentiel est d’améliorer le fonctionnement du Wi-Fi dans les zones possédant une très forte densité de stations où les mécanismes actuels d’accès au canal radio ont tendance à réduire fortement les débits utiles. L’objectif est pour l’heure de multiplier par quatre les débits moyens par utilisateur dans les zones denses. Les débits et largeurs de canaux restent ceux de 802.11ac mais on prévoit de faire appel aux nouveautés suivantes : mais avec la possibilité de constituer huit transmissions MU-MIMO ; 43 On peut se reporter à REE 2016-01 p. 21 pour des informations com- plémentaires 130 REE N°4/2016 ❱❱❱❱❱❱❱❱❱❱❱ RETOUR SUR dans lequel on assigne à chaque utilisateur un ensemble de sous-porteuses : cette technique est utilisée actuellement dans les systèmes mobiles de quatrième génération. Évidemment, nous sommes encore loin de la disponibi- lité des spécifications et des évolutions autres sont encore possibles. est en cours de définition. Son objectif est d’améliorer les débits et la portée de la version 802.11ad dans les bandes libres vers 60 GHz et d’atteindre des débits de 20 à 40 Gbit/s et une portée qui pourrait pas- ser de la dizaine à la centaine de mètres. La disponibilité des spécifications est planifiée pour 2017. Les futures versions de Wi-Fi ne sont pas encore sorties officiellement et sont en cours de développement. Elles apporteront encore d’autres améliorations en termes de consommation, de sécurité et de débit en intégrant de nou- velles techniques de modulation, de codage et de sécurité. Mais aussi du fait de la libération de nouvelles bandes de fré- quences libres, pour les communications radiofréquence, par l’UIT (Union internationale de télécommunications) et par les réglementations nationales, dans des bandes inférieures à 1 GHz et supérieures à 10 GHz. Les solutions Wi-Fi doivent aussi faire face à la concur- rence des télécommunications pour l’utilisation des bandes libres. Des industriels du monde des télécommunications testent en ce moment une nouvelle version de la 4G : le LTE-U ou LTE-LAA qui pourrait utiliser une partie de la bande 5 GHz (utilisée pour l’instant essentiellement par Wi-Fi) en association avec une fréquence de téléphonie mobile dédiée pour accroître les débits 4G qui viendrait donc fortement concurrencer les normes 802.11, mais aussi interférer avec elles. Mais on a vu également que les nouvelles versions du Wi-Fi s’appuient sur des techniques mises en œuvre dans les systèmes cellulaires de 4e génération. La définition des sys- tèmes cellulaires de 5e génération sera peut-être l’occasion d’un rapprochement des deux mondes. Bibliographie [1] “IEEE 802.11: The Group on Wireless Local Area Network (WLAN) Standards”, [En ligne]. Available: http://standards. ieee.org/about/get/802/802.11.html [2] “Wikipedia IEEE 802.11”, [En ligne]. Available: http:// en.wikipedia.org/wiki/IEEE_802.11. [3] P. Mühlethaler, 802.11 et les réseaux sans fil, Paris : Editions Eyrolles, 2002. [4] K. Al Agha, G. Pujolle et G. Vivier, Réseaux de mobiles et réseaux sans fil, Paris: Editions Eyrolles, 2001. [5] D. Le Ruyet et B. Özbek, « Systèmes MIMO et codage spatio-temporel », REE, n°4, p. 69, Avril 2005. [6] Wireless Gigabit Alliance (WiGig), “Defining the Future of Multi-Gigabit Wireless Communication”, 2010. [7] C. Le Martret, « A propos des applications de la radio cognitive », REE, n°1, 2013. [8] D. Lekomtcev et R. Marsalek, “Comparison of 802.11af and 802.22 standards physical layer and cognitive functionality ” elektrorevue, vol. 3, n°2, June 2012. Thierry Letertre est enseignant-chercheur, professeur adjoint au laboratoire SONDRA, à CentraleSupélec (campus de Gif-sur-Yvette). Il est docteur en électromagnétisme (École su- périeure d’électricité - Supélec) et son domaine de recherche est la mesure et la caractérisation de l’impact des ondes électromagnétiques sur l’environnement. Il contribue aux travaux de l’Agence nationale de sécurité sanitaire de l’alimentation (ANSES), de l’Agence nationale des fréquences (ANFR) et du comité français d’accréditation COFRAC.

Creative Commons Aucune (Tous droits réservés) Aucune (Tous droits réservés)
contenu protégé  Document accessible aux visiteurs enregistrés - vous devez vous connecter ou vous enregistrer pour accéder à ce ce document

136 REE N°4/2016 ENSEIGNEMENT & RECHERCHE REE : M. Bourgeois Demersay, vous dirigez depuis sa création l’Institut franco-chinois de l’énergie nucléaire à Zhuhaï, près de Canton. Pouvez-vous nous retracer l’historique de cet Institut, original à bien des égards? J-M Bourgeois-Demersay : L’idée de créer un institut franco- chinois de l’énergie nucléaire (IFCEN) a émergé dans les années 2000 pendant les échanges entre Français et Chinois sur les projets d’EPR à Taishan. La filiale commune de la CGN (China General Nu- clear Power Corporation) et d’EDF à Taishan s’appelle TNPJVC : créée pour des décennies, elle est détenue à 51 % par la CGN et à 30 % par EDF. Dans cet horizon temporel, le recrutement de jeunes ingé- nieurs d’excellence chinois qui comprennent parfaitement la culture française est une nécessité. S’agissant d’enseignement supérieur, qui s’inscrit aussi dans des temps longs, la formation à la française d’une élite chinoise prend beaucoup de sens. Une genèse et une mise en route rapide basées sur un consensus La conclusion d’un accord sur l’IFCEN a été grandement facilitée par le fait que de nombreux ingénieurs chinois, formés en France dans les années 1980, ont par la suite effectué de brillantes carrières en Chine et occupent aujourd’hui des postes stratégiques, notam- ment dans la filière nucléaire chinoise. C’est ainsi par exemple que M. He Yu, président de la CGN, a passé plusieurs années en France chez EDF et parle très bien notre langue. Il a ainsi pu se forger une opinion sur les systèmes de formation supérieure dans les deux pays et ceci l’a convaincu de l’excellence du système français. La CGN, aux côtés d’EDF et d’AREVA, est un partenaire industriel majeur de l’IFCEN. Fin 2008, le CEA a recherché un établissement d’enseignement supérieur français pour mener le montage de l’IFCEN et la décision a été prise de confier à l’Institut polytechnique de Grenoble le pilotage du projet. Les choses sont ensuite allées très vite. L’accord de coo- pération a été négocié en 2009, des locaux temporaires ont été mis à disposition dès l’été 2010 sur le campus de Zhuhai et la première promotion a intégré l’IFCEN en septembre 2010. Cent dix élèves ont été sélectionnés à l’issue du gaokao, qui est le baccalauréat chinois. Les effectifs se sont maintenus pour les promotions suivantes. Parmi les élèves de la promotion 2010, 88 ont obtenu le bachelor en 2014 et 79 viennent de recevoir le diplôme de master en 2016. REE : quels sont les acteurs français parties prenantes dans le fonctionnement de l’Institut ? J-M B-D : Un premier accord de coopération a été signé en 2009 entre l’université Sun Yat-sen et un consortium français constitué de cinq entités : (CEA) ; Nous avons constitué un consortium car aucun établissement français n’avait à lui seul la taille suffisante pour assumer les obli- gations découlant de l’accord de coopération. La présence de deux écoles de chimie s’explique aussi par l’importance de cette discipline et la rareté des compétences en chimie séparative. REE : comment s’effectue le recrutement des étudiants? J-M B-D : Le recrutement des élèves est du ressort de l’université chinoise. Il se fait sur le quota national de l’université Sun Yat-sen, qui recrute chaque année plus de dix mille étudiants. Les candidats expriment leurs vœux sur des fiches qui comportent six choix pos- sibles, plus une case ouverte à la discrétion de l’université. Le classe- ment de l’étudiant joue bien sûr un rôle essentiel dans la satisfaction de ses demandes. L’université Sun Yat-sen ayant très bonne réputa- tion – elle se classe suivant les années entre la 8e et la 12e place des universités chinoises – nous sommes assurés de nous voir confier de bons élèves à l’entrée de l’Institut. En 2010, les vœux des élèves qui ont intégré l’IFCEN comportaient beaucoup de premiers ou de deuxièmes choix et aucun non-choix. A partir de 2011, la situation s’est quelque peu inversée à la suite de l’accident de Fukushima, avec une explosion des «non-choix». Depuis 2014, la situation s’est rétablie. Cette question n’est d’ailleurs pas décisive car nous n’avons pas décelé de corrélation entre le pourcentage de choix délibérés en faveur de l’Institut et les résultats scolaires ultérieurs. L’Institut franco-chinois de l’énergie nucléaire (IFCEN) : une “success story” qui valorise l’enseignement supérieur français en Chine Entretien avec Jean-Marie Bourgeois-Demersay Directeur, Institut franco-chinois de l’énergie nucléaire Université Sun Yat-sen REE N°4/2016 137 ENSEIGNEMENT & RECHERCHE En ce qui concerne l’origine géographique de nos élèves, la moitié provient de la province de Canton en vertu d’une obligation contractuelle de recrutement, et le reste se répartit équitablement entre les autres provinces de Chine, à raison de 1 à 5 élèves par province, sauf exception. Un recrutement effectué principalement à partir des vœux des étudiants REE : Quelle est la motivation des étudiants chinois pour étu- dier dans un cadre «à la française»? J-M B-D : Les étudiants chinois sont très bien renseignés et les atouts des formations à forte composante internationale, comme c’est le cas de l’IFCEN, sont bien connus d’eux. Les universités chinoises sont en compétition entre elles et cherchent à se diffé- rencier en développant des cursus d’excellence. Comme le gou- vernement chinois est intéressé par le système d’éducation qui a donné naissance aux grandes écoles françaises d’ingénieurs, les universités chinoises sont prêtes à expérimenter des systèmes de formation différents du leur, grâce aux gros moyens dont elles dis- posent désormais. REE : Que pouvez-vous dire des différences de pédagogie entre les modèles chinois et français ? Quel type de cursus et quel modèle pédagogique avez-vous adopté à l’IFCEN? J-M B-D : Nous avons mis au point à l’IFCEN un cursus qui s’étend sur six ans. Il est original dans la mesure où les six années corres- pondent à la fois au modèle chinois (quatre ans de bachelor, suivis de deux ans de master) et au modèle français (classes prépara- toires, suivies d’un cycle d’ingénieur). Le cursus est lisible dans les deux modèles pédagogiques (figure 1). Le curriculum se divise en deux cycles de trois ans chacun et débouche sur l’obtention d’un master d’ingénierie en sciences et techniques nucléaires : approfondie du socle scientifique nécessaire aux futurs ingénieurs. On peut dire en ce sens que le cycle préparatoire est fondamen- tal dans le modèle pédagogique. Il commence d’ailleurs par un enseignement intensif du français (au 1er semestre). En cinq mois, les élèves doivent être capables de suivre des cours magistraux de mathématiques et de sciences physiques en français. Et ils y parviennent ! La place des mathématiques demeure considérable pendant tout le cycle préparatoire, de manière à développer chez les élèves une grande faculté d’abstraction ; spécialisées proprement dites : les contenus y sont résolument orientés vers le nucléaire. Pour chacun de ces cycles, une organisation spécifique a été mise en place dans le cadre de la coopération entre professeurs chinois et français (figure 2) : Un modèle pédagogique « à la française » adapté à l’environnement universitaire chinois En ce qui concerne la pédagogie, il faut savoir que le critère pri- mordial pour faire une carrière académique en Chine est fondé sur le volume et la qualité des publications. Dans l’enseignement supé- rieur chinois, les professeurs donnent la priorité à leurs activités de recherche, ce qui peut conduire à des cours assez stéréotypés (le professeur rédige rarement lui-même ses cours, mais s’appuie sur les manuels d’autrui). Du fait notamment de la taille des classes, où les amphis regroupent des centaines d’élèves, les interactions Figure 1 : Comparaison entre les systèmes d’enseignement (a) en France, (b) en université chinoise et (c) à l’IFCEN. 138 REE N°4/2016 ENSEIGNEMENT & RECHERCHE entre enseignants et étudiants sont réduites à la portion congrue. En outre, la culture chinoise incite peu les élèves à poser des ques- tions, soumis qu’ils sont au risque de « perdre la face » ou de la faire perdre au professeur…, ce qui conduit à un enseignement particu- lièrement descendant ou hiérarchique. Par ailleurs, le taux d’enca- drement est faible en travaux dirigés ou en travaux pratiques, ce qui ne favorise pas l’assimilation des connaissances ou le « rattrapage » des contenus mal compris. Une coopération quotidienne entre enseignants français et chinois C’est pourquoi nous avons choisi à l’IFCEN de privilégier une pédagogie interactive en petits groupes. Les cours magistraux ne dépassent guère la centaine d’étudiants, les travaux dirigés se font en classes de 20 à 25 élèves et les travaux pratiques sont organisés sur la base de binômes. Nous avons aussi développé un système efficace de tutorat qui permet de reprendre en chinois le contenu des cours en français, par groupes de huit à dix élèves. L’assimilation des contenus est ainsi garantie dans les deux langues. Des « colles » de type CPGE sont également pratiquées en 3e année, avec beaucoup de succès, bien que l’exercice soit culturellement difficile pour les élèves. En cycle préparatoire, le corps professoral comprend des ensei- gnants français permanents qui font office de professeurs référents dans leur discipline : deux en physique et deux en mathématiques, auxquels sont adjoints de jeunes professeurs agrégés en prove- nance de France, qui restent un ou deux ans à l’IFCEN en début de carrière. La majorité des enseignants sont bien évidemment chinois. Le niveau des élèves de l’IFCEN correspond à celui d’une bonne CPGE en France. Les têtes de classe sont du niveau des meilleures écoles. Pour preuve, sur les deux élèves de l’IFCEN qui ont été can- didats aux concours français, l’un a été reçu à l’Ecole polytechnique, l’autre à l’ENS de Paris. La Commission française des titres d’ingénieur (CTI) a accrédité en novembre 2015 le diplôme de master de l’IFCEN pour six an- nées. C’est la durée maximale d’accréditation possible. Il faut noter que les deux diplômes de l’IFCEN, que ce soit le bachelor en quatre ans ou le master en deux ans, sont 100 % chinois. C’est l’obtention du master qui permet aux élèves de porter en France et en Europe le titre d’ingénieur diplômé. Nous ne pratiquons pas la délivrance de doubles diplômes. Mais à partir de l’année 2016-2017 entreront en vigueur des accords d’échanges avec nos partenaires académiques français de Gre- noble, Nantes et Montpellier. La remise des diplômes constitue un événement qui se fait « à la chinoise », avec un cérémonial très réglé. C’est l’occasion de réunir dans une atmosphère à la fois festive et officielle les autorités politiques, universitaires et industrielles des deux pays. C’est aussi le moment de rendre hommage à l’ensemble du corps professoral, qui inclut nos partenaires français, et de saluer les mérites de nos meilleurs étudiants (figure 3). REE : Que peut-on dire des débouchés pour vos étudiants ? Certains s’orientent-ils vers la recherche ? J-M B-D : Les débouchés à la sortie de l’IFCEN ne posent aucun problème. Tous nos élèves ont la possibilité, mais pas l’obliga- tion, d’être pré-embauchés une année avant l’obtention de leur diplôme. La CGN serait même prête à les recruter tous ! EDF pour sa part a embauché des ingénieurs de la promotion 2010, qui passeront deux années dans les équipes d’EDF en Chine (par exemple à Taishan et à Shenzhen), puis trois années en France, avant de faire carrière vraisemblablement en Chine, ou pourquoi pas en Angleterre si les projets d’EPR s’y concrétisent. Areva et Engie ont également recruté plusieurs diplômés. 100% des élèves de la promotion 2010 avaient trouvé un emploi avant même leur diplomation. L’insertion professionnelle des élèves est donc garantie. Des débouchés garantis pour les étudiants Pour répondre à votre question sur la recherche, je préciserai que nous avons mis en place un parcours de recherche intégré au curriculum, qui prépare ceux des élèves qui le souhaitent à pour- suivre en thèse. C’est ainsi que 12 élèves de la première promotion Figure 2 : Coopération entre les professeurs chinois et français à l’IFCEN. REE N°4/2016 139 ENSEIGNEMENT & RECHERCHE vont démarrer un doctorat en France à l’automne 2016, dans les laboratoires de nos partenaires académiques et d’EDF. REE : Comment sont gérées les connaissances « propriétaires » du côté français? N’y a-t-il pas un risque de « fuite » du savoir, voire des technologies françaises, dans un secteur sensible vers la Chine ? J-M B-D : Les problèmes de PI ou de transferts de technologie ne se posent pas du tout à l’IFCEN car la formation que nous y dispensons est de niveau master. Tous les contenus relèvent du domaine public et sont déjà disponibles en bibliothèque ou sur internet, tout est accessible et largement publié. La marque de fabrique de l’IFCEN porte sur la pédagogie, pas sur les conte- nus. La question de la propriété intellectuelle peut toutefois devenir plus sensible au niveau du doctorat, notamment dans le choix des thèses qui se déroulent en laboratoire. Les besoins sont tels que les laboratoires savent très bien confier des sujets porteurs à nos anciens élèves. REE : Pouvez-vous nous donner une idée du coût de fonction- nement de l’Institut ? J-M B-D : La réponse n’est pas facile à donner car les cultures comptables sont très différentes entre la France et la Chine. La comptabilité chinoise ne relève pas de nos catégories habituelles. La gestion financière est du ressort de l’université chinoise et l’enca- drement français focalise son effort sur la qualité de l’enseignement délivré aux élèves. Je peux toutefois vous indiquer que les frais de scolarité s’élèvent annuellement à 5 500 yuans (soit environ 730 ) en bachelor et 15 000 yuans (environ 2 000 ) en master. Nous sélectionnons les élèves sur leurs performances académiques, pas sur leurs moyens financiers. Nous avons un système de bourses pour les élèves dont les familles ont des revenus modestes. Vers une croissance et une internationalisation renforcée ? Jean-Marie Bourgeois-Demersay est actuellement le directeur français de l’IFCEN, une des composantes de l’université Sun Yat-sen en République populaire de Chine. Depuis 2010, date de création du département, il a conçu et déployé l’inté- gralité du curriculum avec le concours d’une équipe de projet et dirigé l’Institut avec son homologue chinois, amenant des centaines d’étudiants à poursuivre avec succès un programme trilingue et très sélectif de master d’ingénierie en sciences et techniques nucléaires. Avant son poste actuel en Chine, Jean-Marie était vice-président de l’Institut polytechnique de Grenoble, où il a enseigné les sciences du management comme professeur associé entre 2008 et 2010. Jean-Marie a développé une expertise importante dans le management, l’industrie des télécoms et les câbles sous-marins, domaines dans lesquels il a occupé divers postes à responsabilité de 1993 à 2007 au sein du groupe Orange. Jean-Marie Bourgeois-Demersay est ingénieur général des mines, ancien élève de l’Ecole normale supérieure et diplômé de HEC Paris. Figure 3 : Remise du diplôme aux meilleurs élèves de la promotion 2010 en présence de Son Excellence M. Maurice Gourdault-Montagne, ambassadeur de France en Chine (au centre). A sa droite, le professeur Luo Jun, président de l’université Sun Yat-sen, le professeur Brigitte Plateau, administrateur général de Grenoble INP et M. He Yu, président de la CGN. 140 REE N°4/2016 ENSEIGNEMENT & RECHERCHE REE : Pour conclure, avec le recul et l’expérience de la colla- boration franco-chinoise que vous avez acquise, si le projet démarrait aujourd’hui, procéderiez-vous de la même façon? Avez-vous été gênés par les différences culturelles entre les deux pays ? J-M B-D : Dans l’ensemble, le juge-arbitre qu’est la CTI a été très satisfait de la genèse, du déroulement et des résultats de cette opération. La stratégie était la bonne et nous avons eu la chance de bénéficier de l’aide précieuse de nos partenaires académiques et industriels, ainsi que de l’ambassade de France à Pékin. Nous avons capitalisé sur l’expérience de nos prédécesseurs (je pense par exemple à l’Ecole centrale de Pékin et à l’Institut d’aéronautique de Tianjin) et mis en place, dès le début du projet et à tous les niveaux, des équipes franco-chinoises qui ont permis de traiter et d’aplanir les différences culturelles. Nous sommes désormais en ordre de marche avec la toute ré- cente diplomation de notre première promotion d’ingénieurs. Notre ambition est d’internationaliser encore davantage le cursus et d’aug- menter les effectifs – on pourrait aller sans difficultés jusqu’à des promotions de 150 élèves. Mais ce type de décision, qui engage les finances et l’immobilier, est du ressort du Conseil d’administra- tion conjoint : je ne puis que suggérer une évolution qui servirait la cause d’une coopération franco-chinoise dont nous n’avons qu’à nous louer. Propos recueillis pour la REE par Alain Brenac et Jean-Pierre Hauet Figure 4 : La traditionnelle festivité du « lancer de chapeau » qui célèbre l’obtention du diplôme de master de l’IFCEN. REE N°4/2016 141 ENSEIGNEMENT & RECHERCHE Une rentrée universitaire sous tension : le nombre d’étudiants continue à croître L’augmentation des effectifs se poursuit au sein des établissements d’enseignement supérieur. À la rentrée 2016, 40 000 étu- diants supplémentaires sont attendus sur les bancs des amphis portant à plus 2,5 millions le nombre total d’étudiants sur le territoire na- tional. Cette évolution continue n’est pas sans poser des problèmes d’accueil dans des struc- tures pas toujours adaptées et avec des res- sources en enseignants limitées. Ces derniers se sentent souvent submergés par cet afflux, surtout en 1ère année d’études, notamment dans les filières PACES (études de santé) et STAPS (éducation physique), ce qui les amène à recourir à des solutions innovantes pour faire face (retransmission des cours en amphis parallèles, développement des MOOC). Quoi qu’il en soit la surpopulation étudiante n’a pas fini de poser problème, le Ministère prévoyant un effectif de 2,81 millions en 2024 ! Les rai- sons de cet accroissement régulier (+ 2 à 3 % par an) tiennent non seulement aux pics de natalité des années 2000, 2001 et 2006 mais aussi à l’allongement des études, aux dys- fonctionnements de l’orientation1 ainsi qu’au nombre d’étudiants étrangers dont on prévoit le doublement d’ici 10 ans. La lutte contre la fraude scientifique Depuis quelques années, la fraude scienti- fique, l’inexactitude des données (volontaire ou de bonne foi) et le plagiat dans la recherche font régulièrement l’actualité. La course aux publications – le fameux publish or perish – contribue fortement à ce phénomène partout dans le monde, ce qui se traduit par une dimi- nution inexorable de la qualité scientifique de la chose publiée. A la demande du secrétaire d’Etat à l’enseignement supérieur et de la recherche, inquiet de la dimension prise par ces dérapages dans nos milieux scientifiques, Pierre Corvol, professeur honoraire au Collège de France, a remis un rapport le 29 juin au 1 Sur ces questions, le lecteur pourra se référer à l’entretien avec M. Jouanjean, délégué général de la conférence des grandes écoles, paru dans le numéro REE-3 p. 101. ministre dans un document intitulé : “Bilan et propositions de mise en œuvre de la charte nationale d’intégrité scientifique”. Après avoir fait le constat préoccupant du retard des ins- titutions françaises sur le sujet par rapport à leurs homologues européens et américains, M. Corvol dresse une liste de recommanda- tions visant à harmoniser la politique de lutte pour l’intégrité scientifique et préconise d’éta- blir une “nomenclature nationale des incon- duites et un vade-mecum juridique national des typologies de sanctions”. Toutefois la re- commandation essentielle consiste à sensibi- liser, voire former, les étudiants et chercheurs débutants aux questions d’éthique touchant à la publication des travaux de recherche, en vue d’un retour aux bonnes pratiques. Sinon il ne restera plus que la peur du gendarme pour ramener dans le droit chemin les auteurs usant de procédés déloyaux! Dans certains cas flagrants, certes encore peu nombreux, des sanctions lourdes ont déjà frappé des auteurs indélicats tel ce biologiste suspendu deux ans du CNRS pour fraude manifeste ! L’admission post-bac (APB) critiquée pour son manque de transparence En plus du feuilleton juridico-politique de la sélection en filière master (voir ci-dessous), une autre pomme de discorde est en train supérieur, relative à la procédure d’admission dans les universités, connue sous l’acronyme d’APB (admission post bac). De plus en plus d’étudiants déboutés des choix préféren- tiels qu’ils avaient formulés en ligne avant le baccalauréat pour entrer à l’Université se tournent vers la justice pour obtenir répara- tion d’une décision qu’ils jugent infondée et pour le moins opaque. L’association “Droits des lycéens” réclame pour sa part depuis longtemps plus de transparence sur les cri- tères utilisés par l’algorithme qui permet de répartir les admissions dans les différentes rebondissement important suite à une ré- cente décision du tribunal administratif de Nantes contraignant l’université à inscrire en Paces un étudiant en réorientation qui avait pourtant obtenu une place dans cette filière à l’université des Antilles. Le juge a argué qu’il existait “un doute sérieux quant à la légalité de la décision” de non admission à Nantes, premier choix du bachelier. On peut donc s’at- tendre à une multiplication des recours, no- tamment de la part d’étudiants en année de réorientation qui s’estiment, à tort ou à raison, particulièrement visés par des décisions n’al- lant pas dans le sens de leurs choix. Il faudra finalement que le Conseil d’Etat tranche sur la légalité des procédures APB car les décisions des tribunaux saisis n’iront pas nécessaire- ment toutes dans le même sens. Arts et Métiers : les statuts qui fâchent Depuislaréformedesstatutsopéréeen2012 visant à donner plus de pouvoir au directeur gé- néral face au poids, jugé excessif, de la Société des anciens élèves (Soce), le ton n’a cessé de monter entre les “Anciens” garants d’un certain respect des traditions chères aux “gadzarts” et la direction de l’école soutenue par la ministre de l’Education dans sa tentative de moderniser son fonctionnement. La pomme de discorde a pris pour prétexte la réforme de la “période de transmission des valeurs“ (PTV), euphémisme technocratique qui cache une pratique initia- tique des élèves de première année qui relevait plus du bizutage que de la transmission des valeurs. Dans un rapport rendu au ministère fin janvier 2016, l’Inspection générale (IGAENR) faisait le bilan des efforts entrepris depuis un an par la direction de l’école pour mieux enca- drer la PTV mais insistait principalement sur le “poids hégémonique de la société des anciens dans la gouvernance de l’établissement”. La ministre de l’Education qui n’attendait que ce signal pour agir, annonce un nouveau projet de décret, actuellement à l’examen en Conseil d’Etat, qui modifie à nouveau les statuts afin de limiter les pouvoirs des anciens élèves au sein du CA. Depuis le torchon brûle publique- ment entre la direction de l’école et les anciens élèves qui n’échangent plus que par courriers incendiaires. Dernier épisode en date, un appel solennel du président de la Société des anciens au Président de la République. Mais il semble bien que dans ce remake local de la guerre des Anciens et des Modernes, les premiers soient en passe de perdre la partie. E C H O S D E L ' E N S E I G N E M E N T S U P É R I E U RE C H O S D E L ' E N S E I G N E M E N T S U P É R I E U R 142 REE N°4/2016 ENSEIGNEMENT & RECHERCHE La sélection autorisée pour certains masters Comme la REE s’en est déjà fait l’écho, le feuilleton sur la sélection éventuelle à l’entrée dans la filière master (M1) ou lors du passage M1-M2 n’a pas fini d’alimenter la polémique au sein de la communauté de l’enseignement supérieur (Cf. Les Echos de l’ES du numéro REE 2016-4). Pour calmer les esprits, le secrétaire d’Etat, Thierry Mandon, a publié comme il l’avait promis un décret (pro- visoire ?) listant les 1 300 masters, issus de 80 établissements, autorisés pour la rentrée 2016 à effectuer une sélection au passage M1-M2. On trouve en particulier dans la liste 370 autorisations concernant le secteur des technologies et de la santé. La répartition est très inégale sur le territoire et certaines uni- versités comme Paris Saclay ou Lyon II voient plus de 90 % de leurs masters autorisés à opérer une sélection via un examen complé- mentaire pour passer en M2, si les capacités d’accueil fixées par l’établissement l’imposent. Pour autant ce décret ne règle pas le cas des masters hors liste. Le président de la CPU es- time que ces derniers continueront à procé- der comme précédemment, au mépris de la réglementation. Le problème de la sélection au sein de ces filières n’est donc pas réglé et il est urgent qu’une loi précise un fonction- nement pérenne des pratiques en la matière qui concilient des principes reconnus par tous avec la réalité du terrain. Mais le ministre au- ra-t-il le temps d’ici la fin du quinquennat de mener ce chantier à bien ? Il faut le souhaiter. La réforme du doctorat Cette réforme débattue de longue date a fait l’objet d’un arrêté en date du 27 mai 2016 applicable dès la rentrée 2016. Il comprend un certain nombre de dispositions nouvelles dont la principale est la limitation de la durée de toutes les thèses à six ans maximum, avec une durée indicative de trois ans, étant précisé que ce temps est mesuré en équiva- lent temps plein et hors congés exception- nels. Cet arrêté met donc un terme à une pratique des “thèses longues” que l’on ren- contrait principalement dans le domaine des sciences humaines et sociales. Autre innova- tion : l’année de césure, pendant laquelle le doctorant sera autorisé à titre exceptionnel à exercer une activité différente de sa thèse. Le ministère a voulu aussi profiter de ce texte pour préciser le rôle des écoles doc- torales dans l’encadrement des doctorants. Ces structures agissent maintenant officiel- lement sous la responsabilité des Etablisse- ments, la représentation de ces derniers au sein des conseils d’école doctorale étant sta- tutairement supérieure à 60 %. En plus de leur rôle de formation habituel, l’arrêté met l’accent sur l’importance d’une formation à l’éthique de la recherche et à l’intégrité scien- tifique (Cf. la première rubrique des présents échos). Enfin une autre nouveauté a trait à la mise en place d’un “portfolio du doctorant” censé rassembler les activités du doctorant durant sa formation. Un dernier point impor- tant concerne l’instauration d’un comité de suivi individuel qui aura pour rôle de veiller au bon déroulement de la thèse, de contribuer à résoudre certains conflits, voire de signaler d’éventuels harcèlements ou discriminations. Classements internationaux : les universités françaises en perte de vitesse Dans la nouvelle édition du classement de Shanghai 2016, publiée en août 2016, les uni- versités françaises peinent à tenir un rang tout juste honorable. Sixième pays par le nombre d’établissements classés, la France n’en place que trois dans les cent premiers (université Pierre et Marie Curie : 39e , Paris XI : 46e et l’ENS 87e ) et 22 dans les 500 premiers classés. Par comparaison l’Allemagne et le Royaume-Uni en recensent respectivement 37 et 38 et ce dernier compte des leaders incontestés en tête de liste (Cambridge 4e et Oxford 8e ). Plus récemment c’est au tour du classe- ment QS World University Rankings de venir confirmer la place insuffisante qu’occupe l’enseignement supérieur français dans le concert mondial avec des résultats plus que modestes. Ce classement, contrairement à celui de Shanghai, est fondé sur l’opinion, analysée après enquête, que se font les étu- diants des universités du monde entier. Dans celui-ci, la France, qui comptait l’an passé 20 établissements classés parmi les 400 pre- miers, n’en compte plus que 17. On note en outre le recul sensible de l’École Polytech- nique, désormais classée 53e , et une perte de 10 places de la 23e à la 33e position pour l’ENS, pourtant créditée d’une excellente 6e place sur le seul critère de la qualité de la recherche. Plus grave encore, 74 % des 39 universités françaises examinées connaissent une baisse de leur réputation académique. Parmi les handicaps de la France, les res- ponsables de l’enquête mettent notamment en avant les difficultés rencontrées par les universitaires étrangers désireux de venir tra- vailler dans une université française. Le secré- taire d’Etat en est conscient et admet qu’il faut “fluidifier” les règles de recrutement pour faci- liter la venue d’étrangers mais aussi renforcer la communication extérieure des universités dont beaucoup sont maintenant recompo- sées et dotées de nouveaux moyens d’action. Vers une fusion des écoles Telecom Paristech et TelecomSud Paris Deux grandes écoles d’ingénieurs Tele- com relevant toutes deux de l’Institut Mines Telecom avaient-elles vocation à coexister de façon distincte alors qu’elles sont toutes deux destinées à se rassembler sur le plateau de Saclay en même temps que d’autres éta- blissements prestigieux ? Poser la question c’est y répondre par la négative et envisager à terme une fusion des deux établissements est une idée naturelle. C’est en tout cas ce qu’ont dû conclure, après quelques mois de réflexion, les directions des deux écoles qui ont annoncé simultanément à leurs person- nels lors de leur amphi de rentrée, le 8 sep- tembre dernier, réfléchir à un projet de fusion pour 2019. Si l’idée était dans l’air, personne ne s’attendait à une annonce aussi rapide. Il faut en fait y voir une politique réfléchie et sur le long terme de la tutelle exercée par le ministère de l’Economie par le biais du Conseil général de l’économie (CGE, ex-CGIET). Après les deux fusions déjà actées et en cours de mise en place de Mines Nantes et Télécom Bretagne d’une part, et de Mines Douai et Télé- com Lille d’autre part, le CGE entend continuer la rationalisation des outils de formation dont il dispose afin de donner une dimension critique et un rayonnement accru à deux pôles d’ensei- gnement majeurs et bientôt trois avec l’implan- tation à Saclay, dont il a la responsabilité. En tout état de cause, la convergence thématique des deux écoles franciliennes de Télécom et leur implantation commune sur un site d’avenir devraient faciliter la fusion envisagée. REE N°4/2016 143 LIBRES PROPOS Pr William Dab Chaire d’Hygiène et sécurité, Cnam S ocrate, comment vas-tu t’y prendre pour chercher une chose dont tu ne sais absolu- ment pas ce qu’elle est ? Quel point particu- lier entre tant d’inconnus proposeras-tu à ta recherche ? Et à supposer que tu tombes par hasard sur le bon à quoi le reconnaîtras-tu puisque tu ne le connais pas ? [Platon, Ménon]. Je plaide coupable : en 2005, alors que j’exerçais les fonctions de directeur général de la santé, j’ai eu à prendre position sur le projet de Charte de l’Environne- ment aujourd’hui adossée à la Constitution. L’article 5 de cette Charte stipule : « Lorsque la réalisation d’un dom- mage, bien qu’incertaine en l’état des connaissances scientifiques, pourrait affecter de manière grave et ir- réversible l’environnement, les autorités publiques veil- lent, par application du principe de précaution et dans leurs domaines d’attributions, à la mise en œuvre de procédures d’évaluation des risques et à l’adoption de mesures provisoires et proportionnées afin de parer à la réalisation du dommage ». J’ai soutenu cette rédaction et je ne le regrette pas. Notre pays a plus souffert d’un déficit de précaution que de ses excès. Pour dire le vrai, cette formulation qui était le fruit d’un laborieux compromis politique sans lequel elle n’aurait pas pu être adoptée, ne m’apparaissait pas idéale pour trois raisons. La première est qu’à y regarder de près, ce principe n’est pas réellement défini. La deuxième est que le texte parle de mesures « proportionnées » alors même que l’idée de précaution concerne l’action sous incertitude, d’où la question évidente : proportionnée à quoi ? Et la troisième raison est que les modalités d’ap- plication de ce principe ne sont pas définies. Cependant, deux arguments ont prévalu dans ma prise de position. Le premier est que le principe s’adres- se aux autorités publiques. C’est un principe de politique publique, alors même que les grandes crises de sécu- rité sanitaire des 30 dernières années montraient que le ministère de la santé n’était doté ni d’une doctrine claire d’action ni de moyens suffisants pour prendre à temps les décisions permettant de limiter les risques sanitaires. Mais contrairement à ce que l’on lit ici ou là, ce principe ne change pas directement les responsabilités civiles et pénales des acteurs économiques et des entreprises. Le deuxième argument décisif est qu’en situation d’incerti- tude, la Charte de l’environnement prescrit d’évaluer les risques. Non seulement, il ne s’agit donc pas comme l’af- firment certains d’un principe antiscientifique, mais c’est au contraire un appel à la science pour réduire le plus possible l’incertitude sur l’existence ou la gravité des ris- ques. Sachant qu’effectivement, si on exige d’avoir toutes les preuves disponibles avant d’agir, nous pouvons mettre en péril l’existence même de la vie sur Terre. Au demeurant, la nécessité d’agir avant qu’il ne soit trop tard n’est pas une nouveauté et elle existe dans de nombreux textes internationaux depuis le principe 15 de la Déclaration de Rio en 1992, suivi du traité d’Amster- dam (article 174) de l’Union européenne. Mais en France, la question a pris une ampleur particulière à la suite du triple choc qu’ont été la transmission transfusionnelle du sida, Tchernobyl et la vache folle. C’est-à-dire trois affaires de sécurité sanitaire dans lesquelles il y a eu au départ une dénégation du risque et par conséquent, dans un mouvement de balancier dont notre pays est coutumier, cette situation a créé un excès d’alarmisme. Convoquer un principe sans le définir précisément et sans que son application opérationnelle ne soit pré- cisée, s’apparente plus à une pétition de principe, voire à une illusion politique, plutôt qu’à une réelle volonté de protéger la santé et l’environnement. La France ex- celle dans la rédaction de principes comme si leur seul énoncé suffisait à changer la réalité. Et inévitablement, puisque l’on reste dans l’abstrait et dans le théorique, les passions se déchaînent. On ne réfléchit pas à la manière d’appliquer ce principe le plus intelligemment possible. On est pour, on est contre et on s’invective dans un affrontement binaire qui laisse l’opinion incrédule ce qui accroît sa méfiance dans le fait que lorsque la protection de la santé met en cause des intérêts économiques, Le principe de précaution : une passion française 144 REE N°4/2016 LIBRES PROPOS celle-ci sera sacrifiée. Or, l’objectif du président Chirac était de favoriser le retour de la confiance en matière de sécurité sanitaire et de ce point de vue, c’est un échec. Il faut donc reconnaître que le principe de précau- tion crée actuellement une incertitude juridique sans que cela corresponde à des bénéfices tangibles pour la population. Certaines associations écologistes en font un usage radical qui prône la suspension ou l’arrêt d’une activité en cas de doute, définition éloignée d’un prin- cipe d’action publique, cadre unique auquel le principe de précaution est destiné. Pour elles, le principe de pré- caution est un principe d’interdiction. Les entrepreneurs, eux, considèrent que la précaution freine l’innovation indispensable à la santé de l’économie et réclament son abolition en le diabolisant sans même réaliser que la mise sur le marché d’une activité ou d’un produit dont les risques sont mal cernés n’est pas dans leur intérêt. La mauvaise gestion des incertitudes relatives aux OGM par les grands groupes qui les produisent a sa part de responsabilité dans cette situation de blocage. Il est clair qu’un principe aussi vague ne peut que don- ner lieu à des interprétations divergentes et au total, à pro- duire plus de tensions que de solutions. Dans le livre que j’ai écrit avec une sociologue, Danielle Salomon (Agir face aux risques. PUF, 2013), je donne de nombreux exemples qui permettent de comprendre qu’il ne suffit pas de scan- der le principe de précaution pour croire que les risques sanitaires seront maîtrisés au mieux des connaissances et des moyens disponibles. De même est-il inacceptable d’affirmer que la précaution nous ruine. Ces exemples permettent de comprendre que le cœur du problème est qu’il existe des visions différentes du risque. C’est cela qu’il faut commencer à clarifier. Le risque traduit une opportunité éventuellement as- sociée à des conséquences que l’on souhaite minimiser sur un plan sanitaire et pour lesquelles existent des possi- bilités d’action. Mais comment cette éventualité qui incite à l’action est-elle construite : est-ce une hypothèse, la reconnaissance d’un doute, ou bien découle-t-elle d’une connaissance établie démontrant un lien entre un état de l’environnement et un état de santé ? C’est cette distinc- tion qui permet de séparer les situations de précaution des situations de prévention. Mais au-delà des questions sémantiques, il y a des conceptions différentes de ce qui « motive l’action » pour reprendre la célèbre définition du risque donnée par Ulrich Beck. Car, ce qui fait véritable- ment débat, c’est que pour les uns, il y a risque quand le danger est démontré alors que pour les autres, la seule éventualité d’une atteinte à la santé ou à la qualité de l’environnement suffit pour définir le risque. Dès lors, comment trouver collectivement la voie d’une précaution démocratique conciliant l’innovation et la protection. Peu de personnes revendiquent un risque nul, mais beaucoup demandent que les risques soient réfléchis, débattus et pris en charge. Il est temps de se réconcilier avec la précaution. Et c’est possible. Avec le recul, la façon dont a été gé- rée l’hypothèse que les champs électromagnétiques de basse fréquence soient cancérigènes fournit des pistes pour opérationnaliser le principe de précaution. J’ai eu à connaître ce dossier alors que j’étais chercheur dans le service des études médicales d’EDF-GDF. Dans les années 80, plusieurs études épidémiologiques avaient observé une relation entre l’exposition aux champs élec- tromagnétiques générés par la production, le transport et l’usage de l’électricité et le risque de cancers chez les adultes et les enfants. Aucune équipe n’a conclu à la causalité de cette relation, cependant plusieurs études l’ont observée. Bien que les lignes à haute tension ne soient pas la seule source d’exposition, c’est la plus vi- sible. Au nom du principe de précaution, fallait-il évacuer les centaines de milliers de personnes vivant à proximité d’une ligne ? Pour éviter de se laisser enfermer dans une solution de type tout ou rien, on peut résumer l’attitude qui a été adoptée par les pouvoirs publics avec la colla- boration d’EDF en quatre points. Le premier était de se doter d’un dispositif de veille d’une part, pour recenser les études épidémiologiques et toxicologiques disponibles, les soumettre à une ex- pertise contradictoire. Il s’agissait aussi de soutenir des registres de cancers afin de savoir si les cancers suspec- tés, notamment les leucémies chez l’enfant, étaient de nature épidémique. Le deuxième était de contribuer à la production des connaissances. Un important programme d’études épidémiologiques et toxicologiques a été lancé, en particulier une vaste étude épidémiologique réalisée REE N°4/2016 145 LIBRES PROPOS conjointement en France, au Québec et en Ontario chez les travailleurs de l’électricité. Le troisième point était d’accepter un dialogue avec les parties prenantes pour permettre un débat ouvert en mettant sur la table les arguments pour et contre l’existence d’une relation causale. Il faut reconnaître la légitimité du débat sur les critères de choix relatifs aux risques. Vouloir s’en affranchir produit souvent un blocage social. Et le dernier point élaboré dans un cadre international était de proposer un dispositif de valeur limite d’exposi- tion provisoire et révisable. Aujourd’hui, si la relation épidé- miologique n’a pas fait ses preuves chez l’adulte, il reste un doute chez l’enfant. L’OMS a ainsi classé cette exposition comme étant un cancéri- gène « possible » (groupe 2B du centre international de recherche sur le cancer). Malgré cette incertitude per- sistante, le débat et l’inquiétude restent bien moins vifs qu’il y a 15 ans. Cela montre qu’il est possible de ne pas se laisser enfermer dans de fausses solutions et de trouver un moyen terme entre un alarmisme excessif et un négationnisme absolu. Le point crucial dans les situa- tions d’incertitude est celui de la confiance. Pour conclure, on peut se demander si le problème de la précaution n’est pas qu’on a voulu en faire un principe sans s’attacher à son opérationnalisation. Et si on parlait plutôt d’une procédure plutôt que d’un principe ? Une procédure scientifique prenant en compte les craintes de la population qui appel- lerait à prendre des mesures dans la double acception de cette expres- sion : mesurer et agir. William Dab est médecin, épi- démiologiste et spécialiste qualifié en santé publique. Il a été directeur général de la santé (2002-2005), membre du comité exécutif de l’OMS et président du comité européen environnement et santé pour la ré- gion Europe de l’OMS. Titulaire de la chaire Hygiène et Sécurité du Cnam, il dirige la chaire Entreprises et Santé créée en partenariat avec Malakoff Médéric et le laboratoire Modélisa- tion, Épidémiologie et Surveillance des Risques Sanitaires (MESuRS). Il a publié Santé et Environnement (Que sais-je n° 3771, 2012), Santé et travail (Arnaud Franel, 2015) et Agir face aux risques (PUF, 2013) 146 REE N°4/2016 SEE EN DIRECT INFORMATIONS Conférence Confrège 27, 28 et 29 juin 2016 - Genève Après Toulouse en 2010, Montréal en 2012 et Albi en 2014, la quatrième édition de la conférence CONFREGE a été organisée en Suisse par le Groupe Midi-Pyrénées de la SEE. Elle s’est tenue les 27, 28 et 29 juin 2016 au sein de l’HEPIA (Haute Ecole du Paysage, d’Ingénierie et d’Architecture de Genève), école membre de l’HES-SO (Haute Ecole Spécialisée de Suisse Occidentale). 129 participants de 10 nationalités différentes (11 % de participants français) et d’ori- gines diverses : 30 % issus du monde industriel, 30 % du monde académique, 30 % d’étudiants et 10 % d’agences et organismes spécialisés ont assisté à cet événement consacré à l’Eco-conception et au Développement durable dans le Génie Electrique. CONFREGE a également été parrainée par les sociétés savantes SRBE (Société Royale Belge des Electriciens) et l’IEEE (sections francophones de Montréal et de Québec), l’association Electro Suisse (Association pro- fessionnelle dans le domaine de l’électrotechnique et des techno- logies de l’énergie et de l’information) et le cluster Cleantech ALPS (technologies, industries et services qui contribuent à la protection et à la conservation des ressources naturelles). Un soutien a également été apporté par l’Ambassade de France en Suisse. Lors du 1er jour, 11 exposés invités d’experts du domaine se sont succédés de manière à proposer un état des lieux : du législatif aux pratiques industrielles. Antonio Hodgers, Conseiller d’Etat chargé du Département de l’Aménagement, du Logement et de l’Énergie, a dressé un bilan de la politique énergétique suisse au service de la qualité de vie. Marie Chantal Vincent (EcosystèmeIE) a ensuite abordé le concept d’éco- logie industrielle. Marc Jobin (HEPIA- HES.SO) a traité des nouvelles opportunités relatives au photovoltaïque intégré aux bâtiments. Eric Plan (Cleantech ALPS) a ensuite défini le Smartgrid comme un potentiel d’innovation pour l’éco-conception. Christophe Garnier (Schneider Electric) et Maud Jacquot (b4green-consulting.com) ont décrit le programme européen dédié à l’empreinte environne- mentale des onduleurs. Damien Prunel (Bureau Véritas CODDE) a quant à lui rappelé la législation environnementale européenne relative aux équipements électriques et électroniques. La notion de développement durable et d’éco-conception dans le domaine aéronautique a été abordée par Miguel Garcia Claro (Bombardier Aéronautique). Toufann Chaudhuri (ABB) a consacré son exposé à la mobilité durable et à l’efficacité énergétique dans le domaine ferroviaire. Le domaine des machines outils intelligentes et éco- efficientes a été également au cœur de la présentation de Roberto Perez (GF Machining Solutions). Olivier Eichwald (Université de Toulouse) a expliqué comment les décharges électriques pouvaient être mises à profit pour le développement durable. Enfin, Jean Michel Deswert (Laborelec) a clôturé cette première journée sur la théma- tique « Eclairage et développement durable ». La seconde journée a été organisée autour de 20 exposés clas- sés en 2 sessions : Eco-conception et Développement durable. Ces sessions ont été entrecoupées de 6 exposés invités : Rôle de l’éco-concep- tion dans la stratégie énergétique suisse 2050 ; François Affolter (HEIG-VD/HES.SO) : Les développements de la pile à hydrogène pour la mobilité et application à la navigation ; Evaluation de l’im- pact environnemental du cycle de vie de systèmes d’éclairage ; La petite hydro-électricité est ses voies de développement ; La pensée cycle de vie au service d’Hydro Québec. De nombreux échanges fructueux ont eu lieu lors de ces diffé- rentes sessions. CONFREGE a été l’occasion de diffuser des informations concer- nant la législation, les outils associés ainsi que les pratiques industrielles dans ce domaine vers la communauté du Génie électrique. Elle a éga- lement fourni l’opportunité d’échanges entre industrie et recherche sur les défis qui se présentent aux concepteurs des futurs systèmes du Génie électrique et sur les capacités de la recherche à apporter REE N°4/2016 147 SEE EN DIRECT des solutions réfléchies et pérennes. Une part des discussions qui ont animé cette conférence a également été tournée vers l’enseignement de l’éco-conception au sein de nos Universités et Grandes Ecoles et notamment sur la manière de préparer au mieux nos futurs diplômés à développer un Génie électrique plus éco-responsable. Des visites techniques ont été organisées le 29 juin respective- ment chez GF Machining solutions (Machines outils – sponsor de la conférence) et ABB (Transformateurs de traction) le matin et au CERN l’après-midi. Nous tenons encore une fois à remercier toutes les personnes qui, par leurs conseils, leurs encouragements, leur aide, leur dévoue- ment, ont fait en sorte que cette quatrième édition de CONFREGE fût un succès ! La conférence a été clôturée par l’annonce de la cin- quième édition qui se tiendra en 2018 au Canada dans la province du Québec. David Malec et Dominique Mary Membres senior de la SEE et co-présidents fondateurs de CONFREGE. 46e session du Cigré 22 au 26 août 2016 - Paris Le Cigré (Conseil international des grands réseaux électriques) tient traditionnellement sa grande conférence tous les deux ans pendant l’été au Palais des Congrès de la porte Maillot à Paris. La 46e session de cet évènement majeur s’est déroulée cette année du 22 au 26 août 2016. Comme les précédentes éditions, elle a connu un grand succès malgré un contexte difficile sur le plan de la sécurité dans la capitale. Cet évènement a rassemblé pas moins de 3200 délégués provenant de 89 pays et la grande exposition qui occupait les 3 niveaux du Palais a rassemblé devant les stands tenus par 249 exposants, quelque 8500 décideurs et experts ve- nus s’informer des derniers développements techniques de leur profession. Comme les années précédentes, une semaine entière de discus- sions techniques a permis de nombreux échanges sur les grandes problématiques du moment : HVDC, microgrids, différences régio- nales, marchés de l’électricité, substitution du SF6 dans les postes blindés, pour n’en citer que quelques unes. Dans les faits marquants de cette session, on aura noté en par- ticulier : thèmes déjà cités et faisant une large place aux débats ; Facchini, président de la division Power Grids chez ABB ; - tèmes que sur les marchés ; Puis, à partir du Mardi, de façon classique et organisés en sessions parallèles : Au cours de l’assemblée générale du Cigré, le Président Klaus Froehlich1 qui arrivait en fin de mandat passa le relais à son successeur Robert Stephen, directeur général de la compagnie Eskom, principal fournisseur d’électricité en Afrique du Sud. A noter que le nouveau trésorier élu est Michel Augonnet, personnalité bien connue de la communauté électrique française, à qui la REE est heureuse d’adres- ser ses félicitations à cette occasion. Comme c’est l’usage depuis plu- sieurs sessions, la SEE tenait un stand au niveau 1 de l’exposition, stand mis à sa disposition par le Cigré dans le cadre d’un échange Presse. Ce fut l’occasion de nombreux contacts contribuant à ac- centuer le rayonnement de notre association au sein d’une com- munauté d’importance majeure, à un moment où la SEE renforce ses interactions avec le Cigré et son comité national français (Cf. le compte rendu du Conseil d’administration SEE ci-dessous). En conclusion la 46e session du Cigré a relevé cette fois encore le défi de réunir en France au cours d’une manifestation très réussie et capitale pour les professionnels du monde des réseaux élec- triques, les meilleurs spécialistes venus du monde entier confronter leurs expériences respectives dans la gestion et l’optimisation des réseaux électriques. 1 Rappelons que M. Froehlich a donné une interview exclusive à la REE que nous invitons le lecteur à relire dans le précédent numéro de la revue (2016-3 pp. 19-21). Le stand de la SEE à l'exposition du Cigré 148 REE N°4/2016 SEE EN DIRECT Conseil d’administration de la SEE 1er septembre 2016 - Paris Le Président François Gerin ouvre la séance à 9 h 05. 13 membres du Conseil sont présents dans la salle et 4 autres membres participent par téléphone. 9 pouvoirs ont été reçus, le quorum est donc atteint. 1- Approbation du compte rendu du CA du 24 juin 2016 : adopté à l’unanimité 2- Liste du CA et cooptation d’administrateurs Le Conseil comporte à ce jour 31 membres, suite à la démission de Christian Aucourt, dont le mandat se terminait en 2017. Il est pro- posé au Conseil de coopter sur le poste libéré, M. David de Almeida, Chef du département « Modélisation et Expérience Voyageur » à SNCF Innovation & Recherche. Cette désignation permettrait de conserver au Conseil un représen- tant de la SNCF, Entreprise partenaire, après le départ de Patrice Aknin. Le mandat de M. de Almeida se terminerait en 2017, mais il pourra se présenter à l’élection 2017 pour un mandat normal de trois ans. Cette cooptation est adoptée à l’unanimité. Il pourra être proposé ultérieurement, selon les disponibilités, les cooptations de Philippe Gaucher et Jean-Claude Vannier (tous deux de Centrale-Supélec) qui souhaitent poursuivre les actions vers les jeunes, entamées lors de leur précédente participation au Conseil. 3- Organisation du bureau et élection des membres complétant le bureau La proposition de composition du Bureau est la suivante : - Président : François Gerin - Secrétaire : Catherine Mancini1 - Trésorier : Michel Dupire - Vice-président, animateur des Clubs Techniques : Jean-Luc Leray - Vice-président , animateur des Groupes Régionaux : Patrick Leclerc - Vice-président, Président du Conseil Scientifique et Technique : Bruno Meyer - Président du Comité des Conférences et Congrès : Florent Christophe - Président du Comité de Rédaction REE : Jean-Pierre Hauet - Responsable des actions « jeunes et écoles » : Pierre Rolin - Animatrice du Cercle des Entreprises : Suzanne Debaille Invités : - Secrétaire général : Jacques Horvilleur (invité permanent) - Président du Comité Distinctions et Grades : François Le Chevalier - Président du Comité Web : Patrice Collet François Gerin en tant que Président et Patrick Leclerc en tant que Vice-président des Groupes Régionaux ont déjà été élus lors du Conseil du 24 juin 2016. 1 Coopérant avec Pierre Rolin pour les actions « jeunes et écoles ». Les autres personnes sont proposées pour élection selon la liste ci-dessus. Cette élection est adoptée à l’unanimité. 4. Tableau de bord de la SEE Michel Dupire présente le tableau de bord. La situation financière est difficile, toujours très dépendante du calendrier des congrès, avec une diminution des rentrées en 2016. Le plan d’actions destiné à améliorer le résultat net est piloté par Michel Dupire avec Jacques Horvilleur. Il est nécessaire de réduire les charges externes, avec notam- ment un meilleur travail préparatoire sur le coût des congrès. Il faut reprendre la bonne pratique de l’examen des budgets prévi- sionnels. Nécessaire également de renforcer les manifestations des GR et CT et de renverser la tendance à la baisse des adhésions (hors gratuites) : c’est la base de l’action d’animation de la communauté scientifique et des groupes régionaux. Michel Dupire rappelle l’inté- ressement des GR à ces deux actions, associé à un dispositif de soutien en trésorerie par le Siège. L’évolution du nombre des adhésions individuelles montre une croissance soudaine mi-2016 qui correspond à l’inscription de 200 adhésions d’étudiants à titre gratuit suite à l’action particulière en- treprise en direction des jeunes au printemps via les écoles et la CNJE. Cette évolution doit être poursuivie dès cette nouvelle année universitaire, tout en visant à transformer un maximum d’adhésions d’étudiants de l’année écoulée en adhésions « jeunes actifs » lors de leur entrée dans la vie professionnelle. 5. Plan de développement de la SEE ; mesures de redressement économique à court terme. Augmentation des recettes. Adhésions : relances jeunes ; actions des GR Catherine Mancini présente une proposition de signature de convention avec les écoles, pour mieux faire connaître la SEE et intéresser tant les enseignants que les élèves de dernière année ou des cycles Master et Master Pro avant qu’ils entrent dans la vie professionnelle. C’est également une opportunité de recettes à court et moyen terme. Cette convention est inspirée de celle que la SEE a signée avec l’école ECAM-EPMI (basée à Cergy-Pontoise) en avril dernier. Le rôle clé des GR, grâce à leurs contacts avec écoles et entre- prises, est réaffirmé. Une liste des écoles à prospecter et d’administrateurs volontaires pour les démarcher en s’appuyant sur une convention-type, est éta- blie en séance. Il serait souhaitable d’organiser à l’occasion de ces démarches une intervention en amphi. Il pourrait être intéressant d’organiser en complément un chal- lenge sur un thème donné, en association avec des entreprises, qui permettrait de détecter des talents (challenge ouvert ou restreint aux écoles ayant signé une convention). REE N°4/2016 149 SEE EN DIRECT Il est suggéré de se rapprocher des associations d’anciens élèves qui sont demandeurs pour des sujets d’animation (prêts de salles possibles). Il est important de mettre en place un système d’adhésion avec suivi des étudiants à l’entrée dans la vie active. Attention au taux d’at- trition constaté à la fin des études. Pour en limiter l’effet, proposer une adhésion gratuite aux élèves de cycle ingénieur/Master /Master Pro pour le reste de l’année 2016 dans le cadre de cette convention. Publications Une action est menée en vue du déstockage des numéros anciens. La REE est de plus en plus visitée sur le web. En revanche la publici- té est très insuffisante en volume. Des compétences sont recherchées pour recueillir des pages de publicité liées aux dossiers prévus, en par- ticulier des publi-rédactionnels et pour poster de la publicité sur le site SEE. Un partenariat avec une Junior Entreprise est une piste à explorer. On pourrait envisager enfin de créer une rubrique permanente dans la REE sur la sortie de nouveaux produits, comme cela se pra- tique souvent dans des revues comparables. Partenaires entreprises : adhésions SEE et/ou Cercle des entreprises ; cas des PME-PMI - Adhésions entreprises De nouvelles adhésions ont été enregistrées représentant près de 900 salariés mais cela ne compense pas la défection (totale ou partielle) de certaines entreprises associées traditionnelles ; Le président insiste sur l’importance d’un lien direct entre les ad- ministrateurs et les entreprises partenaires, acteurs clé de la SEE. Afin de fidéliser ces dernières, il est nécessaire de disposer d’un kit sur les droits d’accès des salariés bénéficiant d’une adhésion entreprises : tarifs privilégiés sur certaines manifestations, revue en ligne, réduc- tion sur le coût de la publicité, soirées d’études y compris en régions. L’objectif affiché par le président est de doubler le montant des recettes annuelles. Une première liste d’entreprises ou institutions à prospecter et de volontaires associés pour cette démarche est établie en séance. Elle sera à compléter. Une suggestion est faite de faire souscrire des adhérents “per- sonnes morales”, possibilité prévue aux statuts mais non exploitée, à la place de la procédure actuelle des conventions avec les entre- prises partenaires, ce qui donnerait plus de souplesse et de conti- nuité à la coopération. - Cercle des Entreprises La proposition tarifaire 2017 pour être membre du CdE est ac- ceptée. Le lancement d’un 3e GT prévu sur les véhicules connectés, voire autonomes, est toujours à l’ordre du jour. L’intérêt d’un des participants est confirmé en séance et Christel Seguin est mandatée pour lancer ce nouveau GT. C3 : Congrès, Conférences et autres manifestations Florent Christophe présente la vue pluriannuelle de ce chapitre important des activités. Christel Seguin témoigne de la démarche complémentaire de vul- garisation (soirées) et de formation grâce à EuroSAE, sur des thèmes d’actualité, de manière identique au fonctionnement d’un CT. L’approche régionale est essentielle, combinée avec celle des CT : Florent Christophe rappelle la nécessité que tous les CT et le GR contribuent en 2017 à l’organisation de manifestations, comme indiqué dans les transparents présentés. Le contact a été repris avec l’IEEE pour définir un programme de manifestations communes. Une présentation des nouveaux CT sera programmée lors d’un CA fin d’année. De même il est prévu une présentation réciproque des CT de la SEE et des comités du Cigré, le 22 novembre prochain. Opérations avec Grandes écoles et universités (incluant des synergies avec CNF Cigré) Patrick Leclerc présente les exemples de coopération avec cer- taines grandes écoles et le CNF Cigré. A titre d’exemple, l’organisation d’une journée d’études à Lyon sur les « Réseaux Electriques et Super- grid » le 12 octobre 2016 est mentionnée. Un projet similaire est pré- vu en novembre 2016 sur Grenoble avec ENSE3 (INPG) et SIEMENS. La déclinaison de cette démarche est envisagée dans les autres GR, dans les sièges de grandes villes. La valorisation de ces mani- festations devra trouver sa place dans les publications du Cigré et de la SEE. Le principe d’un échange mensuel avec le CNF Cigré a été re- tenu en vue de partager le plan de manifestations à 6 mois et les possibilités d’événements communs. Réduction des dépenses : optimisation des m² Le déplacement des bureaux de la SEE au sein de l’Espace Hamelin est en cours de préparation. Il devrait s’accompagner d’un déménagement des archives actuellement stockées à Asnières vers les sous-sols de l’Espace Hamelin ce qui permettra de réaliser une économie annuelle significative. 6. Aspects stratégiques Le rapprochement avec le CNF Cigré prévoit un scénario en 3 phases. La phase 1 de collaboration est déjà lancée. Les phases 2 de mutualisation et 3 d’hébergement sont actuellement en cours de définition avec le CNF du Cigré. Un audit a été lancé pour pré- parer l’évolution éventuelle des statuts dans le contexte du rappro- chement avec le CNF Cigré et de renforcement de l’organisation des partenaires de Jicable. L’audit analysera finement la distinction entre services vers les membres ou des tiers et actions d’intérêt général, aux plans juridique et fiscal. La Vision SEE 2020 est à construire pour planifier les années 2018 et au-delà. L’implication des administrateurs sera décisive pour ce développement. Conclusion Le Président remercie les administrateurs pour leur participa- tion active et compte sur leur engagement pour mener à bien les actions décidées, avec le soutien actif et attentif du Bureau et une démarche PDCA rendue plus efficace grâce au nouveau tableau de bord. François Gerin clôture la réunion du Conseil à 12 h 35. 150 REE N°4/2016 SEE EN DIRECT Prop’élec 2016 Date : 23-24 novembre 2016 - ECAM-EPMI Cergy Pontoise (France) Renouant avec une initiative antérieure, l’ECAM-EPMI orga- nise en partenariat avec la SEE un colloque de deux jours dans les locaux de l’Ecole à Cergy-Pontoise centrée sur les techno- logies de la propulsion électrique. Cette manifestation se veut également un rendez-vous et un forum de rencontres entre responsables de la recherche, de l’exploitation et des industries du secteur. Thèmes traités : A l’occasion du colloque, deux plates formes techniques déve- loppées sur place par l’ECAM-EPMI seront ouvertes aux participants. Conférence > La cybersécurité des réseaux électriques intelligents (REI) Date : 25 novembre 2016 - Rennes (France) Cette conférence entre dans le cadre plus général de la semaine de la cybersécurité (21-25 novembre). Organisée à l’initiative de la SEE, cette Journée REI s’attachera à faire le point des derniers développements dans le domaine de la cybersé- curité des réseaux électriques intelligents, notamment à partir des premiers retours d’expérience du terrain, en France et à l’étranger, des évolutions de la technique, des normes et des certifications de matériels. Un accent particulier sera mis sur la résilience des REI. Demi-journée d’études > Claude Elwood Shannon : le jongleur de l’électronique et des mathématiques Date : 14 décembre 2016 (après-midi) - Paris, Espace Hamelin Dans le cadre du Cercle histoire, la SEE organise une demi- journée consacrée à Claude Shannon à l’occasion du centième anniversaire de sa nais- sance. A la fois mathéma- ticien et ingénieur, Claude Shannon a formalisé de manière rigoureuse et générique la transmission d’ informations. Ses articles sur le cryptage et l’échantillonnage ont marqué des générations de mathématiciens et ingénieurs et ont eu une profonde in- fluence sur l’ensemble des techniques numériques qui se sont développées à partir des années 60. La demi-journée mettra en perspective sa vie et ses travaux au MIT et aux Bell Labs et l’importance historique que son œuvre a représentée dans l’histoire de l’informatique, de l’électronique et des communica- tions, sans oublier son incursion pertinente dans la génétique. Shannon a aussi marqué les sciences humaines et l’épistémolo- gie par son interprétation de la notion d’entropie. La demi-journée sera organisée autour de quatre présenta- tions et une table ronde. Conférence > MEA’17 - More Electric Aircraft Date : 1-2 février 2017 - Bordeaux (France) The aviation industry has seen a trend for greater electri- cal power requirements for aircraft systems. However, tech- nology has progressed to the point where some light piloted aircrafts are already battery powered, and it is envisioned that future larger aircraft will, to various degrees, be electri- cally powered. Following the successful European conference held in Toulouse in February 2015 with more than 100 focused pre- sentations, the organisers of MEA2017 invite industry and re- search representatives to contribute to this new exciting edi- tion in Bordeaux, and prepare to share ideas, lessons learnt and solutions relating to technological developments as well as future concepts associated to more/all electrical aircraft. Main themes: than air, either for commercial, military or private use; - craft dismantling; - tive and incremental improvements of related technolo- gies. MANIFESTATIONS SCIENTIFIQUES PROCHAINEMENT ORGANISÉES PAR OU EN PARTENARIAT AVEC LA SEE Pour toute information concernant l'une de ces manifestations prière de vous adresser à : congres@see.asso.fr REE N°4/2016 151 SEE EN DIRECT Conférence > ICOLIM - International Conference on Live Maintenance Date : 26-28 avril 2017 - Strasbourg (France) From 1992, the Live Working Association (LWA) has organized conferences for experts dealing with the development and imple- mentation of live work technology. At the ICOLIM 2014 conference (Budapest, Hungary), the French representation made a commit- ment to organize the 12th ICOLIM conference with the following partners: TSO (RTE), DSO (ERDF, ES) and the Electricity and Elec- tronics Society (SEE). The 12th conference will be held on 26-28 April, 2017 in Strasbourg at the Convention and Exhibition Center. Topics: Deadlines: Full paper submission: Friday, 28 October, 2016 Notification of acceptance: Friday, 13 January, 2017 Opening registration: Friday, 2 September 2016 Early bird registration: Friday, 17 February, 2017 Pour en savoir plus : www.icolim2017.org Adresse : info@icolim2017.org Conférence > European Test and Telemetry Conference (ETTC 2017) Date : 13-15 juin 2017 - Toulouse (France) La 31e édition d’ETTC fournira l’occasion aux ingénieurs et scientifiques de présenter et discuter les derniers développe- ments dans les méthodes de test et équipements pour les sys- tèmes de transport aéronautique, spatial et terrestre. Thèmes : Exposition : En appui de la Conférence, une exposition sera organisée pendant cet évènement. Elle permettra aux participants de faire des contacts utiles et illustrera la grande variété des dévelop- pements techniques intervenus dans les méthodes de tests et de mesures. Plus en savoir plus : www.ettc2017.org Être membre de la SEE c’est : Elargir votre réseau professionnel par la participation à des structures de réflexion adaptées (clubs techniques, groupes régionaux) Consulter et télécharger gratuitement les articles, dossiers ou numéros complets de la REE sur le site SEE, (rubrique e-REE) Tarifs préférentiels pour les Conférences et Journées d’études SEE : une ou deux inscriptions vous remboursent le prix de l’adhésion ! Réduction fiscale avec tarification attrayante pour les enseignants, les actifs de moins de 35 ans et les étudiants Adhérer en ligne : Renseignements sur le site www.see.asso.fr à la rubrique : adhérez à la SEE Pour plus d’informations, vous pouvez nous appeler au 01 5690 3717 ou 3709 ou 3704, nous serons heureux de vous présenter l’Association. Cher lecteur de la REE, avez-vous pensé à adhérer à la SEE ? Vous aimez notre Revue, vous allez adorer notre Association ! SEE - 17, rue de l’Amiral Hamelin - 75783 Paris cedex 16 - Fax : 01 5690 3719 www.see.asso.fr 152 REE N°4/2016 Impression : Jouve - 53100 Mayenne Dépôt légal : octobre 2016 Edition/Administration : SEE - 17, rue de l’Amiral Hamelin - 75783 Paris cedex 16 Tél. : 01 5690 3709 - Fax : 01 5690 3719 Site Web : www.see.asso.fr Directeur de la publication : François Gerin Comité de rédaction : Bernard Ayrault, Alain Brenac, Patrice Collet, André Deschamps, Jean-Pierre Hauet, Jacques Horvilleur, Marc Leconte, Bruno Meyer Secrétariat de rédaction : Alain Brenac, Aurélie Bazot-Courtoisier Tél. : 01 5690 3717 Partenariats Presse & Annonces : Mellyha Bahous - Tél. : 01 5690 3711 Régie publicitaire : FFE - Cyril Monod - Tél. : 01 5336 3787 cyril.monod@revue-ree.fr Promotion et abonnements : 5 numéros : mars, mai, juillet, octobre, décembre. Aurélie Bazot-Courtoisier - Tél. : 01 5690 3717 - www.see.asso.fr/ree Prix de l’abonnement 2016 : France & UE : 120 - Etranger (hors UE) : 140 Tarif spécial adhérent SEE : France & UE : 60 - Etranger : 70 Vente au numéro : France & UE : 28 - Etranger : 30 Conception & réalisation graphique JC. Malaterre - Tél. : 09 8326 0343 Impression : Jouve - 53100 Mayenne. Siège social : 11 Bd de Sébastopol - 75027 Paris cedex 1 Tél. : 01 4476 5440 CPPAP : 1017 G 82069 Copyright : Toute reproduction ou représentation intégrale ou partielle, par quelque procédé que ce soit, des présentes pages publiées faite sans l’autori- sation de l’éditeur, est illicite et constitue une contrefaçon. Toutefois les copies peuvent être utilisées après autorisation obtenue auprès du CFC - 20 rue des Grands Augustins, 75006 Paris (Tél. : 01 4404 4770) auquel la SEE a donné mandat pour la représenter auprès des utilisateurs (loi du 11 mars 1957, art. 40 & 41 et Code Pénal art. 425). La revue REE est lue par plus de 10 000 ingénieurs et cadres de l’industrie, dirigeants d’entreprises, directeurs des ressources humaines, formateurs... Profitez de ce lectorat ciblé et de qualité pour publier vos annonces. Répertoire des annonceurs Schneider Electric ............................................................................. C 2 LEM ................................................................................................... p. 3 SES Europe ................................................................................ p. 18-19 IFTEC ............................................................................................... p. 25 Prix Jean Jerphagnon ............................................................... ... p. 116 Smart City ........................................................................................... C3 GENERAL CABLE ............................................................................... C4 Prochains Grands Dossiers Dossier 1 : Enjeux d’un développement massif des EnR dans le système électrique européen du futur Dossier 2 : URSI France 2016 Une publication de la Entre science et vie sociétale, les éléments du futur 6 CLUBS TECHNIQUES Automatique, Informatique et Systèmes Ingénierie des Systèmes d’Information et de Communication Cybersécurité et Réseaux intelligents Radar, Sonar et Systèmes Radioélectriques Stockage et Production de l’Energie Systèmes Electriques 12 GROUPES RÉGIONAUX Conférences nationales et internationales Journées d’études thématiques Conférences-Débat Congrès internationaux, en partenariat ou non, avec d’autres sociétés scientifiques La SEE contribue à l’organisation et ses Groupes régionaux Grades Senior et Emérite SEE Prix : Brillouin-Glavieux, Général Ferrié, André Blanc-Lapierre, Thévenin Médailles : Ampère, Blondel La SEE récompense les contributeurs éminents au progrès des sciences et technologies dans ses domaines Revue de l’Électricité et de l’Électronique (REE) Revue 3EI Monographies Publications électroniques : SEE Actualités La SEE favorise le partage du savoir, et contribue aux débats sur des problèmes de société en éditant des revues La SEE fédère un vaste réseau d’experts universitaires et industriels en faveur des La SEE, société savante française fondée en 1883, forte de 2 000 membres, couvre les secteurs de l’Électricité, de l’Électronique et des Technologies de l’Information et de la Communication. Elle a pour vocation de favoriser et de promouvoir le pro- grès dans les domaines : Énergie, Télécom, Signal, Composants, Automatique, Informatique. SOCIÉTÉ DE L’ÉLECTRICITÉ, DE L’ÉLECTRONIQUE ET DES TECHNOLOGIES DE L’INFORMATION ET DE LA COMMUNICATION 17, rue de l’Amiral Hamelin - 75783 Paris cedex 16 Tél. : 01 56 90 37 09/17 - Fax : 01 56 90 37 19 www.see.asso.fr SALON DE LA VILLE ET DES TERRITOIRES INTELLIGENTS,DURABLESETCONNECTES Exposition – Conférences – Ateliers Smart networks for smart cities En parallèle de PARIS EXPO PORTE DE VERSAILLES PAVILLON 2.2 8 & 9 NOVEMBRE 2016 2 JOURS 15 CONFERENCES 10 ATELIERS 80 EXPOSANTS 4000 VISITEURS www.smartgrid-smartcity.com @salonsmartgrid Réservezdèsmaintenant votrebadgegratuitsur: www.smartgrid-smartcity.com GENERAL CABLE PROPOSE UNE GAMME DE PRODUITS VARIÉS Nous avons la capacité de fournir des produits et solutions pour des applications très diverses allant de l’éolien au photovoltaïque, en passant par la marine, l’industrie et le nucléaire, etc... Nous mettons notre savoir-faire au service de vos besoins car notre mission est de faciliter votre travail. www.generalcable.com/eu GENERAL CABLE, LA DIVERSITÉ AU SERVICE DE VOS APPLICATIONS INFRASTRUCTURE TRANSPORT INDUSTRIEL

Creative Commons Aucune (Tous droits réservés) Aucune (Tous droits réservés)
contenu protégé  Document accessible aux visiteurs enregistrés - vous devez vous connecter ou vous enregistrer pour accéder à ce ce document

REE N°4/2016 131 Président de l’Académie des technologies ENTRETIEN AVEC ALAIN BUGAT REE : Alain Bugat, vous êtes président de l’Académie des technologies, pourriez-vous nous présenter cette institution ? Alain Bugat : L’Académie des tech- nologies est en France, en particulier au regard de ses consœurs de l’Insti- tut de France, la plus jeune des acadé- mies ; mais c’est loin d’être le cas dans le monde où de nombreuses institu- tions ont été créées depuis longtemps pour reconnaitre et mettre en valeur le domaine des technologies (ou ”engi- neering“). En France, il a fallu attendre le 12 décembre 2000 pour que le CADAS (Conseil des applications de l’Académie des sciences) soit transformé en Acadé- mie des technologies, à l’époque sous forme d’association. Le 6 décembre 2006, l’Académie a acquis le statut d’établissement public à caractère administratif national et le 22 juillet 2013 elle a été placée, par la loi relative à l’enseignement supérieur et à la recherche, sous la protection du Pré- sident de la République. L’Académie des technologies est au- jourd’hui financée pour l’essentiel par le budget de l’Etat ; son ministère de tutelle est le ministère chargé de la recherche. Un Fonds de dotation lui est associé afin de pouvoir mobiliser plus facilement des financements d’origine privée et nous réfléchissons à l’évolution de ce dernier vers un statut de fondation,. Les académiciens, au nombre de 304, ne sont pas rémunérés. La limite d’âge pour le statut de membre titulaire est de 72 ans. Au-delà, les membres deviennent émérites. Nous avons dans notre assemblée une large proportion de membres ayant une expérience in- dustrielle afin de bien coller à notre mis- sion principale qui est de conduire des réflexions, formuler des propositions et émettre des avis sur les questions rela- tives aux technologies et à leur interac- tion avec la société. Notre mission n’est donc pas de nous substituer aux organismes ayant la recherche et le développement comme vocation principale mais de nous focali- ser sur les problèmes liés à l’interaction entre les technologies et la société : comment les technologies nouvelles peuvent-elles être acceptées, comment mieux les utiliser, quelles opportuni- tés peuvent-elles offrir et quels risques peuvent-elles présenter ? Les sciences humaines et sociales jouent donc un rôle important dans nos réflexions, dans nos travaux et donc aussi dans notre recrutement et nous trouvons au sein de l’Académie, des psycholo- gues, des urbanistes, des architectes… Nous essayons d’avoir sur chaque sujet une approche pluridisciplinaire fondée sur des regards croisés. REE : Quels sont ses principaux thèmes de réflexion actuels ? A. B. : Nous travaillons par commissions thématiques qui sont au sein de l’Aca- démie des structures pérennes. Cette approche par commissions est complé- tée par des groupes de travail transver- saux. A la fin du travail en commission, un rapport et un avis sont produits et vo- tés par l’Académie après avis du Comité qualité. Nous essayons de nous appuyer sur notre expertise collective et indé- pendante pour produire des rapports aussi objectifs que possible, à l’abri des passions et de la mode. Nos rapports sont en outre relus par la commission d’éthique avant leur adoption. Aujourd’hui, le changement clima- tique, sur lequel nous avons publié un important rapport en novembre 2015 dans le cadre de la préparation de la COP21, reste un sujet important. Nous achevons la préparation d‘un nouveau rapport sur « Les technologies et le chan- gement climatique : des solutions pour l’atténuation et l’adaptation ». Un deuxième thème est celui des services urbains et de l’évolution du rôle des opérateurs. Le troisième thème a trait aux proces- sus de développement associant, à l’ère du numérique, innovation/création de start-up/croissance/emploi. Ce sera le thème du séminaire 2016 de l’Académie. Le quatrième thème est celui du “soft power” pour lequel il nous semble indispensable de renforcer le capital fran- çais. Le soft power se définit comme la capacité de séduire ou de persuader sans faire usage de la force ou de la menace. Cette influence s’exerce notamment par la culture qui est la fois « héritée » (c’est le patrimoine culturel et artistique) et « vivante » (c’est la partie qui relève de la créativité contemporaine). La culture vivante prend appui sur la culture héritée mais elle doit évoluer et se renouveler pour faire vivre des activités économiques très importantes pour notre pays telles que le tourisme et la mode. Or ces activités sont de plus en plus menacées par la concurrence d’autres pays, en particulier anglo-saxons, qui veulent par exemple remettre en cause le rôle de leaders que jouent les places Les technologies existent, il faut savoir les utiliser L’Académie des technologies : Pour un progrès raisonné, choisi et partagé 132 REE N°4/2016 de Paris et de Milan dans le domaine de la mode et plus généralement la posi- tion dominante acquise par la France dans l’industrie du luxe. Il faut donc faire preuve d’imagination et susciter de nou- velles initiatives. Un autre très grand thème est celui de l’industrie du futur que nous abor- dons en coopération avec le Conseil général de l’économie, avec notamment pour ambition de combler les lacunes dans les filières de formation et d’adap- tation aux nouveaux métiers. Sans vouloir être exhaustif, je men- tionnerai également nos travaux sur le séquençage génomique et le domaine des soins à domicile : la domo-médecine. REE : Vous avez préfacé le dernier rapport sur les Technologies-clés 2020 dont notre revue s’est faite l’écho dans son précédent numéro. On en recense 47. Cela fait beaucoup. Quelles sont selon vous les techno- logies véritablement structurantes et qu’il nous faut absolument maîtriser ? A. B. : Il y a effectivement beaucoup de technologies aujourd’hui en déve- loppement et il est très difficile d’iden- tifier celles qui pourront avoir un impact aussi majeur que celles que nous avons connues dans les années 1990. Il faut se méfier de la mode et de l’amplification que génère la multiplication des moyens d’information. Ainsi le stockage de l’électricité est-il un sujet d’actualité. Mais de quel stoc- kage parle-t-on : journalier, hebdoma- daire, saisonnier ? Les technologies sont tout à fait différentes. Il y a des appli- cations potentielles intéressantes mais ne parlons pas de révolution. A terme cependant, je pense que l’hydrogène est un vecteur qui peut se révéler comme technologie disruptive. Pour rester dans le secteur de l’éner- gie, je conseillerais de porter davantage d’attention aux SMR (Small Modular Reac- tors). Le nucléaire traverse une passe dif- ficile. Il est possible que l’ère des grands réacteurs soit, dans beaucoup de pays, derrière nous. Lee petits réacteurs, her- métiquement scellés, peuvent constituer une réponse appropriée aux besoins de nombreux pays. Il me semble dommage que la France n’ait pas encore vraiment pris la mesure de cet enjeu. Bien entendu les technologies de l’in- formation continuent à revêtir un intérêt primordial, sous différents aspects : le traitement des données massives, l’intel- ligence artificielle avec l’émergence de nouveaux procédés d’apprentissage et la modélisation des mécanismes du cer- veau. La France a la possibilité de revenir dans le jeu des moteurs de recherche et des systèmes d’exploration des grandes bases de données. Les techniques de communication sécurisée sont essentielles au regard des risques toujours grandissants de cyberattaques. Au niveau des matériels, le déve- loppement de supercalculateurs est un domaine où nous avons des atouts. Il faut les valoriser. La nanoélectronique est également un enjeu important : les techniques de gravure semblent encore à même de suivre la loi de Moore ; pour les matériaux, c’est plus difficile, il y a du chemin à faire. REE : Pensez-vous que le rythme d’évolution des technologies se soit accéléré ? A. B. : Oui, j’en ai le sentiment. Il y a de plus en plus de gens qui s’investissent dans le domaine de la recherche. Regardez par exemple le challenge 2016 d’Atos sur la gestion des données personnelles en ligne et la protection du droit à l’oubli : il y a eu 53 réponses provenant de 19 pays qui ont proposé chacune un concept différent ! REE : Vous nous disiez plus haut qu’il fallait se méfier des modes. L’impor- tance du numérique est souligné dans toutes les analyses technico- économiques et l’on compare parfois son impact à celui de l’arrivée de l’électricité. Mais le numérique est souvent synonyme de destruction d’emplois et son impact sur le bien- être des gens peut être discuté. N’a-t-on pas tendance à surestimer son poids ou du moins son apport positif ? A. B. : Le numérique est une vraie révolution et son impact sur la vie des gens est et restera très fort. Bien sûr il y a une phase de destruction mais la phase créative est considérable. Son impact est encore aujourd’hui sous-es- timé, aussi bien sur l’emploi que sur la vie quotidienne. L’Académie pro- pose la création d’une Agence inter- nationale du numérique dont les deux missions essentielles seraient la pro- motion mais aussi le contrôle de ces technologies. Changement climatique, services urbains, numérique, soft power, industrie du futur… Petits réacteurs, hydrogène, supercalculateurs, intelligence artificielle, nanoélectronique… Le numérique est une vraie révolution REE N°4/2016 133 REE : La transition énergétique est une autre grande affaire du moment. Quelle en est votre définition ? Pensez-vous que les objectifs de notre loi de transition énergétique soient raisonnables et que nous soyons à même de les atteindre ? A. B. : La bonne échelle de temps n’est pas celle de la loi. Les dirigeants politiques comme l’homme de la rue sont toujours trop pressés. Il ne s’agit pas de ne pas réduire nos émissions de gaz à effet de serre. Mais pourquoi faut-il imposer des dates butoirs aussi rappro- chées ? Les politiques pensent pouvoir maîtriser l’échelle de temps mais il faut que les choses mûrissent. L’objectif de ramener la part du nu- cléaire à 50 % n’est pas choquant en soi, mais pourquoi vouloir le faire dès 2025 ? Cela n’est pas raisonnable. L’hori- zon 2050 me semble plus réaliste. Sur le photovoltaïque, on veut aller trop vite alors que l’on n’a pas le recul néces- saire, sur les coûts de maintenance des panneaux par exemple ou les coûts des moyens en back up pour compenser l’intermittence. On compare des choses stabilisées et validées avec des proces- sus qui sont encore en développement. Si les prix actuels se confirment, il y aura un processus de substitution naturelle et il n’y a pas besoin d’aller à marche forcée. Je répète que je crois également au fu- tur de l’hydrogène, pour la mobilité notam- ment. Bien entendu, il faudra le fabriquer mais il existe des possibilités très intéres- santes de conversion de la biomasse, par exemple par des réactions qui s’apparentent à celles des procédés Fischer-Tropsch. A plus long terme, la fusion thermo- nucléaire offre des perspectives fon- damentales. Il n’y a pas de problèmes physiques majeurs à résoudre sur ITER qui est un très grand projet de recherche. Mais c’est un projet complexe, compte tenu notamment de sa structure interna- tionale, dont la gestion est difficile1 . 1 NDLR : Le lecteur pourra se référer au dos- sier sur la fusion thermonucléaire et ITER publié dans le présent numéro. REE : L’inventaire des technologies- clés n’a pas retenu la maîtrise du climat comme domaine applicatif à part entière. Quel est votre avis sur « l’urgence climatique » et les meil- leures façons d’y faire face ? Pensez-vous que l’Europe et la France en particulier ont raison de se poser en leaders dans ce domaine ? A. B. : L’Académie des technologies s’est penchée sur le problème du climat. Elle ne met absolument pas en cause les conclusions du GIEC, il n’y a pas de discussion sur ce point. On a regardé également le problème des effets du réchauffement et nous allons faire une série de recommandations. Notre sentiment est que le sujet est très important mais qu’il ne faut pas agir dans la précipitation. Nous ne sommes pas très convaincus par des objectifs dits « volontaristes » tel que le respect du fac- teur 4 en 2049. Par contre, la limitation moyenne à 2 °C fait sens. Nous pensons qu’elle résulte de modèles auxquels on peut faire confiance. REE : La mobilité est un sujet d’intérêt fondamental pour tous les citoyens. Comment voyez-vous évo- luer, et à quelle vitesse, les moyens que nous utilisons actuellement, les automobiles en particulier ? A. B. : Je pense que le véhicule élec- trique a cette fois véritablement démar- ré. Le mouvement est lancé et de plus en plus de parties prenantes y adhèrent. Le véhicule autonome est un autre challenge : on y va mais il y aura plu- sieurs stades, l’évolution se fera de fa- çon progressive avec de plus en plus de fonctionnalités installées, comme on l’a constaté au cours des dernières décen- nies lorsqu’il s’est agi de moderniser les métros. Mais je doute que le curseur aille jusqu’au bout, c’est-à-dire un véhicule to- talement autonome ; cela pose en effet un ensemble de problèmes qui ne sont pas seulement techniques et risquent de soulever pas mal de réticences de la part des populations concernées. REE : On a vu apparaître, en France comme ailleurs, un certain nombre de peurs : sur les déchets nucléaires, les ondes électromagnétiques, les nanoparticules, les OGM… qui entravent le développement de nouvelles technologies. Ne pensez- vous pas qu’il serait temps de reconsi- dérer le principe de précaution ? A. B. : Nous avons fait sur le sujet un travail il y a trois ans environ. Nos conclu- sions n’allaient pas dans le sens d’un abandon de ce principe qui, s’il était utilisé conformément à l’article 5 de la charte de l’environnement, répondrait à une préoccupation légitime. Malheureu- sement, son interprétation a été souvent dévoyée et orientée dans un sens néga- tif alors que le principe de précaution Ramener le nucléaire à 50 % n’est pas choquant mais vouloir le faire dès 2025 est déraisonnable Le changement climatique est un défi majeur mais il n’y a pas lieu d’agir dans la précipitation Le véhicule électrique a cette fois démarré 134 REE N°4/2016 est dans sa version constitutionnelle un principe d’action. Nous avons été sollicités plus récem- ment sur l’opportunité qu’il y aurait à introduire un « principe d’innovation » qui contrebalancerait le principe de pré- caution. Nous en avons discuté avec les autres Académies au sein de l’Observa- toire de l’expertise et nous avons conclu qu’il serait inapproprié d’inclure dans la Constitution un deuxième principe. Ce qui serait plus important serait de définir les conditions d’application du principe de précaution. Celles-ci devraient notamment prévoir une éva- luation du coût de l’inaction, de façon à prévenir une application excessive et stérilisante du principe de précaution. Nous restons en veille active sur ce thème, il faut préparer le terrain et sai- sir les opportunités pour agir le moment venu mais nous n’irons pas jusqu’à pro- poser un texte de loi. REE : Le problème est que la parole des experts – y compris celle de l’Académie – n’est plus crue. Com- ment pourrait-on redonner à la science et à la technique leurs lettres de noblesse ? A. B. : Nous proposons d’agir sur plusieurs fronts avec plusieurs leviers : 1. Faire en sorte que les avis, et les nôtres en particulier, soient issus de processus transparents, collectifs et indépendants ; 2. Comprendre pourquoi la société éprouve un tel scepticisme : méfiance envers les experts dont les avis sont contradictoires, aspects psycho-so- ciaux… On croit davantage ceux qui jouent sur les peurs, il faut donc cher- cher à rassurer et à convaincre par des arguments objectifs et compré- hensibles ; 3. Etre davantage présent dans les mé- dias, l’Académie s’y emploie ; 4. Etre également présent au niveau des universités et des écoles mais c’est une tâche de longue haleine. A ce stade je voudrais indiquer ma conviction profonde que le processus de débat public est dans notre pays inadapté. Les débats nationaux n’abou- tissent à rien et parfois sont même dans l’impossibilité de se tenir. Je préconise une approche en deux étapes, voisine du modèle anglo-saxon : une réflexion préliminaire très ouverte sur un sujet donné ; dans lequel les Autorités font des propositions sur la base de la matière collectée dans le Livre vert, lesquelles seront reprises et mises en forme dans un projet de loi, s’il y a lieu. Si l’on procède ainsi, il devient plus difficile aux « experts indépendants auto- proclamés » de faire de l’obstruction en donnant au public l’illusion du savoir. REE : Pensez-vous que nous soyons aujourd’hui organisés pour rester aux avant-postes de la course techno- logique? Le dispositif de formation est-il suffisant et efficace ? Beaucoup d’étudiants ou d’ingénieurs quittent la France et n’y reviennent pas. A. B. : On peut être légitimement pré- occupé par notre perte de savoir-faire sur le management des grands projets et les exemples ne manquent pas, de- puis l’EPR jusqu’à la Philharmonie de Paris. Nous avons été excellents mais aujourd’hui nous avons perdu une partie de notre crédit. Pourtant nos ingénieurs sont recon- nus comme très employables, grâce à leur formation, dans leur domaine mais aussi grâce à une ouverture d’esprit as- sez large qui leur a été donnée au cours de leur formation. Le domaine d’action privilégié par l’Académie est celui allant de Bac -3 à Bac+3. C’est aujourd’hui la tranche la plus utile pour faire redémarrer notre industrie et nos préconisations vont dans le sens d’un renforcement des filières alternance et apprentissage. Ce sont à ces tranches d’âges qu’il faut redonner l’esprit d’initiative et la confiance dans notre avenir industriel. REE : Mais on a l’impression qu’il ne s’agit pas seulement d’un problème humain mais aussi de problèmes structurels rendant difficile le lance- ment de nouvelles initiatives. A. B. : C’est vrai nos entreprises ont beaucoup de mal à se développer. Clai- rement, les banques ne font pas leur travail. Nous avons fait des propositions sur la réorientation des fonds collectés par l’assurance-vie. Mais le problème est que les opérateurs du système financier appliquent des méthodes et des règles qui tuent le développement industriel. Dans le domaine de la santé, nous essayons de promouvoir la création et le développement de start-up grâce à des holdings intermédiaires dotés de fonds de développement. REE : L’Union européenne est cen- sée jouer un rôle important dans la promotion de la recherche et des Il faudrait définir les conditions d’application du principe de précaution Le processus de débat public est à revoir REE N°4/2016 135 technologies nouvelles. Remplit- elle aujourd’hui correctement son rôle ? A. B. : J’ai une vision assez positive de l’action de l’Union européenne en ma- tière de développement technologique. L’Académie reste proche des décideurs de l’Union en matière de R&D notam- ment via Euro-Case, un interlocuteur écouté de la Commission européenne qui regroupe 22 académies euro- péennes des sciences et technologies. On perçoit bien la lourdeur des procé- dures mises en place mais il y a des ini- tiatives de qualité et de bons projets qui émergent. Les plates-formes technolo- giques et les JV associées fonctionnent, je crois, bien. Horizon 2020 est peut-être trop axé sur les problèmes sociétaux pour être moteur de la recherche mais ce qui nous gêne le plus, c’est la propension des dé- cideurs de ces programmes à privilégier in fine les travaux amont comme c’est le cas en France pour l’ANR. Il faudrait aller davantage vers les produits nouveaux, les démonstrateurs, les opérations-pi- lotes et privilégier les plates-formes in- dustrielles. Propos recueillis par Jean-Pierre Hauet et Alain Brenac Alain Bugat a été directeur adjoint des essais nucléaires de 1984 à 1989, directeur des technologies avancées de 1992 à 1999 et administrateur général du Commissariat à l’énergie atomique de 2003 à 2009,. Il fonde en 2009 NucAdvi- sor, société dédiée au conseil, à l’expertise et à l’assistance à maîtrise d’ouvrage pour les grands programmes nucléaires. Alain Bugat a été élu président de l’Académie des technologies le 1er janvier 2015 pour un mandat de deux ans.

Creative Commons Aucune (Tous droits réservés) Aucune (Tous droits réservés)

REE N°4/2016 143 LIBRES PROPOS Pr William Dab Chaire d’Hygiène et sécurité, Cnam S ocrate, comment vas-tu t’y prendre pour chercher une chose dont tu ne sais absolu- ment pas ce qu’elle est ? Quel point particu- lier entre tant d’inconnus proposeras-tu à ta recherche ? Et à supposer que tu tombes par hasard sur le bon à quoi le reconnaîtras-tu puisque tu ne le connais pas ? [Platon, Ménon]. Je plaide coupable : en 2005, alors que j’exerçais les fonctions de directeur général de la santé, j’ai eu à prendre position sur le projet de Charte de l’Environne- ment aujourd’hui adossée à la Constitution. L’article 5 de cette Charte stipule : « Lorsque la réalisation d’un dom- mage, bien qu’incertaine en l’état des connaissances scientifiques, pourrait affecter de manière grave et ir- réversible l’environnement, les autorités publiques veil- lent, par application du principe de précaution et dans leurs domaines d’attributions, à la mise en œuvre de procédures d’évaluation des risques et à l’adoption de mesures provisoires et proportionnées afin de parer à la réalisation du dommage ». J’ai soutenu cette rédaction et je ne le regrette pas. Notre pays a plus souffert d’un déficit de précaution que de ses excès. Pour dire le vrai, cette formulation qui était le fruit d’un laborieux compromis politique sans lequel elle n’aurait pas pu être adoptée, ne m’apparaissait pas idéale pour trois raisons. La première est qu’à y regarder de près, ce principe n’est pas réellement défini. La deuxième est que le texte parle de mesures « proportionnées » alors même que l’idée de précaution concerne l’action sous incertitude, d’où la question évidente : proportionnée à quoi ? Et la troisième raison est que les modalités d’ap- plication de ce principe ne sont pas définies. Cependant, deux arguments ont prévalu dans ma prise de position. Le premier est que le principe s’adres- se aux autorités publiques. C’est un principe de politique publique, alors même que les grandes crises de sécu- rité sanitaire des 30 dernières années montraient que le ministère de la santé n’était doté ni d’une doctrine claire d’action ni de moyens suffisants pour prendre à temps les décisions permettant de limiter les risques sanitaires. Mais contrairement à ce que l’on lit ici ou là, ce principe ne change pas directement les responsabilités civiles et pénales des acteurs économiques et des entreprises. Le deuxième argument décisif est qu’en situation d’incerti- tude, la Charte de l’environnement prescrit d’évaluer les risques. Non seulement, il ne s’agit donc pas comme l’af- firment certains d’un principe antiscientifique, mais c’est au contraire un appel à la science pour réduire le plus possible l’incertitude sur l’existence ou la gravité des ris- ques. Sachant qu’effectivement, si on exige d’avoir toutes les preuves disponibles avant d’agir, nous pouvons mettre en péril l’existence même de la vie sur Terre. Au demeurant, la nécessité d’agir avant qu’il ne soit trop tard n’est pas une nouveauté et elle existe dans de nombreux textes internationaux depuis le principe 15 de la Déclaration de Rio en 1992, suivi du traité d’Amster- dam (article 174) de l’Union européenne. Mais en France, la question a pris une ampleur particulière à la suite du triple choc qu’ont été la transmission transfusionnelle du sida, Tchernobyl et la vache folle. C’est-à-dire trois affaires de sécurité sanitaire dans lesquelles il y a eu au départ une dénégation du risque et par conséquent, dans un mouvement de balancier dont notre pays est coutumier, cette situation a créé un excès d’alarmisme. Convoquer un principe sans le définir précisément et sans que son application opérationnelle ne soit pré- cisée, s’apparente plus à une pétition de principe, voire à une illusion politique, plutôt qu’à une réelle volonté de protéger la santé et l’environnement. La France ex- celle dans la rédaction de principes comme si leur seul énoncé suffisait à changer la réalité. Et inévitablement, puisque l’on reste dans l’abstrait et dans le théorique, les passions se déchaînent. On ne réfléchit pas à la manière d’appliquer ce principe le plus intelligemment possible. On est pour, on est contre et on s’invective dans un affrontement binaire qui laisse l’opinion incrédule ce qui accroît sa méfiance dans le fait que lorsque la protection de la santé met en cause des intérêts économiques, Le principe de précaution : une passion française 144 REE N°4/2016 LIBRES PROPOS celle-ci sera sacrifiée. Or, l’objectif du président Chirac était de favoriser le retour de la confiance en matière de sécurité sanitaire et de ce point de vue, c’est un échec. Il faut donc reconnaître que le principe de précau- tion crée actuellement une incertitude juridique sans que cela corresponde à des bénéfices tangibles pour la population. Certaines associations écologistes en font un usage radical qui prône la suspension ou l’arrêt d’une activité en cas de doute, définition éloignée d’un prin- cipe d’action publique, cadre unique auquel le principe de précaution est destiné. Pour elles, le principe de pré- caution est un principe d’interdiction. Les entrepreneurs, eux, considèrent que la précaution freine l’innovation indispensable à la santé de l’économie et réclament son abolition en le diabolisant sans même réaliser que la mise sur le marché d’une activité ou d’un produit dont les risques sont mal cernés n’est pas dans leur intérêt. La mauvaise gestion des incertitudes relatives aux OGM par les grands groupes qui les produisent a sa part de responsabilité dans cette situation de blocage. Il est clair qu’un principe aussi vague ne peut que don- ner lieu à des interprétations divergentes et au total, à pro- duire plus de tensions que de solutions. Dans le livre que j’ai écrit avec une sociologue, Danielle Salomon (Agir face aux risques. PUF, 2013), je donne de nombreux exemples qui permettent de comprendre qu’il ne suffit pas de scan- der le principe de précaution pour croire que les risques sanitaires seront maîtrisés au mieux des connaissances et des moyens disponibles. De même est-il inacceptable d’affirmer que la précaution nous ruine. Ces exemples permettent de comprendre que le cœur du problème est qu’il existe des visions différentes du risque. C’est cela qu’il faut commencer à clarifier. Le risque traduit une opportunité éventuellement as- sociée à des conséquences que l’on souhaite minimiser sur un plan sanitaire et pour lesquelles existent des possi- bilités d’action. Mais comment cette éventualité qui incite à l’action est-elle construite : est-ce une hypothèse, la reconnaissance d’un doute, ou bien découle-t-elle d’une connaissance établie démontrant un lien entre un état de l’environnement et un état de santé ? C’est cette distinc- tion qui permet de séparer les situations de précaution des situations de prévention. Mais au-delà des questions sémantiques, il y a des conceptions différentes de ce qui « motive l’action » pour reprendre la célèbre définition du risque donnée par Ulrich Beck. Car, ce qui fait véritable- ment débat, c’est que pour les uns, il y a risque quand le danger est démontré alors que pour les autres, la seule éventualité d’une atteinte à la santé ou à la qualité de l’environnement suffit pour définir le risque. Dès lors, comment trouver collectivement la voie d’une précaution démocratique conciliant l’innovation et la protection. Peu de personnes revendiquent un risque nul, mais beaucoup demandent que les risques soient réfléchis, débattus et pris en charge. Il est temps de se réconcilier avec la précaution. Et c’est possible. Avec le recul, la façon dont a été gé- rée l’hypothèse que les champs électromagnétiques de basse fréquence soient cancérigènes fournit des pistes pour opérationnaliser le principe de précaution. J’ai eu à connaître ce dossier alors que j’étais chercheur dans le service des études médicales d’EDF-GDF. Dans les années 80, plusieurs études épidémiologiques avaient observé une relation entre l’exposition aux champs élec- tromagnétiques générés par la production, le transport et l’usage de l’électricité et le risque de cancers chez les adultes et les enfants. Aucune équipe n’a conclu à la causalité de cette relation, cependant plusieurs études l’ont observée. Bien que les lignes à haute tension ne soient pas la seule source d’exposition, c’est la plus vi- sible. Au nom du principe de précaution, fallait-il évacuer les centaines de milliers de personnes vivant à proximité d’une ligne ? Pour éviter de se laisser enfermer dans une solution de type tout ou rien, on peut résumer l’attitude qui a été adoptée par les pouvoirs publics avec la colla- boration d’EDF en quatre points. Le premier était de se doter d’un dispositif de veille d’une part, pour recenser les études épidémiologiques et toxicologiques disponibles, les soumettre à une ex- pertise contradictoire. Il s’agissait aussi de soutenir des registres de cancers afin de savoir si les cancers suspec- tés, notamment les leucémies chez l’enfant, étaient de nature épidémique. Le deuxième était de contribuer à la production des connaissances. Un important programme d’études épidémiologiques et toxicologiques a été lancé, en particulier une vaste étude épidémiologique réalisée REE N°4/2016 145 LIBRES PROPOS conjointement en France, au Québec et en Ontario chez les travailleurs de l’électricité. Le troisième point était d’accepter un dialogue avec les parties prenantes pour permettre un débat ouvert en mettant sur la table les arguments pour et contre l’existence d’une relation causale. Il faut reconnaître la légitimité du débat sur les critères de choix relatifs aux risques. Vouloir s’en affranchir produit souvent un blocage social. Et le dernier point élaboré dans un cadre international était de proposer un dispositif de valeur limite d’exposi- tion provisoire et révisable. Aujourd’hui, si la relation épidé- miologique n’a pas fait ses preuves chez l’adulte, il reste un doute chez l’enfant. L’OMS a ainsi classé cette exposition comme étant un cancéri- gène « possible » (groupe 2B du centre international de recherche sur le cancer). Malgré cette incertitude per- sistante, le débat et l’inquiétude restent bien moins vifs qu’il y a 15 ans. Cela montre qu’il est possible de ne pas se laisser enfermer dans de fausses solutions et de trouver un moyen terme entre un alarmisme excessif et un négationnisme absolu. Le point crucial dans les situa- tions d’incertitude est celui de la confiance. Pour conclure, on peut se demander si le problème de la précaution n’est pas qu’on a voulu en faire un principe sans s’attacher à son opérationnalisation. Et si on parlait plutôt d’une procédure plutôt que d’un principe ? Une procédure scientifique prenant en compte les craintes de la population qui appel- lerait à prendre des mesures dans la double acception de cette expres- sion : mesurer et agir. William Dab est médecin, épi- démiologiste et spécialiste qualifié en santé publique. Il a été directeur général de la santé (2002-2005), membre du comité exécutif de l’OMS et président du comité européen environnement et santé pour la ré- gion Europe de l’OMS. Titulaire de la chaire Hygiène et Sécurité du Cnam, il dirige la chaire Entreprises et Santé créée en partenariat avec Malakoff Médéric et le laboratoire Modélisa- tion, Épidémiologie et Surveillance des Risques Sanitaires (MESuRS). Il a publié Santé et Environnement (Que sais-je n° 3771, 2012), Santé et travail (Arnaud Franel, 2015) et Agir face aux risques (PUF, 2013)

Creative Commons Aucune (Tous droits réservés) Aucune (Tous droits réservés)

30 REE N°4/2016 Le choix d’une poli- tique énergétique adaptée aux besoins des sociétés des siècles à venir est plus que jamais à l’ordre du jour. Un rapport récent de la Banque mondiale [1] indique que glo- balement 1,2 milliard de personnes vivent encore sans accès à l’électricité et que 2,8 milliards sont dans la nécessité d’utiliser uniquement des produits d’origine végétale, fossiles ou non, pour préparer leurs repas et se chauffer. Ces combustibles solides sont, au-delà de leur impact négatif sur l’environne- ment et le climat, une source de pollution dange- reuse pour la santé humaine qui contribue à près de quatre millions de morts prématurées par an. Par ailleurs, la population mondiale continue de croître et, en dépit des nécessaires mesures d’économie, la demande en énergie croît encore plus vite, particu- lièrement dans les pays en voie de développement qui voient heureusement leur niveau de vie s’élever rapidement. Malgré la contribution liée au dévelop- pement des énergies renouvelables, cette demande supplémentaire est, à l’échelle mondiale, satisfaite dans une très large mesure par un recours croissant aux combustibles fossiles, en particu- lier au charbon, le plus polluant d’entre eux. Les climato- logues, de leur côté, lancent des cris d’alarme sur les effets catastrophiques du réchauffement climatique, largement dus aux gaz à effet de serre, résultats de ces combustions. En 2012, 81,7 % de la consomma- tion énergétique provenait encore de la combustion des énergies fossiles (figure 1). C’est donc l’un des défis majeurs de ce siècle que de répondre à la croissance inévitable de la consom- mation énergétique mondiale par le développement de sources d’énergie qui respectent l’environne- ment et dont la disponibilité puisse être assurée à très long terme. Pour y parvenir, seule une approche globale est envisageable : économiser l’énergie de façon drastique pour limiter le défi, réduire le relâ- chement des gaz à effet de serre par leur recyclage, simultanément accentuer l’effort de recherche et de développement pour un usage, optimisé et combi- né, des ressources renouvelables et des ressources nucléaires disponibles, sûres et respectueuses de l’environnement. En l’absence de la découverte de moyens de stockage efficaces, massifs et de coût abordable, de l’énergie intermittente et diffuse en provenance des sources renouvelables, il est en effet improbable qu’elles puissent à elles seules rempla- cer les sources génératrices de gaz à effet de serre. Le recours aux énergies nucléaires pour la fourniture de l’électricité de base des grandes concentrations humaines et des grandes installations industrielles paraît inévitable, mais les évènements tragiques qui se sont produits en mars 2011 au Japon renforcent chaque jour davantage les exigences de la sûreté face aux risques nucléaires. LE GRAND DOSSIER Introduction L’énergie de fusion thermonucléaire de l’hydrogène Jean Jacquinot Iter Organisation Robert Aymar Iter Organisation Bernard Bigot Iter Organisation Figure 1 : Production mondiale d’énergie primaire en 2012, d’après les données du Key World Energy Statistics 2014 de l’AIE. REE N°4/2016 31 Introduction LE GRAND DOSSIER On sait que l’énergie tirée de la fusion des iso- topes de l’hydrogène, si elle pouvait devenir dis- ponible industriellement, éviterait l’essentiel des risques associés à l’énergie de fission (Cf. l’article de Jean Jacquinot) : pas de risque d’emballement (pas de réactions en chaîne et, à chaque instant, pas plus de quelques grammes de combustible dans la machine sous forme d’un plasma très ténu), faible chaleur résiduelle de l’installation décrois- sant très vite dès l’arrêt du réacteur, pas de maté- riaux fissiles permettant la confection d’un explosif nucléaire (donc pas de risque de prolifération), pas de déchets radioactifs à extrêmement longue ou longue durée de vie. Un deuxième atout majeur de l’énergie de fu- sion est l’abondance naturelle des sources de son combustible. Dans sa version la plus accessible, elle brûle (‘fusionne’) deux isotopes de l’hydro- gène, le deutérium et le tritium. Le tritium, qui n’est pas disponible naturellement, sera fabriqué dans l’enceinte même du réacteur de fusion à partir du 6 Li qui constitue environ 7,5 % du lithium naturel. On trouvera dans l’article précité les propriétés des réactions nucléaires correspondantes. On trouvera aussi dans un article récent une évaluation des ré- serves de combustibles [2] dont les résultats sont représentés sur la figure 2. Il est clair que la fusion pourrait fournir l’énergie du monde entier pendant des millions d’années. Ce sont ces avantages indiscutables qui ont convaincu les stratèges de tous les pays industriali- sés de lancer des programmes de recherche impor- tants sur la fusion de l’hydrogène par confinement magnétique en dépit des défis scientifiques et tech- niques majeurs à affronter. En effet la fusion doit être réalisée dans un gaz à très haute température où il prend l’état plasma, sujet à des interactions collectives complexes, dont les zones de stabilité sont étroites. Il doit être bien isolé thermiquement des parois sous peine d’être immédiatement re- froidi. L’isolation thermique implique des champs magnétiques intenses créés par des aimants supra- conducteurs et les matériaux de première paroi sont par endroits soumis à des flux thermique et neutro- nique intenses. Ces défis constituent la trame de ce dossier, car ITER doit les affronter pour la première fois de manière intégrée et en vraie grandeur. En Europe, dès la signature à Rome du traité EURATOM (1957), un réseau des laboratoires euro- péens de recherches sur la fusion a été constitué. Le laboratoire du CEA en a été le premier maillon et n’a pas arrêté depuis de contribuer de façon magis- trale aux progrès dans le domaine. L’Europe a en particulier construit le JET (Joint European Torus) qui constitue véritablement le précurseur d’ITER en produisant 16 MW de puissance fusion et en défi- nissant les dimensions nécessaires pour obtenir un gain de puissance substantiel. Le Tore Supra au CEA Cadarache a de son côté démontré la possibilité d’utiliser de façon fiable des aimants supraconduc- teurs. Ces aimants fonctionnent parfaitement à une température (1,8 K) proche du zéro absolu en pré- sence d’un plasma de 50 millions de degrés situé à environ un mètre. Le JET et Tore Supra sont tou- jours en opération préparant activement la mise en service d’ITER. Les contributions des autres grandes expériences en Europe et dans le monde sont bien loin d’être en reste. On notera en particulier la mise en service récente en Allemagne du Stellarator supraconducteur W7X et le développement rapide des programmes de fusion en Asie : quatre ma- chines supraconductrices de taille moyenne sont en construction ou en opération au Japon (JT-60- SU), en Corée du Sud (KSTAR), en Chine (EAST) et en Inde (SST-1). Ce sont ces progrès continus scientifiques et tech- niques qui ont permis de confirmer les espoirs de maîtrise de la fusion thermonucléaire de l’hydrogène et donc de poursuivre avec confiance la stratégie de recherche retenue il y a un demi-siècle par quelques pays visionnaires, et maintenant partagée par Figure 2: Réserves approximatives exprimées en unité de l’actuelle production mondiale d’électricité (en weu ou World Energy unit – 1 weu = 2,4 térawatt.années). Les réserves connues au coût actuel sont indiquées en rouge et en bleu le lithium contenu dans les mers (extraction économique à dé- montrer), en sus des ressources terrestres existantes. Source : [2]. 32 REE N°4/2016 LE GRAND DOSSIER Introduction l’ensemble des grandes nations. En 2006, après une longue période d’études techniques, puis de négocia- tions sur le choix du site (Cf. encadré 2 de l’article de Robert Aymar & al.) sept partenaires – l’UE qui offre le site, la Corée du Sud, la Chine, les Etats-Unis, l’Inde, le Japon et la Russie – ont signé un accord international d’une durée minimale de 40 ans pour la construction et l’exploitation d’ITER. Ce projet constitue la plus importante collaboration scientifique internationale ayant existé à ce jour, faisant de la fusion un objectif planétaire dont les résultats seront une propriété col- lective pour le bénéfice de tous. Au-delà du défi que constituent la construc- tion et le fonctionnement de cette installation de recherche exceptionnelle qu’est ITER, une ques- tion qui est naturellement souvent posée lorsque le sujet de la fusion thermonucléaire de l’hydro- gène est abordé est celle de son industrialisation à grande échelle dans des conditions économique- ment avantageuses après l’atteinte des objectifs d’ITER. La réponse à cette légitime question est à l’évidence complexe et à ce stade de développe- ment de cette technologie nécessairement enta- chée d’incertitudes. L’objet d’ITER est justement de rechercher une optimisation des conditions de constructibilité et d’opérabilité qui permettront de simplifier les fabrications et de réduire les coûts. Pour la réalisation d’ITER, la contribution de chaque partenaire, exprimée en fraction de la valeur totale de la construction, est de 46 % pour l’UE et de 9 % pour chacun des six autres partenaires. Environ 90 % de cette valeur doit être fournie en nature et prise en charge par des agences domestiques consti- tuées par les partenaires. L’équipe centrale du projet, dont les bureaux sont installés à Cadarache en Pro- vence, est en charge des spécifications techniques, de la sûreté, des normes de qualité, de l’intégration et de la coordination de l’ensemble, de l’assemblage et de l’installation et, plus tard, de l’opération. La France intervient à deux niveaux, d’abord comme partenaire au sein de l’UE, mais aussi avec une responsabilité particulière comme pays hôte (viabilité et mise en condition du site, locaux du siège, école internationale et itinéraire d’accès au site pour convois exceptionnels). Cette responsabi- lité est exercée par l’agence ITER France (AIF) dont le siège est aussi à Cadarache au sein du centre du CEA. Le choix de Cadarache comme site pour ITER doit beaucoup à l’excellence de l’environnement scientifique constitué par le centre du CEA et, sur le plan sociétal, par le soutien des collectivités ter- ritoriales qui contribuent à hauteur de 467 millions d’euros au coût d’ITER incombant à la France. Cette contribution a permis d’éviter une ponction équi- Bernard Bigot, ancien professeur des universités, est un physico-chimiste, spécialiste de l’étude quantique de la réac- tivité chimique. Il a participé à la création de l’Ecole normale supérieure de Lyon, dont il a été successivement directeur adjoint en charge des études (1983-93), puis de la recherche (1998-2000) avant d’en être le directeur (2000-2003). Il a par ailleurs été directeur général de la recherche et de la technologie (1993-1997), avant d’assumer les fonctions de Haut-Commis- saire à l’énergie atomique et de directeur général du CEA entre 2003 et 2015. Il est depuis mars 2015 directeur général de ITER Organization. Jean Jacquinot est physicien des plasmas. Il a participé aux recherches sur la fusion par confinement magnétique, dans un premier temps au CEA à Fontenay aux Roses (1963-81) puis entre 1981 et 1999 au JET joint Undertaking, la grande expérience européenne construite à Culham au Royaume-Uni. Il y a exercé plusieurs responsabilités : responsable du chauf- fage HF du plasma, directeur adjoint puis directeur général. Il rentre en France au tout début de 2000 pour prendre la direction des recherches sur la fusion au CEA et contribuer à la candidature de Cadarache pour ITER. Il est à présent Senior Adviser auprès du directeur général d’ITER. Robert Aymar, après les années de formation en physique des plasmas à la sortie de l’Ecole Polytechnique, a dirigé le projet Tore Supra de sa conception en 1977 jusqu’à sa mise en service en 1988 en passant par sa construction sur le site de Cadarache. Un nouveau laboratoire a été construit à cette occasion, préparé dans la perspective de pouvoir accueillir à proximité un futur réacteur à fusion nucléaire, ce qui est main- tenant réalisé avec l’implantation d’ITER. Directeur de la recherche fondamentale du CEA de 1990 à 1994, puis en 1994 nommé directeur de la Collaboration internationale ITER, Robert Aymar s’est entièrement consacré jusqu’en 2003 à la définition du projet et à son approbation par les différents pays participants formalisée par l’accord international ITER signé en 2006 à Paris. Le Conseil du CERN l’a nommé en 2003 directeur général pour conduire l’organisation à terminer efficacement la construction du grand collisionneur de protons LHC. Il est depuis 2009 conseiller scientifique auprès de l’admi- nistrateur général du CEA. REE N°4/2016 33 Introduction LE GRAND DOSSIER valente sur les budgets de la recherche française et offre dès maintenant un retour important sur le plan économique puisque, au début 2016, environ 51 % des contrats d’ITER et de l’AIF, soit 2,26 mil- liards , ont été passés aux entreprises françaises. Une vingtaine de ces entreprises ont déjà créé plus de 400 emplois. Après des débuts difficiles, le projet a pu, en mars 2015, être réorganisé en une véritable structure de projet. Un an plus tard on constate une accéléra- tion très significative de la construction et ITER estime maintenant à 40 % le degré d’achèvement des fabrications des systèmes nécessaires au début de l’exploitation, qui correspond à l’obtention d’un premier plasma en 2025 selon un calendrier validé par le Conseil ITER de juin 2016. L’idée de ce dossier sur ITER a germé à la suite d’une visite sur le site ITER du groupe Cen- trale Energies qui réunit les associations de cinq Ecoles Centrales à laquelle participait le rédacteur en chef de la REE [3]. Cette visite étayée par une série de conférences a permis un tour d’horizon scientifique assez complet du projet et il a été proposé de réunir ces conférences en un dossier pour la REE. L’objectif proposé aux auteurs de sept articles est de donner, pour un lectorat non spé- cialisé, les bases scientifiques et techniques ainsi que l’état d’avancement du projet ITER. Ces sept articles fournissent des coups de projecteurs sur les concepts de base de la production de l’éner- gie de fusion par confinement magnétique, dé- crivent les principales technologies innovantes (e. g. les supraconducteurs, le vide, la cryogénie, l’électrotechnique, la mécanique et les matériaux) et donne l’état d’avancement du projet en juin 2016. Bibliographie [1] http://www.banquemondiale.org/fr/news/ feature/2013/05/28/Global-Tracking-Framework-Puts- Numbers-to-Sustainable-Energy-Goals [2] Steven C. Cowley Nature Physics vol. 12 May 2016. [3] http://www.centrale-energie.fr/ La fusion thermonucléaire Enjeux, principes, réalisations Par Jean Jacquinot ........................................................................................................................................................ p. 34 Le projet ITER Objectifs, choix des paramètres et état du projet Par Robert Aymar, Bernard Bigot et Jean Jacquinot ..................................................................................... p. 44 Un site et une logistique exceptionnels Par Erwan Duval ........................................................................................................................................................... p. 56 La distribution électrique du site et les alimentations électriques de puissance Par Joël Hourtoule ...................................................................................................................................................... p. 65 Les aimants supraconducteurs d’ITER Par Paul Libeyre ............................................................................................................................................................. p. 76 ITER : vide et cryogénie Par Eric Fauve, David Grillot ................................................................................................................................... p. 85 La chambre à vide Fonction et matériaux Par Jean-Marc Martinez ............................................................................................................................................. p. 97 LES ARTICLES

Creative Commons Aucune (Tous droits réservés) Aucune (Tous droits réservés)
contenu protégé  Document accessible sous conditions - vous devez vous connecter ou vous enregistrer pour accéder à ou acquérir ce document.
Prix : 15,00 € TVA 20,0% comprise (12,50 € hors TVA) - Accès libre pour les ayants-droit

se connecter ou s'enregistrer pour commander.

30 REE N°4/2016 Le choix d’une poli- tique énergétique adaptée aux besoins des sociétés des siècles à venir est plus que jamais à l’ordre du jour. Un rapport récent de la Banque mondiale [1] indique que glo- balement 1,2 milliard de personnes vivent encore sans accès à l’électricité et que 2,8 milliards sont dans la nécessité d’utiliser uniquement des produits d’origine végétale, fossiles ou non, pour préparer leurs repas et se chauffer. Ces combustibles solides sont, au-delà de leur impact négatif sur l’environne- ment et le climat, une source de pollution dange- reuse pour la santé humaine qui contribue à près de quatre millions de morts prématurées par an. Par ailleurs, la population mondiale continue de croître et, en dépit des nécessaires mesures d’économie, la demande en énergie croît encore plus vite, particu- lièrement dans les pays en voie de développement qui voient heureusement leur niveau de vie s’élever rapidement. Malgré la contribution liée au dévelop- pement des énergies renouvelables, cette demande supplémentaire est, à l’échelle mondiale, satisfaite dans une très large mesure par un recours croissant aux combustibles fossiles, en particu- lier au charbon, le plus polluant d’entre eux. Les climato- logues, de leur côté, lancent des cris d’alarme sur les effets catastrophiques du réchauffement climatique, largement dus aux gaz à effet de serre, résultats de ces combustions. En 2012, 81,7 % de la consomma- tion énergétique provenait encore de la combustion des énergies fossiles (figure 1). C’est donc l’un des défis majeurs de ce siècle que de répondre à la croissance inévitable de la consom- mation énergétique mondiale par le développement de sources d’énergie qui respectent l’environne- ment et dont la disponibilité puisse être assurée à très long terme. Pour y parvenir, seule une approche globale est envisageable : économiser l’énergie de façon drastique pour limiter le défi, réduire le relâ- chement des gaz à effet de serre par leur recyclage, simultanément accentuer l’effort de recherche et de développement pour un usage, optimisé et combi- né, des ressources renouvelables et des ressources nucléaires disponibles, sûres et respectueuses de l’environnement. En l’absence de la découverte de moyens de stockage efficaces, massifs et de coût abordable, de l’énergie intermittente et diffuse en provenance des sources renouvelables, il est en effet improbable qu’elles puissent à elles seules rempla- cer les sources génératrices de gaz à effet de serre. Le recours aux énergies nucléaires pour la fourniture de l’électricité de base des grandes concentrations humaines et des grandes installations industrielles paraît inévitable, mais les évènements tragiques qui se sont produits en mars 2011 au Japon renforcent chaque jour davantage les exigences de la sûreté face aux risques nucléaires. LE GRAND DOSSIER Introduction L’énergie de fusion thermonucléaire de l’hydrogène Jean Jacquinot Iter Organisation Robert Aymar Iter Organisation Bernard Bigot Iter Organisation Figure 1 : Production mondiale d’énergie primaire en 2012, d’après les données du Key World Energy Statistics 2014 de l’AIE. REE N°4/2016 31 Introduction LE GRAND DOSSIER On sait que l’énergie tirée de la fusion des iso- topes de l’hydrogène, si elle pouvait devenir dis- ponible industriellement, éviterait l’essentiel des risques associés à l’énergie de fission (Cf. l’article de Jean Jacquinot) : pas de risque d’emballement (pas de réactions en chaîne et, à chaque instant, pas plus de quelques grammes de combustible dans la machine sous forme d’un plasma très ténu), faible chaleur résiduelle de l’installation décrois- sant très vite dès l’arrêt du réacteur, pas de maté- riaux fissiles permettant la confection d’un explosif nucléaire (donc pas de risque de prolifération), pas de déchets radioactifs à extrêmement longue ou longue durée de vie. Un deuxième atout majeur de l’énergie de fu- sion est l’abondance naturelle des sources de son combustible. Dans sa version la plus accessible, elle brûle (‘fusionne’) deux isotopes de l’hydro- gène, le deutérium et le tritium. Le tritium, qui n’est pas disponible naturellement, sera fabriqué dans l’enceinte même du réacteur de fusion à partir du 6 Li qui constitue environ 7,5 % du lithium naturel. On trouvera dans l’article précité les propriétés des réactions nucléaires correspondantes. On trouvera aussi dans un article récent une évaluation des ré- serves de combustibles [2] dont les résultats sont représentés sur la figure 2. Il est clair que la fusion pourrait fournir l’énergie du monde entier pendant des millions d’années. Ce sont ces avantages indiscutables qui ont convaincu les stratèges de tous les pays industriali- sés de lancer des programmes de recherche impor- tants sur la fusion de l’hydrogène par confinement magnétique en dépit des défis scientifiques et tech- niques majeurs à affronter. En effet la fusion doit être réalisée dans un gaz à très haute température où il prend l’état plasma, sujet à des interactions collectives complexes, dont les zones de stabilité sont étroites. Il doit être bien isolé thermiquement des parois sous peine d’être immédiatement re- froidi. L’isolation thermique implique des champs magnétiques intenses créés par des aimants supra- conducteurs et les matériaux de première paroi sont par endroits soumis à des flux thermique et neutro- nique intenses. Ces défis constituent la trame de ce dossier, car ITER doit les affronter pour la première fois de manière intégrée et en vraie grandeur. En Europe, dès la signature à Rome du traité EURATOM (1957), un réseau des laboratoires euro- péens de recherches sur la fusion a été constitué. Le laboratoire du CEA en a été le premier maillon et n’a pas arrêté depuis de contribuer de façon magis- trale aux progrès dans le domaine. L’Europe a en particulier construit le JET (Joint European Torus) qui constitue véritablement le précurseur d’ITER en produisant 16 MW de puissance fusion et en défi- nissant les dimensions nécessaires pour obtenir un gain de puissance substantiel. Le Tore Supra au CEA Cadarache a de son côté démontré la possibilité d’utiliser de façon fiable des aimants supraconduc- teurs. Ces aimants fonctionnent parfaitement à une température (1,8 K) proche du zéro absolu en pré- sence d’un plasma de 50 millions de degrés situé à environ un mètre. Le JET et Tore Supra sont tou- jours en opération préparant activement la mise en service d’ITER. Les contributions des autres grandes expériences en Europe et dans le monde sont bien loin d’être en reste. On notera en particulier la mise en service récente en Allemagne du Stellarator supraconducteur W7X et le développement rapide des programmes de fusion en Asie : quatre ma- chines supraconductrices de taille moyenne sont en construction ou en opération au Japon (JT-60- SU), en Corée du Sud (KSTAR), en Chine (EAST) et en Inde (SST-1). Ce sont ces progrès continus scientifiques et tech- niques qui ont permis de confirmer les espoirs de maîtrise de la fusion thermonucléaire de l’hydrogène et donc de poursuivre avec confiance la stratégie de recherche retenue il y a un demi-siècle par quelques pays visionnaires, et maintenant partagée par Figure 2: Réserves approximatives exprimées en unité de l’actuelle production mondiale d’électricité (en weu ou World Energy unit – 1 weu = 2,4 térawatt.années). Les réserves connues au coût actuel sont indiquées en rouge et en bleu le lithium contenu dans les mers (extraction économique à dé- montrer), en sus des ressources terrestres existantes. Source : [2]. 32 REE N°4/2016 LE GRAND DOSSIER Introduction l’ensemble des grandes nations. En 2006, après une longue période d’études techniques, puis de négocia- tions sur le choix du site (Cf. encadré 2 de l’article de Robert Aymar & al.) sept partenaires – l’UE qui offre le site, la Corée du Sud, la Chine, les Etats-Unis, l’Inde, le Japon et la Russie – ont signé un accord international d’une durée minimale de 40 ans pour la construction et l’exploitation d’ITER. Ce projet constitue la plus importante collaboration scientifique internationale ayant existé à ce jour, faisant de la fusion un objectif planétaire dont les résultats seront une propriété col- lective pour le bénéfice de tous. Au-delà du défi que constituent la construc- tion et le fonctionnement de cette installation de recherche exceptionnelle qu’est ITER, une ques- tion qui est naturellement souvent posée lorsque le sujet de la fusion thermonucléaire de l’hydro- gène est abordé est celle de son industrialisation à grande échelle dans des conditions économique- ment avantageuses après l’atteinte des objectifs d’ITER. La réponse à cette légitime question est à l’évidence complexe et à ce stade de développe- ment de cette technologie nécessairement enta- chée d’incertitudes. L’objet d’ITER est justement de rechercher une optimisation des conditions de constructibilité et d’opérabilité qui permettront de simplifier les fabrications et de réduire les coûts. Pour la réalisation d’ITER, la contribution de chaque partenaire, exprimée en fraction de la valeur totale de la construction, est de 46 % pour l’UE et de 9 % pour chacun des six autres partenaires. Environ 90 % de cette valeur doit être fournie en nature et prise en charge par des agences domestiques consti- tuées par les partenaires. L’équipe centrale du projet, dont les bureaux sont installés à Cadarache en Pro- vence, est en charge des spécifications techniques, de la sûreté, des normes de qualité, de l’intégration et de la coordination de l’ensemble, de l’assemblage et de l’installation et, plus tard, de l’opération. La France intervient à deux niveaux, d’abord comme partenaire au sein de l’UE, mais aussi avec une responsabilité particulière comme pays hôte (viabilité et mise en condition du site, locaux du siège, école internationale et itinéraire d’accès au site pour convois exceptionnels). Cette responsabi- lité est exercée par l’agence ITER France (AIF) dont le siège est aussi à Cadarache au sein du centre du CEA. Le choix de Cadarache comme site pour ITER doit beaucoup à l’excellence de l’environnement scientifique constitué par le centre du CEA et, sur le plan sociétal, par le soutien des collectivités ter- ritoriales qui contribuent à hauteur de 467 millions d’euros au coût d’ITER incombant à la France. Cette contribution a permis d’éviter une ponction équi- Bernard Bigot, ancien professeur des universités, est un physico-chimiste, spécialiste de l’étude quantique de la réac- tivité chimique. Il a participé à la création de l’Ecole normale supérieure de Lyon, dont il a été successivement directeur adjoint en charge des études (1983-93), puis de la recherche (1998-2000) avant d’en être le directeur (2000-2003). Il a par ailleurs été directeur général de la recherche et de la technologie (1993-1997), avant d’assumer les fonctions de Haut-Commis- saire à l’énergie atomique et de directeur général du CEA entre 2003 et 2015. Il est depuis mars 2015 directeur général de ITER Organization. Jean Jacquinot est physicien des plasmas. Il a participé aux recherches sur la fusion par confinement magnétique, dans un premier temps au CEA à Fontenay aux Roses (1963-81) puis entre 1981 et 1999 au JET joint Undertaking, la grande expérience européenne construite à Culham au Royaume-Uni. Il y a exercé plusieurs responsabilités : responsable du chauf- fage HF du plasma, directeur adjoint puis directeur général. Il rentre en France au tout début de 2000 pour prendre la direction des recherches sur la fusion au CEA et contribuer à la candidature de Cadarache pour ITER. Il est à présent Senior Adviser auprès du directeur général d’ITER. Robert Aymar, après les années de formation en physique des plasmas à la sortie de l’Ecole Polytechnique, a dirigé le projet Tore Supra de sa conception en 1977 jusqu’à sa mise en service en 1988 en passant par sa construction sur le site de Cadarache. Un nouveau laboratoire a été construit à cette occasion, préparé dans la perspective de pouvoir accueillir à proximité un futur réacteur à fusion nucléaire, ce qui est main- tenant réalisé avec l’implantation d’ITER. Directeur de la recherche fondamentale du CEA de 1990 à 1994, puis en 1994 nommé directeur de la Collaboration internationale ITER, Robert Aymar s’est entièrement consacré jusqu’en 2003 à la définition du projet et à son approbation par les différents pays participants formalisée par l’accord international ITER signé en 2006 à Paris. Le Conseil du CERN l’a nommé en 2003 directeur général pour conduire l’organisation à terminer efficacement la construction du grand collisionneur de protons LHC. Il est depuis 2009 conseiller scientifique auprès de l’admi- nistrateur général du CEA. REE N°4/2016 33 Introduction LE GRAND DOSSIER valente sur les budgets de la recherche française et offre dès maintenant un retour important sur le plan économique puisque, au début 2016, environ 51 % des contrats d’ITER et de l’AIF, soit 2,26 mil- liards , ont été passés aux entreprises françaises. Une vingtaine de ces entreprises ont déjà créé plus de 400 emplois. Après des débuts difficiles, le projet a pu, en mars 2015, être réorganisé en une véritable structure de projet. Un an plus tard on constate une accéléra- tion très significative de la construction et ITER estime maintenant à 40 % le degré d’achèvement des fabrications des systèmes nécessaires au début de l’exploitation, qui correspond à l’obtention d’un premier plasma en 2025 selon un calendrier validé par le Conseil ITER de juin 2016. L’idée de ce dossier sur ITER a germé à la suite d’une visite sur le site ITER du groupe Cen- trale Energies qui réunit les associations de cinq Ecoles Centrales à laquelle participait le rédacteur en chef de la REE [3]. Cette visite étayée par une série de conférences a permis un tour d’horizon scientifique assez complet du projet et il a été proposé de réunir ces conférences en un dossier pour la REE. L’objectif proposé aux auteurs de sept articles est de donner, pour un lectorat non spé- cialisé, les bases scientifiques et techniques ainsi que l’état d’avancement du projet ITER. Ces sept articles fournissent des coups de projecteurs sur les concepts de base de la production de l’éner- gie de fusion par confinement magnétique, dé- crivent les principales technologies innovantes (e. g. les supraconducteurs, le vide, la cryogénie, l’électrotechnique, la mécanique et les matériaux) et donne l’état d’avancement du projet en juin 2016. Bibliographie [1] http://www.banquemondiale.org/fr/news/ feature/2013/05/28/Global-Tracking-Framework-Puts- Numbers-to-Sustainable-Energy-Goals [2] Steven C. Cowley Nature Physics vol. 12 May 2016. [3] http://www.centrale-energie.fr/ La fusion thermonucléaire Enjeux, principes, réalisations Par Jean Jacquinot ........................................................................................................................................................ p. 34 Le projet ITER Objectifs, choix des paramètres et état du projet Par Robert Aymar, Bernard Bigot et Jean Jacquinot ..................................................................................... p. 44 Un site et une logistique exceptionnels Par Erwan Duval ........................................................................................................................................................... p. 56 La distribution électrique du site et les alimentations électriques de puissance Par Joël Hourtoule ...................................................................................................................................................... p. 65 Les aimants supraconducteurs d’ITER Par Paul Libeyre ............................................................................................................................................................. p. 76 ITER : vide et cryogénie Par Eric Fauve, David Grillot ................................................................................................................................... p. 85 La chambre à vide Fonction et matériaux Par Jean-Marc Martinez ............................................................................................................................................. p. 97 LES ARTICLES 34 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER Introduction Dès 1934, Lord Rutherford et son équipe [1] découvrait, grâce aux premiers accélérateurs de particules, la réaction de fusion de deux atomes d’hydrogène lourd (le deutérium composé d’un pro- ton et d’un neutron). L’accélérateur por- tait à 100 kV des atomes de deutérium qui venaient ensuite frapper une cible contenant du deutérium. Par la même occasion, deux nouveaux éléments produits par cette fusion étaient décou- verts : le tritium (hydrogène super lourd, un proton et deux neutrons) et l’hélium 3 (deux protons et un neutron) ; une ex- périence de rêve ! Bien que la réaction soit exothermique, Rutherford notait que l’énergie dépensée pour accélé- rer les deutérons était bien supérieure à celle produite par la fusion des deux atomes. La probabilité que la réaction ait lieu était faible. Cependant, quelques années plus tard, le monde réalisait que Dame Nature faisait beaucoup mieux les choses : le soleil et tous les astres visibles dans le ciel nocturne étaient de gigantesques réacteurs à fusion qui synthétisaient tous les atomes connus jusqu’au fer en fusionnant des atomes plus légers au cours d’une longue cas- cade avec comme point de départ la fusion des atomes d’hydrogène. Depuis ce temps, comme Prométhée, l’homme rêve de la réaliser sur terre. Le soleil, grâce, à sa gravité retient (le confinement est essentiel) l’hydrogène ainsi que les produits de fusion dont l’apport de chaleur permet à la réaction de s’entretenir. Cependant, la gravité est une force faible et le feu nucléaire ne peut s’allumer et se maintenir que si la dimension du système est de l’ordre du million de kilomètres. Sur terre, le principe du confinement doit être très différent ; il faut donc compter soit sur l’inertie après compression à très haute densité ce qui permet de créer la fusion pendant un instant très court, la bombe thermonucléaire adopte ce principe, soit sur la force électromagnétique qui per- met de confiner des particules dans des La fusion thermonucléaire Enjeux, principes, réalisations Par Jean Jacquinot1 Senior Adviser to the ITER Director-General The basic principles underlying the magnetic fusion energy production are discussed. The highest fusion probabili- ties are found in the deuterium/tritium reactions. Energy gains are obtained with plasmas of about 200 million o C with a pressure of circa 1 atmosphere and with an energy confinement time of a few seconds. Toroïdal magnetic confinement experiments, benefiting from an active international cooperation, have tested systems capable of confining such plasmas. The largest devices have produced significant amount of fusion power (16 MW in JET, the European experiment, and 10 MW in TFTR, Princeton, USA). A world-wide data base as well as theory and modelling show that plasma volumes need to exceed a critical size in order to be a net producer of energy. ITER will be the first experiment meeting this condition. It is dimensioned to produce 500 MW of D/T fusion with a gain of 10 in power amplification of the auxiliary heating power. ABSTRACT 1 L’auteur est seul responsable des faits énoncés et opinions émises dans cet article L’essentiel à retenir La fusion des atomes légers, en premier lieu celle des isotopes de l’hydro- gène, est la source d’énergie des étoiles. Pouvoir la contrôler sur terre de manière efficace fournirait à l’humanité une énergie quasi-inépuisable avec d’excellentes conditions de sûreté et de respect de l’environnement. La réac- tion de base est bien comprise sur le plan théorique et on sait la réaliser expérimentalement mais, jusqu’à présent, sans gain net d’énergie bien qu’une puissance significative (16MW) ait été démontrée sur la grande expérience européenne JET qui utilise le confinement magnétique dans une configura- tion toroïdale de type tokamak. La physique des plasmas, ce quatrième état que prend la matière élevée à très haute température, indique qu’un réacteur de fusion basé sur le principe du tokamak doit nécessairement être dimen- sionné au-delà d’une certaine taille critique. Ces dimensions ont été précisées par les résultats de nombreuses expériences de la communauté scientifique internationale qui collabore activement sur ce sujet depuis plusieurs décen- nies. ITER, sera la première réalisation capable de dépasser ce seuil. Elle pro- duira une puissance de 500 MW avec un gain de 10. Avec un volume plasma de 800 m3 confiné dans une configuration magnétique de type tokamak, elle est en cours de réalisation et fait l’objet de la plus grande collaboration scientifique mondiale REE N°4/2016 35 La fusion thermonucléaire pièges magnétiques de dimensions rai- sonnables et de fonctionner de manière contrôlée en régime continu. C’est sur cette dernière solution qu’est basé le principe d’ITER que nous décrivons ici. Sans aller dans les détails, nous don- nons les grandes lignes de la physique sous-jacente ainsi que les résultats ex- périmentaux qui ont permis de dimen- sionner ITER avec comme objectifs d’obtenir pour la première fois une puis- sance de fusion de 500 MW et un gain d’amplification de 10. Nous chercherons ensuite à dégager les principaux défis scientifiques et technologiques que doit affronter cette très grande expérience internationale. Les principales réactions de fusion nucléaires Dans le soleil, la réaction de fusion initiale est celle qui combine, à environ 14 millions de Kelvin, quatre noyaux d’hydrogène pour former un noyau d’hélium, deux positrons et deux neu- trinos. Sa section efficace est extrême- ment faible, heureusement d’ailleurs, car cela permet au soleil, grâce à une cinétique lente, de briller pendant environ 10 milliards d’années mais, avec une aussi faible réactivité, il est inenvisageable de l’utiliser sur terre. Heureusement, d’autres atomes et en particulier les deux isotopes lourds de l’hydrogène, le deutérium D et le tritium T, se prêtent à des réactions beaucoup plus probables : Les sections efficaces de ces réactions, < v>, moyennées sur une distribution maxwellienne de température T sont données sur la figure 1. La réaction D-T est de beaucoup la plus facile à mettre en œuvre : sa valeur maximum est nettement plus grande que celle de la réaction D-D et est atteinte à une tem- pérature bien plus faible. En pratique, même pour la réaction D-T, il faudra réaliser des températures supérieures à 100 millions de degrés (1 eV = 11 600 0 C). A ces températures, le mélange gazeux devient un plasma, un nouvel état ionisé de la matière où les électrons se séparent du noyau de l’atome. Nous verrons que les plasmas ont des propriétés physiques très particulières. Gains et nécessité du confinement Chaque réaction de fusion D-T produit une énergie considérable de 17,59 MeV : la fusion d’un seul gramme de mélange D-T est équivalent à brûler huit tonnes de pétrole. Cependant, la réaction de fusion nécessite de mainte- nir le mélange D-T à très haute tempéra- ture pendant que la puissance de fusion est produite. Mais des pertes d’énergie sont inévitables. Elles sont de diverses natures (transports de l’énergie, pertes de particules et rayonnement). Le bilan énergétique global du processus, en régime stationnaire, ne sera favorable que si les pertes d’énergie sont plus que compensées par la production d’énergie de fusion. Il est fondamental de minimiser ces pertes grâce à un bon confinement du plasma. On définit deux quantités qui permettent d’établir un tel bilan : Figure 1 : Sections efficaces des principales réactions de fusion au sein d’un plasma de température T – Source : [2]. 36 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER Le facteur Q = Pfusion /Pin où Pin est la puissance injectée pour maintenir la température du plasma et le temps de confinement de l’énergie : = W/ Pperte où W est l’énergie cinétique conte- nue par le plasma et Pperte est la puis- sance perdue. Les sections efficaces permettent de calculer la valeur du produit n (n densité de particules du plasma) nécessaire pour obtenir un gain Q (figure 2, [2]). Pour la réaction D-T, n passe par un minimum à 26 keV. L’ignition (Q = ) est obtenue pour n = 1,5.1020 m-3 .s, condition connue sous le nom du critère de Lawson. Pour les réactions D-D, on a tenu compte de l’énergie, non négligeable, de la fusion du tritium produit in-situ par la réaction D-D. La fusion D-D requiert un produit n 20 fois plus grand que la fusion D-T. Les pertes par rayonnement de freinage (bremsstrahlung) rendent inaccessible la région à haute densité. En pratique, compte tenu des contraintes de la phy- sique des tokamaks, on visera, pour la fusion D-T dans ITER, une densité de 1020 p.m-3 , une température de 10 keV et un confinement de l’énergie de 3 s. Les valeurs des deux premiers para- mètres ont été obtenues dans les ma- chines existantes mais le confinement de l’énergie s’est avéré plus difficile à atteindre. C’est pour relever ce défi qu’ITER a été conçu. Avantages et intérêts de la fusion Les combustibles de la fusion sont abondants et bien distribués sur la planète : le deutérium, l’un des deux combustibles de la fusion D-T est, sous forme d’eau lourde, abondant dans les océans (33 g de D2 par tonne d’eau). Le tritium, un élément radioactif à vie courte (12,3 ans), doit être fabriqué à partir du lithium. Le concept du réacteur à fusion est de faire réagir, in-situ, selon les réactions n + 6 Li T + 4 He (+ 4,78 MeV) Confinement impératif pour un gain d’énergie : le critère de Lawson Dès 1934 on a su réaliser la fusion d’atomes légers grâce aux premiers ac- célérateurs de particules. Ce fut une découverte fondamentale en physique atomique. Chaque réaction de fusion dégageait beaucoup d’énergie mais la pro- babilité (section efficace) de réaliser une fusion pour chaque collision d’atome étant très faible, le rendement énergétique global était totalement inadapté au besoin d’une source d’énergie. La solution pour augmenter le rendement est de confiner les atomes après avoir atteint la température requise pour les réactions de fusion de façon à permettre un grand nombre de collisions de particules avant que leur énergie ne soit perdue. On rentabilise ainsi l’énergie consentie pour chauffer les atomes. Le confinement est réalisé par un piège magnétique. Un gain net d’énergie est obtenu non seulement si la température requise est atteinte mais aussi si le produit de la densité des atomes par le temps de confi- nement de l’énergie dépasse un certain seuil. C’est le critère historiquement proposé par Lawson : n > 1,5.1020 m-3 .s. On utilise maintenant le triple produit n T qui inclut aussi la contrainte sur la température. Ce triple produit est équi- valent au produit P (pression x temps de confinement de l’énergie) qui utilise des unités familières. On voit sur la figure 9 que l’objectif est d’atteindre P = 10. En pratique, on dispose d’une certaine latitude dans le choix des paramètres ; on pourra par exemple fonctionner avec une pression de trois atmosphères et une énergie confinée pendant plus de trois secondes. ITER est la première expérience dimensionnée pour atteindre cet objectif. Figure 2 : Produit n pour les réactions D-T (courbes pleines) et D-D (courbes en pointillé) et pour différentes valeurs du gain Q – Source : [2]. REE N°4/2016 37 La fusion thermonucléaire n + 7 Li T + 4 He + n (- 2,47 MeV) les neutrons générés par la réaction D-T avec du lithium disposé autour du plas- ma dans des modules de couvertures (couvertures fertiles, figure 7), dont la fonction principale est de ralentir ces neutrons de grande énergie et ainsi de transférer la puissance de fusion à un fluide caloporteur. Il est prévu de rendre le réacteur surgénérateur en tritium en installant un multiplicateur de neutrons (Be ou Pb) dans les couvertures fertiles. Le lithium et le deutérium apparaissent donc com- me les combustibles de la fusion D-T. Le lithium est abondant dans la croûte terrestre et plus encore dans les océans bien qu’en dilution bien plus importante que le deutérium. Sur le plan de la sûreté, le réacteur, amplificateur à gain limité, ne peut pas s’emballer ; il ne comporte en son sein pas plus d’une minute de combustible. Il n’y a pas de combustibles usés à re- froidir ni de matières fissiles pouvant servir à la prolifération. Le réacteur com- porte cependant une grande quantité de tritium, élément radioactif qui exige des barrières de confinement. Elles con- stituent un élément structurel essentiel de la machine mais même en cas d’acci- dent ultime, il ne sera pas nécessaire de procéder à l’évacuation du public situé en dehors de l’enceinte de l’installation. D’importantes parties de la machine elle-même deviendront radioactives sous l’effet des neutrons issus de la réaction. Il s’agit là d’une radioactivité induite dont l’intensité dépendra beau- coup du choix des matériaux structurels mais, dans tous les cas, sa décroissance sera bien plus rapide que celle des pro- duits de fission (figure 3) d’un réacteur à fission. Les pièges magnétiques et l’instabilité des plasmas Le critère de Lawson, qui souligne le rôle fondamental du confinement, date de 1955 et rapidement ont fleuri plu- sieurs concepts permettant en théorie de piéger les particules ionisées dans un champ magnétique et de les isoler ainsi des parois. En effet, aux tempé- ratures requises par la fusion, les par- ticules du plasma sont toutes ionisées (ions et électrons) et leurs trajectoires s’enroulent autour des lignes de champ magnétique (figure 4) ; leurs excursions radiales sont ainsi réduites au rayon de Larmor, R = (2mT)1/2 /ZeB. R est de quatre millimètres pour des ions D de 10 keV et un champ magnétique de cinq teslas, ce qui procure un bon confi- nement radial. Pour éviter les fuites aux deux extrémités, on a proposé soit de renforcer le champ aux deux bouts pour réfléchir les particules (configuration en miroir magnétique) soit de refermer les lignes de champ en une configuration toroïdale (figure 4). On pouvait croire à l’époque de Lawson, que le temps de confinement se trouverait alors limité uniquement par la diffusion des particules à travers les lignes de champ magnétique résultant des collisions entre particules. Le calcul Figure 3 : Décroissance de la radiotoxicité après arrêt des réacteurs, fission ou fusion, de même puissance – Source : [4]. 38 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER donnait des valeurs acceptables de pour des dimensions de machines très modestes. C’était ignorer que les plas- mas confinés dans un champ magné- tique sont sujets à une physique, tout à fait nouvelle à cette époque, caracté- risée par l’importance des interactions collectives. Chaque particule ionisée du plasma est en interaction avec beau- coup d’autres (le libre parcours moyen est très grand) et de nombreuses ins- tabilités de nature collective peuvent se développer. Elles s’alimentent de l’éner- gie libre apparaissant dès qu’un plasma est confiné. On peut distinguer deux grandes classes d’instabilité : les micro- instabilités produisant des fluctuations à l’échelle du rayon de Larmor des parti- cules et les macro-instabilités qui pro- duisent des mouvements d’ensemble du plasma. Ces dernières, les plus dangereuses, sont en général fatales à l’intégrité du plasma. Les progrès de la physique des plas- mas sur plusieurs décennies ont permis de comprendre et de maîtriser les ins- tabilités macroscopiques dans plusieurs types de configuration magnétique de confinement. A titre d’exemple, offrir au plasma une courbure moyenne convexe des lignes de champ ou bien limiter le courant circulant dans le plasma des to- kamaks (voir plus loin) permet d’éliminer les instabilités majeures de type magné- tohydrodynamique. Les micro-instabili- tés sont aussi maintenant bien décrites par la théorie, mais il s’est avéré impos- sible de les éliminer complètement. Elles ont été fatales aux configurations à miroir créant des fuites longitudinales qu’il n’a pas été possible d’éviter et qui sont prohibitives. Dans les configura- tions toroïdales, elles conduisent à une turbulence complexe qui domine le processus de diffusion de la chaleur au travers des lignes de champ : c’est cette turbulence qui contrôle les dimensions des plasmas pour obtenir une valeur du gain Q. Le dimensionnement d’ITER prend bien sûr pleinement en compte ces effets. Les configurations toroïdales – Le tokamak La configuration toroïdale la plus simple est de révolution autour d’un axe vertical ; elle consiste à disposer Figure 4 : Confinement des particules dans un champ magnétique. REE N°4/2016 39 La fusion thermonucléaire des bobines régulièrement autour d’un tore (les bobines rouges de la figure 5). On crée ainsi un champ toroïdal dont les lignes de champ sont des cercles concentriques. Cependant la courbure de ces lignes crée une dérive verticale des particules qui sont très rapidement perdues sur les parois. Pour éviter cet effet, il est nécessaire d’ajouter un champ poloïdal pour forcer les lignes de champ à s’enrouler autour de l’axe ma- gnétique du plasma, formant ainsi des surfaces magnétiques fermées (figure 6). La dérive dans la partie supérieure est compensée par celle dans la par- tie inférieure. Ce champ poloïdal peut être créé soit entièrement par des bobi- nages extérieurs, on a alors affaire à un Stellarator, soit principalement par un courant toroïdal circulant dans le plasma lui-même, on a alors affaire à un ‘pinch’ toroïdal dont la plus célèbre variété est le tokamak (figure 5). On doit la configuration tokamak aux physiciens russes de l’institut Kurtchatov dans les années 60. C’est une confi- guration toroïdale axisymétrique dans laquelle le plasma est parcouru par un courant important. Un solénoïde placé au centre de la configuration (en orange sur la figure 6) est utilisé pour induire une variation de flux magnétique qui, par effet transformateur, induit un champ électrique dans la chambre à vide. Si on introduit au même moment de l’hydrogène dans la chambre on peut obtenir un claquage dans ce gaz, puis la formation d’un plasma et la génération du courant nécessaire à un bon confine- ment. On remarque aussi sur le schéma des figures 5 et 6 les grandes bobines concentriques à axe vertical (en vert sur le schéma de la figure 5) qui servent à ajuster la position et la forme du plasma à l’intérieur de la chambre. Le cycle d’opération d’un tokamak est donc constitué de plusieurs phases : chambre et établissement du champ Figure 5 : Schéma montrant les principaux éléments d’un tokamak. Son plasma (en jaune) est par- couru par un courant toroïdal dont le champ poloïdal est une contribution essentielle au confinement. Figure 6 : Section poloïdale d’ITER. Les surfaces magnétiques (en mauve) sont engendrées par la combinaison des champs toroïdaux et des champs poloïdaux créés d’une part par le courant plasma de 15 MA et d’autres par les différentes bobines concentriques à axe vertical (CS et PF). Les courants dans ces dernières sont programmées pour maintenir les ‘gaps’ g1 à g6 et la position de la séparatrice (en rouge) par rapport au divertor en partie basse – Source : Fig. 1.2.1-5 de [5]. 40 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER principal statique (bobines de champ toroïdal) ; - tialement complètement chargé, son courant s’inversera au cours du cycle) pour produire une variation de flux ma- gnétique et, simultanément, de l’hy- drogène est introduit dans la chambre à une pression adéquate pour qu’un claquage ait lieu. Un plasma se forme. La position et la forme du plasma sont ajustées en programmant le courant dans les bobines de champ poloïdal. En particulier une séparatrice magné- tique est formée, elle comporte une ligne (point X sur la section transver- sale, figure 6) où le champ poloïdal est nul. Elle sépare la zone de confinement où les surfaces magnétiques sont fer- mées de celle où elles sont ouvertes et où elles dirigent les écoulements au bord du plasma vers le divertor, situé en général dans la partie basse de la machine (figure 6), en y déposant une grande puissance par unité de surface. Le plasma qui diffuse vers les parois de la chambre y entraine les impure- tés ; il est neutralisé et évacué par pompage (le combustible pourra être recyclé). La température du plasma s’élève sous les actions combinées du chauffage ohmique résultant du courant plasma et des systèmes de chauffage auxiliaires (ondes haute fré- quence et/ou injection de neutres) ; la fusion est atteinte, le chauffage par l’énergie de l’hélium né de la réac- tion de fusion devient dominant et on peut réduire les chauffages auxi- liaires. Les neutrons issus de la réac- tion s’échappent librement du plasma. Ils sont ralentis dans des modules de couverture qui tapissent l’intérieur de la chambre à vide et leur énergie est récupérée dans le fluide caloporteur qui les refroidit ; plasma, il faut augmenter continu- ment le flux magnétique produit par le solénoïde central. On ne peut pas bien sûr le faire indéfiniment et il fau- dra soit arrêter la décharge lorsque que le courant limite du solénoïde est atteint, soit créer le courant plasma d’une autre manière. On pourra utiliser par exemple la génération de courant par des ondes progressives (e.g. les ondes hybrides utilisées dans l’expé- rience Tore Supra [3]). On peut aussi se placer dans un régime plasma qui engendre spontanément un fort cou- rant interne (courant de “bootstrap”). Le schéma d’un réacteur à fusion basé sur le principe du tokamak est don- né par la figure 7. Les couvertures qui tapissent la chambre à vide ralentissent les neutrons et produisent du tritium qui peut ensuite être réinjecté comme combustible. Elles sont parcourues par un caloporteur qui refroidit l’ensemble et alimente le générateur de vapeur actionnant la turbine électrogène. Le divertor situé dans la partie basse de la machine permet l’évacuation des cendres (l’hélium) et des impuretés. Le rendement énergétique global impose que le champ magnétique soit produit par des aimants supraconducteurs et que le gain physique Q défini précé- demment soit supérieur à 30. Figure 7 : Schéma d’un réacteur à fusion basé sur le principe du tokamak. REE N°4/2016 41 La fusion thermonucléaire Historique et état des recherches en fusion magnétique En 1958, à l’occasion de la seconde conférence de Genève ‘Atoms for peace’, les recherches sur la fusion ont été déclassifiées par l’ensemble des pays appartenant à l’AIEA. Les défis à relever pour réaliser le potentiel de cette nou- velle source d’énergie sont apparus bien plus difficiles que prévus initialement et exigeant une collaboration internationale intense. Effectivement, 1958 marque le début d’une collaboration totalement ouverte sur les recherches en fusion ma- gnétique qui s’est avérée extrêmement fructueuse. ITER se place naturellement dans le prolongement de cette collabo- ration. Cinquante ans plus tard, en 2008, la communauté scientifique a pu faire un bilan et examiner les orientations futures. Suivant le tableau de la référence [4], on peut, décennie par décennie, identifier les faits plus marquants : 1958-68 : Fondations de la physique des plasmas. Les découvertes sur les instabilités conduisent aux déboires des machines à miroir mais en 1968, les Russes obtiennent 1 keV sur le to- kamak T3 du Kurtchatov, résultat très en avance sur l’Occident (son plasma est macroscopiquement stable) ; 1969-78 : L’Occident se convertit au Tokamak. L’équipe française de Fontenay-aux-Roses construit le TFR, premier tokamak occidental à confirmer les résultats des Russes, à les améliorer de manière significative et à installer des moyens de chauffer le plasma ; 1979-88 : L’Europe construit le JET à Culham (UK), les Etats-Unis le TFTR et le Japon le JT 60. Ce sont des tokamaks de taille largement supérieure à celle de la génération précédente. Capables de courant plasma de plusieurs mil- lions d’ampères, ils peuvent confiner les atomes d’hélium de 3,56 MeV issus des réactions de fusion et approcher ainsi les conditions thermonucléaires. Les pre- miers résultats sont décevants. Le confi- nement se dégrade avec l’application du chauffage additionnel. Cependant, le Tokamak Asdex en Allemagne installe un divertor et découvre fortuitement le mode H, une bifurcation spontanée qui restaure un confinement acceptable. Le temps de confinement est doublé. Dans ce mode, une barrière de confi- nement s’établit au bord du plasma. Elle relaxe périodiquement par de brèves instabilités : les ELM (Edge Localised Modes), impulsions qui mettent à rude épreuve le divertor. Le Tore Supra est construit à Cadarache ; il démontre la possibilité de fonctionner avec des ai- mants supraconducteurs ouvrant la voie au fonctionnement en continu, en utili- sant la génération de courant par ondes et en développant les composants à haut flux activement refroidis ; 1989-2001 : Le JET et le TFTR pro- duisent de l’énergie de fusion avec un mélange D-T, respectivement 16 MW [6] et 10 MW. Le chauffage par l’hélium est observé pour la première fois. Il est en accord avec les prédictions bien que limité à 10 % du chauffage to- tal. Une base mondiale de données du confinement des tokamaks établit les lois d’échelle du confinement (figure 8) en utilisant une approche non dimen- sionnelle, type ‘essais en soufflerie’. Elles permettent de dimensionner une machine selon la performance voulue. Le produit nT (produit de Lawson mul- tiplié par la température) atteint pour la première fois la région du ‘breakeven’ (figure 9). Un groupe d’études interna- tional est créé sous l’égide de l’AIEA : l’ITER EDA (Engineering Design Ac- tivities) avec mission de définir une machine capable de faire la démonstra- tion de l’énergie de fusion (cf. l’article sur le projet ITER). Sa proposition est acceptée par les partenaires en 2001. Figure 8 : Loi d’échelle du confinement établie à partir d’une base de données de 13 tokamaks de différentes tailles et champs magnétiques. Elle prédit un temps de 4 s dans ITER. Les données ont été mises sous la forme non dimensionnelle des équations de transport du plasma. Source : JET Joint Undertaking. 42 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER 2001-temps présent : La construction d’ITER est lancée (2007) après de lon- gues négociations sur le choix du site. En parallèle, les machines existantes préparent son exploitation (utilisation du tungstène et mitigation des ELMs et des disruptions sur plusieurs machines européennes et américaines). Le Tore Supra fait des progrès dans l’opération en continu et porte la durée d’opération à six minutes. Sur le plan théorique [7], le transport de la chaleur peut mainte- nant être abordé à partir des premiers principes en utilisant la puissance de calcul de la nouvelle génération d’ordi- nateurs. Les résultats de l’approche non dimensionnelle sont confirmés. Défis sur la route du réacteur électrogène ITER a été dimensionné pour Q=10, une puissance fusion de 500 MW et une combustion initialement de 400 s. Son succès constituera la solution à de nombreux défis sur la route du réacteur à fusion. Sur le plan de la physique, on aura fait la démonstration de l’existence d’un plas- ma en « combustion thermonucléaire » où l’énergie apportée par l’hélium né de la réaction constitue le chauffage domi- nant du plasma. On aura ainsi établi les propriétés de stabilité de ces particules durant leur ralentissement depuis leur très haute énergie. Pour en arriver là, il aura fallu maitriser la tenue sous des flux intenses d’énergie des matériaux face au plasma, contrôler les ELM dont l’impact sur le divertor peut conduire à une éro- sion excessive et les disruptions, mou- vement incontrôlé brutal du plasma qui peut induire des efforts considérables sur les structures dans la chambre à vide. Sur le plan de la technologie, on aura démontré la possibilité de réalisation, à une échelle industrielle sans précédent, des indispensables grands aimants su- praconducteurs ainsi que leur fonction- nement dans un environnement hostile (rayonnement, champs fluctuants) et la maîtrise des autres technologies spéci- fiques de la fusion (ultra vide dans des volumes de très grandes dimensions, électrotechnique, systèmes de chauf- fage, etc.). Sur le plan de la sûreté, on aura aussi démontré les avantages de la fusion : impossibilité de l’emballement du processus et absence de déchets radioactifs à très longue durée de vie. La maîtrise du cycle d’utilisation du tritium et de la télémanipulation, déjà abordée avec succès sur le JET, devra atteindre un haut niveau de fiabilité et d’efficacité. Cependant les résultats d’ITER de- vront être complétés par le développe- ment de matériaux capables de résister à une dose plus importante de flux de neutrons de 14 MeV. Cet aspect fait par- tie de l’approche élargie des recherches sur la fusion menées par l’Europe et le Japon, qui inclut le programme IFMIF (International Fusion Materials Irradiation Facility). En ce qui concerne la généra- tion de tritium in situ, ITER a prévu l’inté- gration dans la couverture de plusieurs petits modules tritigènes. Ils pourront dé- montrer la validité des concepts de base ; cependant, vu la taille de ces modules, la production de tritium sera très inférieure à la consommation. La démonstration de l’autosuffisance en tritium devra donc être faite dans une nouvelle étape. Celle-ci pourrait être constituée par une machine de démonstration. Pour être électrogène, cette machine devrait avoir un Q ~ 30 et disposer d’une couver- ture tritigène complète. Les différentes étapes de la fusion ont été schématisées sur la figure 10. La Chine étudie en ce moment la construction d’une machine autosuffisante en tritium d’une taille voi- sine de celle d’ITER. Conclusions Depuis plusieurs décennies, les re- cherches sur la fusion thermonucléaire Figure 9 : Progrès des performances vers le milieu des années 90. L’échelle de l’axe vertical qui est exprimée en atmosphère.secondes est équivalente au produit nT . En 1997, ces résultats seront confirmés avec un mélange DT par le JET. Une puissance de 16 MW sera produite. Source : JET Joint Undertaking. REE N°4/2016 43 La fusion thermonucléaire contrôlée par confinement magnétique ont bénéficié d’une collaboration interna- tionale très active ; des bases scientifiques et techniques solides sur la physique du confinement dans les tokamaks ont pu être établies. Les grandes expériences européenne, américaine et japonaise ont pu les confirmer et atteindre des perfor- mances proches du “breakeven” (Q ~ 1). Les dimensions d’un réacteur capable d’un gain supérieur à 1 doivent dépasser un seuil critique. C’est le cas d’ITER qui doit atteindre Q = 10 et entrer dans le nouveau domaine physique où l’énergie provenant des collisions de l’hélium, né de la réaction de fusion, avec les autres atomes du plasma constitue la princi- pale source de chauffage permettant d’entretenir le processus. La stabilité de la population d’hélium à haute énergie devra être confirmée ainsi que les lois de confinement du tokamak qui ont dû être extrapolées à partir d’une machine huit fois plus petite en volume (le JET). De nombreux défis devront aussi être rele- vés sur le plan de la technologie ; ils sont abordés dans l’article sur le projet ITER. Bibliographie [1] M. L. E. Oliphant, P. Harteck, and Lord Rutherford, Proceedings of the Royal Society, A, vol. 144, p. 692-703 (1934). [2] « La Fusion thermonucléaire Contrô- lée par Confinement Magnétique », Masson (1987) ; voir aussi : S. Cowley, “the quest for fusion power”, Nature Physics, vol. 12, May 2016, 384-386. [3] J. Jacquinot & al., “Recent develop- ments in steady-state physics and te- chnology of tokamaks in Cadarache”, Nuclear Fusion 43 (2003) 1583. [4] J. Jacquinot, “Fifty years in fusion and the way forward”, (2010) Nuclear Fusion 50 014001 [5] “ITER Technical Basis”, ITER-EDA- DS24, IAEA (2002) [6] M. Keilhacker & al., “High fusion performance from deuterium-tritium plasmas in JET”, Nuclear Fusion 39 (1999) 209. [7] X. Garbet, P. Mantica & al., “Physics of transport in Tokamaks”, Plasma Phys. Control. Fusion 46 (2004) B557–B574. Figure 10 : Quelques étapes de la fusion vers le réacteur électrogène. Tore Supra est caractéristique des machines nationales en fonctionnement. JET, construite et opérée par l’Europe est la machine la plus performante en fonctionnement. ITER est en construction à Cadarache. DEMO est un concept préliminaire de la prochaine étape devant fonctionner en régime continu (CW). De haut en bas sont indiqués : – le volume du plasma – la puissance fusion – le gain Q – la durée de la décharge – le niveau de chauffage par les particules alfa. L'AUTEUR Jean Jacquinot est physicien des plasmas. Il a participé aux recherches sur la fusion par confinement ma- gnétique, dans un premier temps au CEA à Fontenay aux Roses (1963- 81) puis de 1981 jusqu’à fin 1999 au JET joint Undertaking, la grande expérience européenne construite à Culham au Royaume Uni. Il y a exer- cé plusieurs responsabilités : respon- sable du chauffage HF du plasma, directeur adjoint puis directeur géné- ral. Il rentre en France au tout début de 2000 pour prendre la direction des recherches sur la fusion au CEA et contribuer à la candidature de Cadarache pour ITER. À partir de 2004, il est conseiller scientifique au CEA et est à présent Senior Adviser auprès du directeur général d’ITER. 44 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER Les objectifs stratégiques Faire de la fusion thermonucléaire d’isotopes de l’hydrogène une source d’énergie pérenne exige de définir les développements scientifiques et tech- niques qui permettront la construction d’une station de puissance électrogène. Dans ce cadre, les recherches sur le confinement magnétique des plasmas chauds, en particulier dans la configu- ration magnétique des tokamaks (Cf. l’article précédent de Jean Jacquinot), sont parvenues à des résultats suffi- samment cohérents pour convaincre l’ensemble des acteurs à l’échelle mon- diale de s’associer et collaborer à la réa- lisation en deux étapes, d’un réacteur utilisant la combustion thermonucléaire deutérium-tritium (D-T) et dévelop- pant une puissance quasi stationnaire de 500 MW. La première étape d’une dizaine d’années d’“Engineering Design Activities” (EDA) a défini les plans détail- lés du dispositif tokamak et réalisé les développements nécessaires à leur qua- lification tant en matière de physique que de technologie. La deuxième étape en cours depuis 2006 doit construire le dispositif à Cadarache (France) dans le cadre d’un traité (Joint ITER Agreement: JIA) entre sept gouvernements : six ont des contributions égales au projet, Chine, Corée du Sud, Etats-Unis, Inde, Japon, Russie et celle de l'UE, en tant que partenaire hôte, est cinq fois plus importante que celle des autres parte- naires ; chacun d’eux bénéficiera de la totalité des résultats. La signature de l’accord ITER exprime la confiance acquise par les gouverne- ments dans l’avenir de la fusion thermo- nucléaire à partir des résultats exposés dans l’article précédent. Elle confirme les options proposées par l’EDA et dé- crit les objectifs stratégiques à atteindre avec ITER qui permettront ensuite la conception d’un démonstrateur électro- gène de puissance (DEMO) : quasi stationnaire, développant au moins 500 MW pendant plus de 400 s et une valeur Q = 10 (rapport de Pfus à Pin ) quand le courant plasma est main- tenu uniquement par l’action du solé- noïde central (plasma “inductif”) ; vers les conditions stationnaires de 500 MW pendant 3 000 s et Q = 5 quand le courant plasma est maintenu par des sources auxiliaires de courant en cours de développement (injection de particules neutres énergétiques et ondes électromagnétiques) en plus des sources internes liées aux gra- dients de pression plasma ; - logies spécifiques (aimants supracon- ducteurs à haut champ magnétique ; maintenance robotisée ; pompage gazeux à hauts débits et ultravide) et une qualité qui permette une dispo- nibilité de 90 % pendant une à deux semaines avec un facteur d’utilisation de 25 %, la réalisation d’au moins 30 000 pulses et d’une irradiation de 0,3 MW.a/m2 de la paroi face au plas- ma par les neutrons de 14 MeV issus des réactions D-T avec une intensité de 0,5 MW/m2 . - pendante sans profiter de la pleine collaboration de tous les partenaires d’ITER, des modules de couverture tritigènes à haute température et une installation (IFMIF) dédiée à l’irradia- tion par des neutrons de 14 MeV des matériaux candidats pour DEMO. Comment choisir et sur quelles bases les paramètres du dessin d’ITER qui per- mettent d’atteindre les objectifs ci-des- sus avec le maximum de confiance, le minimum de risques et de coûts : c’est l’ambition de ce court exposé qui met l’accent sur les méthodes, en rappelant que le projet ITER demeure un instru- ment de recherche extrapolant des résultats expérimentaux dont la com- préhension n’est pas encore complète. Les programmes de développement Pour atteindre ces objectifs straté- giques, les EDA ont proposé une archi- tecture globale pour ITER intégrant tous les concepts fonctionnels innovants du Le projet ITER Objectifs, choix des paramètres et état du projet Par Robert Aymar1 , Bernard Bigot2 et Jean Jacquinot3 Conseiller scientifique auprès de l’administrateur général du CEA1 , Director-General of ITER Organization2 , Senior Adviser to the ITER Director-General3 The goal of ITER is to demonstrate the scientific and technical mastering of fusion energy, building on several decades of worldwide magnetic confinement research, as well as dedicated engineering design activities and prototyping. ITER is the world’s largest and most complex energy research project. To meet this challenge, an international collaboration of seven partners has been established in order to build, operate ITER and share the scientific results. This article summarises the objectives, the methods for choosing the parameters, the scope and the status of the project. ABSTRACT REE N°4/2016 45 Le projet ITER projet. Des prototypes, ou au moins des modèles extrapolables, ont été réalisés par les firmes industrielles des parte- naires, testés dans les laboratoires de manière à qualifier techniquement les technologies, mesurer les difficultés de fabrication et de maintenance et éva- luer leurs coûts. Sept importants pro- grammes de développement ont ainsi été mis en œuvre. Ils comprennent la ré- alisation de deux modèles à échelle ré- duite de bobines du champ magnétique respectivement toroïdal et poloïdal, un module pleine échelle de chambre à vide et de pompe cryogénique, des modules de couverture et de divertor, leurs matériaux et leurs dispositifs de maintenance robotisée pleine échelle. Les résultats de ces développements [1] constituent le cœur des concepts fonc- tionnels du dessin d’ITER et justifient la confiance en leur mise en œuvre. Pendant la même période, les par- tenaires ont conduit des analyses coor- données des expériences réalisées avec tous les tokamaks opérationnels de différentes tailles, de manière à définir leurs meilleures conditions d’exploita- tion et les règles d’extrapolation paramé- trique de leurs dimensions et de leurs performances. Cette base de données physiques, publiée et continûment mise à jour dans “ITER Physics Basis” [2], est le complément de la base de données technologiques décrite plus haut. Elle permet de choisir l’architecture d’ITER la mieux adaptée au meilleur confinement du plasma pour atteindre les objectifs prioritaires du plasma “inductif”. Cette architecture sera utilisée ensuite pour se rapprocher du fonctionnement continu par l’introduction de nouveaux moyens de génération de courant plasma en cours de développement, qui permet- tront de bénéficier du contrôle de son profil. L’architecture souhaitable pour ITER mode à confinement amélioré (mode H, Cf. article de Jean Jacquinot), avec un fort gradient de la densité au bord, modifié par des relaxations pério- diques (“Edge Localized Modes”, ELM) dont l’intensité doit être contrôlée ; pour atteindre ou maintenir ce mode H, la puissance des pertes transpor- tées au bord par diffusion (n’incluant pas les pertes rayonnées) doit être suffisamment grande (>PLH ) ; souhaitée, la densité au centre du plasma doit être suffisamment grande sachant qu’elle est limitée par les pro- cessus physiques (limite radiative dite de “Greenwald” ou pression plasma limite N (Cf. encadré 1) ; donnée au plasma (élongation verti- cale, triangularité) et du cisaillement local du champ magnétique qu’elle produit, tout en respectant la limite imposée par l’instabilité de la posi- tion verticale (corrigée en partie par des bobines de contrôle internes à la chambre à vide) et la stricte limitation du courant plasma défini par le facteur de sécurité q>2,6 pour éviter le cou- plage des instabilités MHD centrales avec le bord (Cf. encadré 1). Ces caractéristiques du plasma dé- pendent de la configuration magnétique établie suivant la valeur de paramètres sans dimension et contrôlée par les courants des bobines coaxiales. Un seul paramètre sans dimension A=R/a demeure indépendant ; les autres dé- pendent de A ; les expériences de la base de données ont utilisé des valeurs de A entre 2,5 et 4. La méthode de dé- termination des valeurs retenues pour ITER est exposée plus bas. Fonctions et structures des principaux composants d’ITER L’architecture ne peut aboutir à des dessins réalisables sans prendre en compte les contraintes technologiques qui déterminent la structure mécanique globale ; ces contraintes sont géné- riques des tokamaks et doivent donc Les paramètres du plasma tokamak Le dimensionnement d’ITER repose sur une extrapolation des dimen- sions du plasma des machines existantes tout en restant à l’intérieur du domaine de stabilité et de performance défini par les principes physiques. Les limites du domaine ont été vérifiées par toutes les expériences simi- laires, c’est à dire fonctionnant avec des paramètres plasma identiques à l’exception de la taille. Par exemple, la densité moyenne ne peut dépasser une valeur limite ng ( a2 /I), la pression normalisée du plasma, N, ne peut excéder une valeur liée à la pression magnétique et la puis- sance traversant la frontière du plasma, Ploss , doit dépasser une valeur minimum PLH pour accéder au mode de bon confinement, le mode H. Ces limites donnent les deux diagrammes de la figure 3 qui prédit la puissance accessible. Le courant I doit aussi être strictement limité pour éviter des instabilités violentes (disruptions de courant). En pratique on se limitera prudemment au facteur de sécurité q>2,6. q=2 a2 B /µ0 IR, où a est le rayon moyen et R le grand rayon du plasma, B est le champ toroïdal sur l’axe magnétique. Encadré 1. 46 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER être analysées en parallèle avec le choix des technologies retenues pour les prin- cipaux composants d’ITER. L’ingénierie détaillée de ces composants est présen- tée dans les articles suivants ; les nom- breux diagnostics du plasma ne seront pas traités. Les bobines supraconductrices Une technologie est particulièrement importante: celle les bobines supracon- ductrices pour créer des champs ma- gnétiques permanents sans dissipation résistive, pouvant atteindre des valeurs très élevées (>13 T sur le conducteur), associés généralement à de grandes énergies stockées et de grandes forces. Le courant de ces bobines peut être très élevé (75 kA) ; il est porté par un câble à nombreux filaments transposés, en NbTi ou en Nb3 Sn suivant la valeur du champ magnétique respectivement inférieur ou supérieur à environ 6 T, protégés par un tube épais en acier dans lequel circule un flux d’hélium, refroidi à 4,5 K dans une installation cryogénique ; si cette température s’élève au-dessus d’un seuil (<20 K), température critique dépen- Figure 2 : Section poloïdale montrant les bobines de champ poloïdal (PF 1 à PF 6), les modules de couvertures (en vert et bleu), la chambre à vide (en rouge) – Source : figure 2.1-1 de la référence [4]. Figure 1 : Ecorché d’ITER représentant les principaux éléments. Ils seront fournis en nature par les partenaires selon la répartition schématisée par les drapeaux (voir aussi la figure 5) – Source : ITER. REE N°4/2016 47 Le projet ITER dant du champ, le câble devient résistif et l’énergie magnétique de la bobine doit être dissipée rapidement à l’extérieur, condition impérative de sûreté. Cette technologie est employée dans ITER avec des conducteurs de diffé- rentes dimensions (Cf. l’article consacré aux aimants) pour les six bobines du solénoïde central (CS), les 18 bobines du champ toroïdal (TF), les six grandes bobines coaxiales du champ poloïdal (PF) et une série de petites bobines dites de correction (CC). Les câbles de liaison des bobines avec leurs alimen- tations électriques sont réalisés avec des conducteurs à haute température critique (HTC) récemment développés. le solénoïde central : la variation totale du flux magnétique de cette bobine par l’inversion du courant (+ et - 45 kA) à sa valeur maximum, doit induire la tota- lité du courant plasma, mais préserver la variation (faible) de flux nécessaire pour ensuite le maintenir constant pen- dant 400 s malgré sa dissipation. Le solénoïde supraconducteur est donc pulsé pour chaque expérience, une condition peu appréciée pour cette technologie. Le solénoïde est consti- tué de six modules coaxiaux alimentés séparément ; le champ magnétique atteint 13 T et le niveau des contraintes de compression azimutale et verticale doit limiter les problèmes de fatigue (deux fois 30 000 pulses) ; le schéma de l’aimant toroïdal est celui d’un ensemble de 18 bobines su- praconductrices, chacune dans un boi- tier soudé en acier, équilibrant toutes les forces appliquées par des réactions internes (sauf la gravité) en particulier par la formation d’une voûte entre les nez des bobines avec un niveau de compression statique toroïdale impor- tant, ainsi que celui du cisaillement entre bobines, tout au long de leur péri- mètre, dû à l’interaction avec le flux du champ vertical d’équilibre du plasma. Les 18 bobines sont alimentées en sé- rie par un courant de 70 kA créant un champ maximum de 11,5 T sur la face interne des bobines. L’aimant toroïdal doit être axisymétrique autour d’un axe vertical défini avec une précision inférieure à 5 mm ; la modulation du champ magnétique au bord du plasma (due au nombre fini de bobines) doit être minimisée par la distance des bobinages et l’emploi d’un matériau ferromagnétique placé entre les deux parois de la chambre à vide ; Les grandes bobines coaxiales sont attachées à l’aimant toroïdal qui par- ticipe à leur équilibre mécanique ; elles sont réalisées avec un câble en NbTi dans un tube d’acier de section carrée, bobiné en doubles galettes. Leur fonction est d’assurer la position verticale d’équilibre (souvent instable) de l’anneau de plasma en contrôlant sa frontière par le courant de chacune des bobines. Une bobine coaxiale en cuivre refroidi par un circuit d’eau est construite à l’intérieur de la chambre à vide, donc plus proche du plasma, pour stabiliser cet équilibre. La chambre à vide C’est une double structure toroïdale en acier austénitique entièrement sou- dée (parois de 60 mm d’épaisseur), construite en neuf modules de 40 de- grés reliés in-situ avec des précautions qui permettent de respecter le même axe de révolution que l’aimant toroïdal. Des fenêtres, situées dans des plans verticaux entre les bobines du champ to- roïdal, donnent accès vers l’extérieur au travers du cryostat. Les besoins d’accès et leurs dimensions (pour les chauffages par injection de neutres énergétiques et par ondes haute fréquence, le change- ment de modules de couverture et du divertor, les diagnostics, etc.) doivent être compatibles avec le nombre des bobines et leurs dimensions. Entre les deux parois, des briques métalliques, certaines ferromagnétiques, participent à la protection vis à vis des neutrons ; la chambre est refroidie par un circuit d’eau pressurisée, conservant la tempé- rature constante autour de 100 °C sauf pour un étuvage occasionnel à 200°C. La chambre à vide est évacuée par un puissant système de six pompes cryogéniques fonctionnant de manière cyclique : adsorption à 4.5 K sur 2x5 m2 de charbon par pompe, suivie par un isolement et réchauffage pour désorp- tion sous pompage primaire mécanique en assurant la séparation de l’hélium du combustible D et T qui est envoyé à l’ins- tallation tritium pour reconditionnement. La plupart des interactions magné- tiques et thermiques du plasma avec les parois de la chambre sont axisymétriques (dues au vide ou à une pression gazeuse accidentelle, aux décharges rapides des champs, aux disruptions de courant qui peuvent conduire à de très dangereux électrons découplés en énergie, etc.) et peuvent donc être reprises par des contraintes internes (sauf la faible dissy- métrie entre haut et bas) ; néanmoins, certains contacts non-axisymétriques du plasma avec la paroi (“VDE”, Vertical Disruption Events) aboutissent à y faire circuler une partie du courant plasma, créant ainsi de larges forces localisées d’interaction entre la chambre et les ai- mants, qui doivent être reprises par des liens mécaniques courts. Couverture et divertor La face interne de la chambre est protégée soit par des modules de cou- verture qui par leur épaisseur doivent ralentir et absorber les neutrons de la réaction D-T, soit par des modules du divertor chargés d’accepter la très forte puissance échangée dans le contact localisé avec le plasma et d’assurer le pompage des impuretés. Ces deux systèmes de modules extraient la puis- sance totale, due à la combustion D-T et aux auxiliaires de chauffage, et la transfèrent à un système de refroidisse- 48 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER ment à eau pressurisée. Faisant partie de la première paroi vis à vis du plasma, ces deux systèmes sont soumis à des courants induits et donc à des efforts qui doivent être analysés et maîtrisés par leurs attachements à la chambre à vide. Ces deux systèmes sont les moins robustes de l’installation, ce qui explique leur structure modulaire et le poids li- mité de chaque module, qui permettent le remplacement de certains modules endommagés à l’aide de systèmes ro- botisés spécifiques. Ecran thermique Entre l’aimant toroïdal et la chambre, il faut installer un écran thermique dont la structure toroïdale est complexe car elle s’étend ensuite autour de toutes les structures internes au cryostat. Refroidi par une circulation d’hélium à 50-70 K, cet écran doit faire en sorte qu’aucune de ces structures internes ne subisse le contact ou le rayonne- ment direct de surfaces portées à des températures supérieures à 300 K, en particulier quand la chambre à vide est étuvée à 200 °C et que la face interne de l’aimant du champ toroïdal est à 4,5 K (avant d’obtenir leur équilibre thermique, les deux ensembles se dé- placent radialement en sens opposés depuis 300 K). L’intérêt d’utiliser au mieux les zones à fort champ magnétique toroïdal pousse à réduire la distance entre bobines, écran et chambre, entraînant éventuellement des difficultés lors de l’assemblage. Le même intérêt pousse à réduire l’épaisseur des modules de couverture de la face interne de la chambre à vide, et même celle de la chambre, au prix de l’acceptation d’une irradiation neutronique plus importante et d’un refroidissement cryogénique plus puissant. Cryostat Autour des ensembles précédents et les maintenant sous vide, est installée une grande enceinte de 30 m de dia- mètre et 30 m de hauteur, percée de nombreuses pénétrations pour l’accès à l’intérieur de la chambre à vide et pour les connexions électriques et cryogé- niques des bobines supraconductrices ; la présence de nombreux orifices exige une étanchéité sans faille malgré la dif- ficulté des tests dans une aussi grande enceinte. Le cryostat est équipé de deux pompes cryogéniques semblables à celles de la chambre à vide. Les chauffages auxiliaires du plasma Ces chauffages sont indispensables à la création du plasma et à la crois- sance de sa température, avant que la configuration divertor et le mode H ne soient établis ; ils participent ensuite à l’équilibre thermique global du plasma, mais ils peuvent aussi être utilisés pour agir sur une zone particulière du plasma, modifiant le profil local de courant et changeant la stabilité de certains modes de fluctuations. Une puissance totale de chauffage de 73 MW est prévue, distri- buée en différentes sources : faisceau d’hydrogène ou deutérium neutralisé après accé- lération à grande énergie (< 1 MeV) permet de créer un courant localisé au voisinage du centre du plasma, zone de tangence de la trajectoire du fais- ceau avec le cercle de rayon R ; la zone peut être modifiée par inclinaison ver- ticale du faisceau autour d’un axe hori- zontal à l’extérieur du cryostat. Deux injecteurs sont préparés, un troisième est seulement prévu. Chaque injecteur est équipé de deux pompes cryogé- niques fonctionnant en cycles. ondes électromagnétiques gui- dées, créées par 20 gyrotrons de puis- sance continue unitaire de 1 MW à 170 GHz soit au total 20 MW, peuvent être focalisées par des antennes pla- cées dans les fenêtres équatoriales ou supérieures, sur différentes régions du plasma où elles sont absorbées au voi- sinage de la résonance cyclotronique des électrons ; et absorbées par le plasma au voisi- nage de la fréquence cyclotronique ionique (40 à 55 MHz) ; une ou deux antennes dans une fenêtre équatoriale peuvent coupler 20 MW au plasma. Les systèmes auxiliaires de support Alors que les systèmes précédents sont spécifiques des outils de recherche sur la fusion thermonucléaire, les sui- vants peuvent être réalisés à partir de l’expérience industrielle : le système de refroidissement par eau pressurisée est important par sa taille et le nombre d’utilisateurs aux besoins différents. Un aspect spéci- fique doit retenir l’attention : la possi- bilité de contamination par le tritium et la difficulté de traiter l’eau tritiée exigent l’isolement des circuits dans un réseau avec le plus faible volume possible, en particulier lors d’une fuite d’eau petite ou grande dans la chambre à vide ; le système cryogénique fournit du froid à 4,5 K pour le refroidissement des bobines (75 % de la consom- mation) et celui des pompes cryogé- niques (25 %), et à 80K pour celui de la circulation d’hélium dans les écrans thermiques. Une fraction de ces be- soins est pulsée pour suivre les cycles de fonctionnement d’ITER ou ceux des systèmes de pompage cryo. L’usine de production du froid, 75 kW à 4,5 K par liquéfaction d’hélium et 600 kW à 80K par liquéfaction d’azote, utilise 25 compresseurs et 35 MW de puissance électrique : c’est donc une installation exceptionnelle par sa taille, mais aussi par les exigences techniques de son fonctionnement (nombreux circula- teurs d’hélium à température cryogé- nique) ; REE N°4/2016 49 Le projet ITER la distribution de puissance élec- trique est réalisée à partir d’une connexion sur le réseau 400 kV (déjà utilisée à Cadarache pour Tore Supra) : elle comprend un réseau classique de charge quasi permanente d’environ 120 MW (en 22 kV - 6,6 kV - 400 V), un réseau pulsé très particulier avec des variations rapides de puissance distribuée à partir de 3x300 MVA en 66 kV pour les convertisseurs d’ali- mentation des bobines et en 22 kV pour les chauffages du plasma, et un réseau redondant à partir de die- sels pour les fonctions de sécurité de l’INB. Une contrainte particulière est imposée au réseau pulsé : malgré la grande puissance de court-circuit du réseau 400 kV, les perturbations dues aux grandes variations de puissance réactive doivent être corrigées par une compensation suivie en temps réel ; la configuration des bâtiments est associée à des besoins spécifiques : la protection du bâtiment principal vis-à-vis des séismes et la maintenance robotisée de chaque dispositif expéri- mental installé autour du plasma dans sa cellule de protection biologique. Le dispositif doit être séparé de la chambre et transporté par des robots le long de galeries menant aux cellules chaudes pour y être reconditionné, avant son retour en position initiale par les mêmes moyens robotiques ; le contrôle permanent de tous ces systèmes et la conduite de leurs modes de fonctionnement sont des éléments essentiels qui uti- lisent tous les mêmes outils logiques et numériques, mais en tirent en cas d’incident de fonctionnement des bénéfices d’autant plus grands que la compréhension des écarts au mode principal a été poussée pendant le développement du système. Les dia- gnostics du plasma, beaucoup plus nombreux, ne sont qu’en partie gérés par ces outils. Choix des paramètres d’ITER Il est bien évident que l’intégration des contraintes précédentes dans la conception des composants d’ITER n’a pas pu être faite en une seule étape. Des concepts indépendants de chaque composant important (sans néces- sairement respecter à ce stade une cohérence d’ensemble) ont d’abord été établis pour permettre leur ana- lyse mécanique et thermique détail- lée, celle des méthodes de fabrication et des contraintes d’interface géomé- trique et fonctionnelle. Ce fut le cas pendant le programme de développe- ment mentionné précédemment. Cette étape a permis d’assurer la maîtrise conceptuelle de la future installation, sa construction et son fonctionnement. Ce n’est qu’après cette étape qu’ont pu être discutés les compromis et adapta- tions nécessaires pour assurer la cohé- rence globale entre la recherche des meilleures performances plasma et la réalisation d’une qualité structurelle irré- prochable. Une dernière contrainte n’a pas été considérée jusque-là, le coût écono- mique de réalisation du dispositif. Parmi toutes les conceptions autorisées par le choix des paramètres et le niveau des contraintes mécaniques permettant de délivrer 500 MW, existe-t-il un minimum du coût ? S’il existe, est-il compatible avec la valeur de Q recherchée, avec le choix des paramètres physiques du plasma qui apparaissent conduire aux meilleures performances ? Pour aboutir à la définition d’ITER, trois types d’études paramétriques ont été menées en parallèle durant les EDA : thermique, entre sources de puis- sance (combustion D-T et chauffages auxiliaires) et pertes du plasma, défini par les valeurs moyennes des para- mètres physiques et leurs limites (avec des profils plasma hypothétiques mais plausibles), les lois d’échelle per- mettent de déterminer la température et les domaines d’obtention d’une puissance de 500 MW de combustion D-T avec Q=10 (figures 3a et 3b) ; Figure 3 a : Domaine de fonctionnement d’ITER en grisé donnant la puissance de fusion en fonction du facteur de confinement H. Ce domaine est limité, en bas, par l’accès au mode H, en haut par la pression plasma maximum et à gauche par la densité moyenne maximum. Source [3]. 50 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER employer un algorithme pour décrire une série de concepts de machine in- tégrant de manière cohérente tous les résultats des études de performance plasma et d’ingénierie précédentes. En conservant la valeur des paramètres sans dimension et variant le niveau de puissance D-T, l’algorithme conduit à des dessins du dispositif de formes sem- blables dans leur coupe transversale ; comme élément du choix, le coût éco- nomique de réalisation des machines possibles. A l’algorithme précédent, il faut ajouter une base de données des coûts de fabrication : les industriels concernés ont établi le coût de fabrica- tion de chaque composant et sa varia- tion (au moins la tendance) suivant celle des paramètres principaux du dispositif. Le nombre de composants à prendre en compte est restreint : aimants, chambre à vide et modules internes, bâtiments et puissance électrique sont les seuls déterminants (beaucoup d’autres sont constants ou ne dépendent que de la puissance totale). L’application de ces méthodes durant les EDA a permis de choisir les para- mètres géométriques d’ITER (figure 4). Une série de machines, satisfaisant les objectifs et les contraintes, a pu être dé- terminée avec un rapport d’aspect com- pris entre 2,8 et 3,6, mais dont le coût de réalisation est quasi constant dans cette gamme (la valeur haute du rapport conduit à des aimants plus coûteux et une chambre à vide équipée plus éco- nomique et l’inverse pour la valeur basse du rapport). Le choix ultime a donc été fondé sur une évaluation des avantages et des risques présentés par les deux tendances et une valeur moyenne a été retenue (la plus courante dans les toka- maks exploités à ce jour). Les figures 3a et 3b indiquent le domaine opérationnel « inductif » d’ITER-15 MA avec les paramètres de la Figure 3 b : Domaine de fonctionnement d’ITER (en blanc) dans le diagramme densité moyenne en fonction de la température électronique moyenne. Ce domaine est limité, en bleu, par l’accès au mode H, en violet par la puissance de chauffage disponible (73 MW), en orange par la pression plasma maximum et en vert par la densité limite – Source : [5]. Figure 4 : Les principaux paramètres d’ITER. Reproduction d’un tableau du rapport final (2001) qui conclut les EDA - Source [4]. REE N°4/2016 51 Le projet ITER figure 4 ; il est inclus à l’intérieur des li- mites associées aux valeurs moyennes des différents paramètres physiques (densité et pression du plasma, main- tien du mode H, etc.). H=1 correspond à la qualité du mode H observé dans la base de données des expériences actuelles. Mise en œuvre de la collaboration à l’échelle mondiale pour construire ITER En 2006, après une longue période d’études techniques puis de négociations sur le choix du site (voir encadré 2) les sept partenaires – l’UE qui offre le site, la Corée du Sud, la Chine, les Etats-Unis, l’Inde, le Japon et la Russie – signent un accord international, ayant valeur de trai- té chez la plupart des partenaires, pour la construction et l’exploitation d’ITER. Ce projet constitue la plus importante collaboration scientifique internationale à ce jour. La répartition de la contribution, Quelques dates-clés d’ITER 1988-1990 : phase CDA (Conceptual Design Activities), études conceptuelles. Quatre partenaires : Europe, Etats Unis, Japon et Russie. 1992-2001 : EDA (Engineering Design Activities), études d’ingénierie et d’optimisation, retrait des Etats Unis en 1998 puis retour en 2003. Acceptation du FRD (Final Design Report) par les partenaires en 2001. 2003-2005 : La Chine, la Corée du Sud et l’Inde demandent à faire partie du processus ITER. 2006 : Signature de l’accord ITER par les sept partenaires après de longues négociations pour le choix du site ; les agences domestiques se constituent dans les pays partenaires (à Barcelone pour l’UE). L’équipe centrale s’installe sur le site de construction à Cadarache. 2010 : Les bulldozers commencent à préparer le site. 2015 : Le conseil ITER adopte le plan d’action du nouveau directeur général recadrant l’organisation dans une structure de projet. 2025 : Date estimée du premier plasma, début de l’exploitation. Encadré 2. Figure 5 : Répartition entre les différents partenaires des fournitures en nature pour la construction du complexe ITER. Elles constituent environ 90 % du coût total. Le reste, en particulier l’assemblage, est attribué à l’équipe centrale dont les bureaux sont installés à Cadarache – Source : ITER. 52 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER exprimée en fraction de la valeur totale de la construction, est de 46 % pour l’UE et de 9 % pour les six autres parte- naires. Environ 90 % de cette valeur doit être fournie en nature (figure 5) et pris en charge par les agences domestiques constituées par les partenaires. Les élé- ments de haute technologie, comme ceux qui interviennent dans la construc- tion des aimants supraconducteurs, sont souvent partagés entre plusieurs parte- naires, ce qui donne lieu à des interfaces complexes. L’équipe centrale dont les bureaux sont installés à Cadarache est en charge des spécifications techniques, de la sû- reté, des normes de qualité, de l’intégra- tion et de la coordination de l’ensemble, de l’assemblage et de l’installation et, plus tard, de l’opération. La France intervient à deux niveaux, d’abord comme partenaire au sein de l’UE, mais aussi avec une responsabilité particulière comme pays hôte (viabilité et mise en condition du site, locaux du siège, école internationale et itinéraire d’accès au site pour convois exception- nels). Cette responsabilité est mise en application par l’agence ITER France (AIF) dont le siège est aussi à Cadarache au sein du centre du CEA. En particulier l’AIF a supervisé la création de l’itinéraire entre Fos-sur-Mer et Cadarache pour le trans- port d’éléments de taille et de poids très exceptionnels, construits par les parte- naires dans le monde entier. Cet itinéraire est maintenant pleinement opérationnel et un certain nombre de composants ont déjà été acheminés sur le site avec suc- cès. Le choix de Cadarache comme site pour ITER doit beaucoup à l’excellence de l’environnement scientifique consti- tué par le centre du CEA et, sur le plan sociétal, par le soutien des collectivités territoriales qui contribuent à hauteur de 467 millions d’euros au coût d’ITER incombant à la France. Ce choix s’avère dès maintenant très judicieux sur le plan économique puisque, au début 2016 en- viron 51 % des contrats d’ITER et de l’AIF, soit 2,26 milliards , ont été passés aux entreprises françaises dont la majorité se trouve en région PACA. Une vingtaine de ces entreprises ont déjà créé plus de 400 emplois. Débuts difficiles de l’orga- nisation mais création d’une nouvelle dynamique Les engagements pris par la France ont été réalisés en temps et en heure. Cependant, au niveau international, la mise en place d’une structure de projet efficace a demandé beaucoup plus d’efforts et de temps que prévu. Initialement, l’équipe centrale a été constituée davantage comme une orga- nisation où les cadres supérieurs repré- sentent leur pays d’origine que comme une équipe recrutée pour sa compé- tence technique et dévouée à la seule réussite du projet. Les relations entre les différentes équipes de l’organisation étaient trop complexes et formelles ; l’intégration et la coordination des dif- férents éléments du projet n’étaient pas assurées. Ces manques ont été signalés par plusieurs évaluations externes et, en Figure 6 : Vue aérienne du site prise en avril 2016 – Source : ITER. REE N°4/2016 53 Le projet ITER 2015, d’importantes modifications ont été apportées à l’organisation générale pour pallier ces manques. Le directeur général est maintenant pleinement in- vesti de la responsabilité technique de l’ensemble du projet ; il dispose d’un fond de réserve pour imprévus tech- niques ; il peut choisir ses directeurs selon des critères de compétence pour le poste et a la possibilité de créer des équipes de projet pour les réalisations qui exigent une intégration poussée entre l’équipe centrale et celles des agences domestiques. Depuis que ces changements ont été mis en place, une nouvelle dynamique est observée qui évite les blocages et conduit à l’accélé- ration de la construction. Etat d’avancement du projet Les cinq articles qui suivent celui-ci dans le présent dossier décrivent les ins- tallations et composants majeurs d’ITER, leurs aspects innovants et l’état d’avan- cement de leurs réalisations. Nous nous limiterons donc ici aux aspects généraux ou à ceux qui se trouvent sur le chemin critique. Les équipes du projet sont en place ; elles doivent s’adapter en permanence aux activités qui évoluent de la concep- tion à l’exploitation en passant par l’as- semblage et les campagnes d’essais. L’équipe centrale de l’organisation inter- nationale ITER emploie actuellement ~ 650 personnes, représentant 35 nationa- lités. Un nombre à peu près égal de sous- traitants et d’experts travaille directement pour ITER sur son site de Cadarache à Saint-Paul-lez-Durance. Dans le monde entier, le programme ITER mobilise plus de 2 000 scientifiques, ingénieurs et techniciens qui sont employés par les agences domestiques des partenaires ou par les laboratoires nationaux. En mars 2016, ITER a estimé à 40 % le degré d’achèvement des systèmes né- cessaires au début de l’exploitation, qui correspond à l’obtention d’un premier plasma prévu pour 2025 selon un calen- drier validé par le Conseil ITER de juin 2016. Cette estimation inclut l’ensemble des éléments à fournir par l’équipe cen- trale et les agences domestiques. Sur le chemin critique, on trouve la chambre à vide, les bâtiments, l’assemblage de la machine et l’installation des systèmes de support. L’aménagement du site et la con- truction des bâtiments (figure 6 et article d’Erwan Duval sur la logistique) constituent des opérations majeures placées principalement sous la res- ponsabilité de l’agence domestique européenne F4E (Fusion for Energy). C’est un chantier de 90 hectares où sur une étendue horizontale de 42 hectares seront construits les 39 bâti- ments d’ITER. Sur la figure 6, on dis- tingue en particulier : le siège de l’organisation internatio- nale et les bureaux de l’équipe cen- trale, qui sont en service depuis 2012 (bâtiment agrandi en 2014) ; le grand hall d’assemblage de la machine (60 m de hauteur et de largeur, 97 m de longueur) où deux ponts roulants pouvant lever simulta- nément 750 tonnes chacun, sont en cours d’installation ; le complexe tokamak (90 m x 130 m) qui, une fois construit, atteindra 77 m de haut. Il comporte trois bâtiments mitoyens partageant les mêmes fon- dations : le hall réacteur, celui des dia- gnostics et l’usine de recyclage tritium. Il repose sur 493 patins antisismiques placés entre deux radiers de 1,5 m d’épaisseur chacun ; l’atelier cryostat construit par l’agence domestique indienne responsable de la fabrication du cryostat (hauteur 30 m, diamètre intérieur de 28 m) qui sera la chambre à ultra vide la plus grande jamais construite (16 000 m3 ). L’atelier abrite désormais la base du cryostat livré sur site en décembre 2015 (figure 7) ; l’usine de fabrication des grandes bobines de champ poloïdal (8 à 24 m de diamètre) qui seront fabri- quées sur place par l'UE, sauf deux d'entre elles de plus petit diamètre. L’outillage est en cours d’installation (figure 8) ; la connexion aux lignes 400 kV, à l’origine de la distribution de l’énergie Figure 7 : Base du cryostat assemblée provisoirement en Inde et livrée en décembre 2015 – Source : ITER. 54 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER électrique sur l’ensemble du site (Cf. article de Joël Hourtoule sur la distribution électrique) qui comprend trois réseaux : l’un pourra délivrer 120 MW à variation lente, l’autre une puissance pulsée pour les besoins du tokamak qui portera la puissance totale consommée à un total de 500 MW pendant la durée du pulse (plateau de 400 s maximum initia- lement). Pendant la phase pulsée, une puissance réactive importante est engendrée ; un dispositif original doit la compenser en temps réel. Un troisième réseau redondant, alimenté par diesel, assure l’alimentation des fonctions de sécurité La vue actuelle du site ne rend bien sûr pas compte des avancées considé- rables réalisées dans les industries des agences domestiques. On notera en premier lieu que les aimants supracon- ducteurs (Cf. article de Paul Libeyre) qui constituent un coût majeur d’ITER ont atteint le stade initial de la fabrica- tion en série après avoir passé le cap des tests sur des prototypes. En parti- culier, le solénoïde central est en cours d’assemblage aux Etats-Unis et il en est de même pour la première bobine de champ toroïdal (figure 9). La fabrication industrielle de plus de 200 km de câbles supraconduc- teurs (2 800 tonnes), requis pour le système magnétique du tokamak, est une opération pratiquement terminée ; elle est de très loin la plus importante fabrication de toute l’histoire de cette industrie. C’est certainement un très grand succès de la collaboration inter- nationale qui a impliqué six partenaires d’ITER travaillant en étroite coopéra- tion. Conclusions L’objectif d’ITER est de démontrer la maîtrise scientifique et technique de l’énergie de fusion. Sa base physique s’appuie sur plusieurs décennies de recherches menées en collaboration in- ternationale étroite dans les laboratoires des pays industrialisés. Sa conception technique a démarré en 1992 par la constitution d’une équipe de projet internationale formée par quatre grands partenaires sous l’égide de l’AIEA et chargée de faire aboutir les “Engineering Design Activities”. Les résultats de ces études et la réalisation de tests et de prototypes des éléments clefs ont convaincu, en 2006, les partenaires et trois nouveaux membres, de conclure un accord ayant valeur de traité, pour construire et exploiter en commun le projet ITER. Il constitue la collabora- tion scientifique internationale la plus importante à ce jour. Après des débuts difficiles, une structure de projet plus efficace a été introduite pour relever les défis technologiques considérables que comporte un tel projet et assurer désormais un rythme de construction conforme aux attentes. En avril 2016, ITER a estimé à 40 % le degré d’achè- vement des systèmes nécessaires au début de l’exploitation qui correspond à l’obtention d’un premier plasma prévu pour 2025, calendrier approuvé par le Conseil ITER de juin 2016. Figure 8 : Les plus grosses bobines de champ poloïdal seront fabriquées sur le site par l’Europe dans ce bâtiment où on voit les outillages en cours d’installation – Source : ITER. Figure 9 : Installation pour le traitement thermique des bobines de champ toroïdal (Mitsubishi, Futami, Japon). Le traitement thermique à 650 °C dure environ 200 h dans un four à atmosphère contrôlée - Source : ITER. REE N°4/2016 55 Le projet ITER Bibliographie [1] Y. Shimomura for the ITER Central Team and Home Teams, ITER Technology R&D, Fusion Engineering and Design 55 (2001), 97 - 358. [2] ITER Physics Basis, Nuclear Fusion 39 (1999), pages 2137-2638. [3] ITER Technical Basis, ITER EDA doc series no 24, IAEA Vienna (2002) [4] Summary of the ITER final design report, ITER EDA documentation series no 22, July (2001) [5] R. J. Hawryluk & al., “Principal Physics Developments Evaluated in the ITER Design Review” Nuclear Fusion, 49, 065012 (2009). [6] Consulter le site ITER pour une mise à jour de l’avancement de la construction : https://www.iter.org/fr LES AUTEURS Robert Aymar, après les années de formation en physique des plasmas à la sortie de l’Ecole Polytechnique, a dirigé le projet Tore Supra de sa conception en 1977 jusqu’à sa mise en service en 1988 en passant par sa construction sur le site de Cadarache. Un nouveau laboratoire a été construit à cette occasion, pré- paré dans la perspective de pouvoir accueillir à proximité un futur réacteur à fu- sion nucléaire, ce qui est maintenant réalisé avec l’implantation d’ITER. Directeur de la recherche fondamentale du CEA de 1990 à 1994, puis en 1994 nommé directeur de la Collaboration internationale ITER, Robert Aymar s’est entièrement consacré jusqu’en 2003 à la définition du projet et à son approbation par les dif- férents pays participants, formalisée par l’accord international ITER signé en 2006 à Paris. Le Conseil du CERN l’a nommé en 2003 directeur général pour conduire l’organisation à terminer efficacement la construction du grand collisionneur de protons LHC. De 2008 à 2012, Robert Aymar a été l’un des 21 membres de l’“ERAB” (European Research Area Board). Il est depuis 2009 conseiller scienti- fique auprès de l’administrateur général du CEA. Bernard Bigot, ancien professeur des universités, est un physico-chimiste, spé- cialiste de l’étude quantique de la réactivité chimique, notamment par activation photonique ou catalytique. Il a participé à la création de l’Ecole normale supé- rieure de Lyon, dont il a été successivement directeur adjoint en charge des études (1983-93), puis de la recherche (1998-2000) avant d’en être le directeur (2000-2003). Il a par ailleurs été directeur général de la recherche et de la tech- nologie (1993-1997), puis directeur de cabinet (2002-2003) auprès du ministre en charge de l’enseignement supérieur et de la recherche avant d’assumer les fonctions de Haut-Commissaire à l’énergie atomique et de directeur général du CEA (Commissariat à l’énergie atomique et aux énergies alternatives) entre 2003 et 2015. Il est depuis mars 2015 directeur général de ITER Organization. Jean Jacquinot : voir l’article « La fusion thermonucléaire ». REE N°4/2016 56 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITER DOSSIER Un site et une logistique exceptionnels Par Erwan Duval Facility Management Officer, Construction Department - Ingénieur au département Construction. ITER Organization The ITER project is not only a reactor, but a whole industrial site. On one hundred hectares, around fifty buildings will emerge. Assembling the ITER subsystems, providing cryogenic helium to superconducting coils, transforming electrical power… each building will provide a key function to the project. To make all this possible, France – the host country – has offered the necessary land, close to Cadarache and neighbour of the CEA nuclear research centre. During several years also, crucial in-kind contributions have been brought in by France, Europe and regional authorities: levelling, terracing, and securing the area, building an international school close-by and building the ITER headquarters. Meanwhile, millions of components are being built all over the world, and some have already arrived on site. For most of them, the delivery takes place in the harbour of Marseille-Fos (the largest port in France, 4th in Europe). They then have to travel 104 km to reach the ITER site, on a custom-made itinerary for the biggest ones. Altogether, 200 to 300 “Highly Exceptional Load” and thousands of “Conventional Exceptional Load” convoys will deliver these internationally made components in the very five next years. ABSTRACT ITER et le voisin CEA-Cadarache © MatthieuColin.com – Source : www.iter.org. Introduction Ils sont rares, les chantiers industriels de cette ambition : autour du tokamak d’ITER ce sont en fait plus de 50 bâti- ments qui sortent de terre, sur près de 100 hectares. Pré-assembler le réacteur, produire du froid, transformer l’énergie, diagnostiquer le plasma… : tous auront une fonction-clé, un rôle indispensable au fonctionnement d’ITER. Sur un site mis à disposition par la France et bénéficiant du précieux sup- REE N°4/2016 57 Un site et une logistique exceptionnels port du CEA, ces bâtiments sont une contribution en nature (in kind) de l'Europe et de la France : l’agence ITER France (AIF) a ouvert la voie en terras- sant, viabilisant, sécurisant le site. Elle a dans le même temps réalisé l’aménage- ment routier – l’Itinéraire ITER – pour permettre d’acheminer les composants sur le site. La Région Provence-Alpes-Côte d’Azur a de son côté construit une école inter- nationale à proximité (Manosque) pour accueillir dans les meilleurs conditions le personnel ITER et leurs familles. La collaboration entre ITER Orga- nization, l’AIF et Fusion for Energy (ou F4E, côté européen) a aussi permis de réaliser le siège et les bureaux d’ITER où travaillent près de 1 500 personnes. Dans le même temps, la fabrication des équipements bat son plein dans le monde entier. Les premiers d’entre eux n’attendent pas les bâtiments et arrivent déjà sur le site. Par la mer pour la plupart, ils arrivent à Fos-sur-Mer puis suivent l’itinéraire ITER, long d’une centaine de kilomètres. Deux à trois cents convois très exceptionnels et des milliers de convois « exceptionnels normaux » doivent ainsi les acheminer sur le site avant leur assemblage, puis les essais. Cet article présentera plus particulièrement le site ITER, ses bâti- ments puis la logistique associée à la construction. Le site Cadarache, une histoire avec l’atome La présence d’ITER sur le site de Cadarache ne doit rien au hasard. Le centre du CEA-Cadarache, fondé le 14 octobre 1959, y concentre déjà un nombre particulièrement important de recherches dans le domaine nucléaire. Encore aujourd’hui, 480 bâtiments oc- cupent les 1 670 hectares du centre et constituent 21 installations nucléaires de base (INB). Environ 5000 personnes y travaillent (hors ITER), dont près de 200 cher- cheurs étrangers d’une vingtaine de nationalités intervenant sur des colla- borations scientifiques internationales. Ce pôle d’excellence a été un argument essentiel de la candidature du site à l’accueil d’ITER. Les recherches y sont nombreuses et variées : réacteurs d’enseignement, études sur la propulsion pour les sous- marins et porte-avions nucléaires, réac- teurs à neutrons rapides (RNR). Aussi et surtout, on y trouve le réacteur de fusion Tore Supra : ce grand tokamak à aimant supraconducteur, lancé par l’as- sociation européenne EURATOM/CEA, a été mis en service en 1988. Son implan- tation à Cadarache, ainsi que la zone choisie (à l’est du centre CEA), posaient déjà un jalon en faveur de la candidature française pour accueillir ITER. En effet, cette situation stratégique lui permettait tout autant de trouver une place parmi les autres réacteurs du centre que d’offrir un voisinage disponible pour le projet international (déjà évoqué à l’époque du choix du site de Tore Supra). Tore supra détient à ce jour le record de durée de fonctionnement pour un tokamak (6 minutes 30 secondes et 1 000 MJ d’énergie injectés puis extraits en 2003). Il a en outre permis de tester de nombreux systèmes nécessaires au fonctionnement d’ITER. Actuellement, Tore Supra joue plei- nement son rôle de pilier du projet ITER avec le projet WEST (“W Environment in Steady-state Tokamak” où W est le sym- bole du tungstène). Cette nouvelle version du Tokamak français, d’une forme de plasma « en D » (se rapprochant de celle d’ITER) sera parée d’un divertor1 aux parois en tungstène et refroidies à l’eau. Les résul- tats obtenus permettront au projet inter- national de gagner un temps précieux et limiteront les risques sur ce point-clé. Le choix du site : retour sur une ample négociation internationale Définir l’emplacement du site a donné lieu, entre 2001 et 2005, à des discussions diplomatiques serrées. En 2001, le Canada proposait déjà un site pour accueillir le projet. Le Japon prenait rapidement la suite, en juin 2003, avec le site de Rokkasho-Mura. Entre temps 1 Partie basse du réacteur, véritable chambre de recyclage du plasma. Figure 1 : Intérieur du Tokamak Tore Supra – Source : www.iter.org. 58 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER la Chine, les États-Unis et la Corée deve- naient membres à part entière du projet. A cette date, l’Europe n’avait pas encore tranché entre les sites de Vandellòs (en Espagne) et de Cadarache. Le 26 novembre 2003, la candida- ture française est unanimement retenue par les 25 ministres européens de la science et de la recherche. L’Espagne obtenait de son côté le siège de l’agence domestique européenne, F4E. Il ne restait alors plus que deux em- placements possibles pour la construc- tion d’ITER : Rokkasho-Mura, au Japon (soutenu par les Etats-Unis et la Corée) et Cadarache dont la candidature sem- blait plutôt épaulée par la Chine et la Russie. Enfin, le 28 juin 2005, le choix de Cadarache est officialisé lors d’une réu- nion ministérielle à Moscou. Bruxelles et Tokyo entérinent en parallèle le lan- cement au Japon d’un ensemble de programmes de soutien d’ITER : « l’ap- proche élargie ». Un an après, l’Inde devenait la sep- tième et dernière agence domestique. L’agencement du site actuellement, les bâtiments déjà construits Avril 2009 : préparation de la plate-forme ITER Premier engagement de la France « pays hôte » et de l’Europe « partenaire hôte » : la préparation du site (défriche- ment, terrassement, viabilisation). Ce chantier de préparation des 90 hectares du site a été dirigé par l’Agence ITER France pendant deux ans, s’achevant en avril 2009. La moitié (42 hectares) est une étendue plate constituant la « plate- forme ITER », destinée à recevoir les 39 futurs bâtiments. Septembre 2010 : l’Ecole internationale Engagement pris par la France, pays hôte d’ITER, le tout premier bâtiment inauguré sur le projet ITER se situe… à une vingtaine de kilomètres du site. Il s’agit de l’Ecole internationale de Manosque, terminée en septembre 2010 (figure 3). Conçue par les architectes Riccioti et Battesti et financée par le Conseil régional de PACA à hauteur de 55 M , l’École internationale Provence-Alpes- Côte d’Azur accueille maintenant 410 élèves de 27 nationalités différentes. La moitié d’entre eux sont des « enfants d’ITER », l’autre vient de la région. Dans cet établissement public rele- vant de l’Éducation nationale, les cours sont dispensés pour moitié en français et pour moitié dans l’une des langues des participants au projet (chinois, an- glais, allemand, hindi, italien, japonais, coréen, portugais, russe et espagnol). Figure 2 : Un réseau hydraulique de plus de 20 km, des bassins de rétention et de traitement d’eau, ainsi que plusieurs zones d’accueil d’entreprises ont été réalisés sous la responsabilité de l’agence ITER France (CEA). Les marchés ont atteint la hauteur de 150 millions d’euros financés à 40 % par l’Europe et 60 % par la France. – Crédit photo : Altivue/AIF. Figure 3 : La construction du bâtiment bénéficie du label Haute Qualité Environnementale (HQE). L’école s’étend sur une surface de 26 000 m², est équipée de capteurs solaires qui couvriront 100 % des besoins en éclairage de l’établissement – Source : www.iter.org. REE N°4/2016 59 Un site et une logistique exceptionnels Les inaugurations suivantes se sont depuis lors rapidement succédées : 2011 : bâtiment de réalisation des bobines de champ poloïdal (PF-Coil) Sur ces six bobines en niobium-titane (en forme d’anneaux horizontaux autour du réacteur), quatre sont trop volumi- neuses pour emprunter le réseau rou- tier (les deux bobines « équatoriales » atteignant jusqu'à 24 m de diamètre). Elles sont donc fabriquées sur place, dans ce bâtiment dédié, inauguré fin 2011, de 12 000m2 et 257 m de longueur (figure 4). 2012 : siège ITER Conçu par deux architectes de la ré- gion : Rudy Ricciotti (Bandol) et Laurent Bonhomme (Vinon-sur-Verdon), ce bâti- ment de 20 500 m2 accueille plus de 800 personnes. Financé par l’Europe et la France, il est notamment équipé de salles de réunion, d’un amphithéâtre de 500 places, d’une bibliothèque, d’un res- taurant et d’une salle de « réalité virtuelle ». Agrandi de 3 500m2 en 2014, il mesure plus de 200 m. Son design re- marquable est directement lié à un ma- tériau de pointe: le BFUP (Béton Fibré Ultra Performant). Ce béton innovant, particulièrement léger et résistant, est largement utilisé en façades. Plusieurs rangées de panneaux solaires sont aussi déployées en toiture pour y produire l’eau chaude. 2014 : l’atelier Cryostat Plus grand encore que les bobines poloïdales qu’il enveloppe, le cryostat, même divisé en quatre parties (figure 5), n’est pas transportable par la route : avec leurs 30 m de diamètre, 10 m de hauteur et leurs 1 250 t (maximum), ces parties sont bien trop imposantes pour n’importe quel itinéraire routier. Un bâtiment, l’atelier Cryostat, a été spécialement édifié sur place pour réali- Figure 4 : Bâtiment des bobines de champ poloïdal (PF Coil) – Source : www.iter.org. Figure 5 : Le cryostat, une des plus grandes chambres à vide au monde - Source : www.iter.org. 60 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER ser ses quatre sections à partir d’une cin- quantaine d’éléments provenant d’Inde. Ce bâtiment de 5 500 m2 et de 30 m de hauteur a été financé par l’agence domestique indienne (figure 6). Il a été conçu et réalisé sous la responsabilité de la société Larsen & Toubro Ltd. Spie- Batignolles, qui avait précédemment construit le bâtiment PF-Coil, en a assu- mé la construction. 2014-2015 : les zones de stockage Afin de permettre le stockage des équipements arrivés sur site avant leur assemblage, plusieurs entrepôts ont été construits au cours des deux dernières années, ainsi qu’une plate-forme logis- tique de 10 000 m2 de capacité. Les bâtiments Les bâtiments en construction : les fonctions-clé et la structure logique du site L’agencement du site ne doit rien au hasard. Conçue avant le choix du site d’accueil, cette organisation a été soi- gneusement pensée et l’emplacement de chaque bâtiment est toujours le résul- tat d’une fine optimisation de l’espace. Le complexe Tokamak Au centre se trouve le cœur d’ITER, dénommé « complexe Tokamak ». Il s’agit en fait de trois bâtiments mitoyens parta- geant les mêmes fondations : Les installations destinées au chauf- fage du plasma2 jouxtent ce complexe : Ouest (des injecteurs projettent dans le plasma des particules électrique- ment neutres et très énergétiques. Par le biais de multiples collisions, celles-ci 2 Les trois techniques de chauffage externe sont détaillées sur le lien suivant : https://www.iter.org/fr/mach/heating transfèrent leur énergie aux particules Est (permettant de chauffer le plasma par l’intermédiaire de deux sources d’ondes électromagnétiques de haute fréquence (chauffage cyclotronique ionique et électronique). D’ouest en est : l’entrée et la sortie des énergies L’arrivée côté ouest de la ligne haute tension est à elle seule responsable du po- sitionnement d’une dizaine de bâtiments : l’hélium cryogénique. A l’opposé du tokamak, donc côté est, la place est mise à profit pour l’implantation des bâtiments de refroi- dissement (tours aéro-réfrigérantes, échangeurs, bassins). On peut ainsi voir que l’énergie arrive par l’ouest, et ressort sous forme de chaleur à l’est (figure 7). Figure 6 : l’atelier Cryostat – Source : www.iter.org. Figure 7 : Le flux des énergies (de droite à gauche) et des équipements (de haut en bas). Source : www.iter.org. REE N°4/2016 61 Un site et une logistique exceptionnels Cette zone orientale est bien placée vis-à-vis du vent dominant (le mistral), qui dissipera rapidement tout brouillard. Cycle de vie des matériaux : l’assemblage au sud et la cellule chaude au nord Premier bâtiment définitif à être construit sur la plate-forme, au sud du tokamak, le hall d’assemblage permet- tra le pré-montage des principaux élé- ments du réacteur grâce, notamment, à deux ponts roulants de 750 t chacun. Avec ses 60 m de hauteur et autant de largeur, 97 m de longueur et 6 000 t d’acier au total, il est la véritable porte d’entrée des équipements du réacteur. A l’autre bout de la chaîne, la « cel- lule chaude » hébergera le traitement, la réparation, la remise en état, l’analyse et l’élimination des composants activés par l’exposition aux neutrons. La résistance au séisme Même si les contraintes sismiques sont de bien moindre ampleur qu’au Japon, la résistance aux séismes est une donnée prise en compte sur le projet. Ainsi, en maîtrisant cette contrainte, ITER aura pu démontrer la disponibilité de l’énergie de fusion pour de nom- breux pays ayant une moyenne activité sismique (et pas nécessairement non plus proches de la mer). Comment est articulée la conception parasismique d’ITER ? La plupart des bâtiments, même clas- siques, sont soumis à une stricte régle- mentation parasismique. Anciennement françaises (les PS92) et à présent euro- péennes (« l’Eurocode 8 »), ces règles protègent dans leur conception les structures des bâtiments et donnent une maîtrise du risque d’effondrement en vue de protéger les personnes. Tous les édifices sur le site ITER y sont évi- demment soumis, même les simples bureaux ou ateliers. Schématiquement, on considère pour ces bâtiments conventionnels une période de retour d’environ 500 ans. Pour les bâtiments à risque nucléaire, les études et travaux sont évidemment plus poussés : il convient de protéger non seulement les murs mais aussi certains équipements (les boucles d’eau de refroi- dissement par exemple : ces systèmes sont appelés PIC “Protection Important Component”, équipements importants pour la sûreté nucléaire). L’encadré 1 pré- cise la démarche les concernant. La technologie employée Protéger ainsi le complexe Tokamak (90 m x 130 m sur 77 m de hauteur, totalisant une masse de 330 000 t) est un défi à part entière. Pour y parvenir, on a fait appel à deux solides radiers d’environ 1,50 m d’épais- seur chacun, rattachés par 493 colonnes et patins antisismiques (figures 8 et 9). La protection parasismique d’ITER repose sur la démarche de la règle fondamentale de sûreté (RFS 2001-01). Celle-ci régit la protection des ins- tallations nucléaires et repose sur la démarche suivante: 1. Détermination du séisme maximal historiquement connu (SMHC), sur environ 1 000 ans Magnitude 5,5 à 7,5 km en 1708, Manosque Magnitude 6/6,2 à 16,5 km en 1909, Lambesc 2. Détermination du séisme maximal historiquement vraisemblable (SMHV) intégrant le voisinage et les paléoséismes : Celui de de Valveranne (magnitude 6.5 entre -26 000 et -9 000ans) 3. Séisme majoré de sécurité (SMS) + 0.5 (majoration forfaitaire de la magnitude) 4. Placement au plus proche : Ce séisme est considéré apparaître sur le point de la faille le plus proche du site ITER (8 km). Encadré 1 : Méthode de détermination du risque sismique maximal – Source : www.iter.org. Figure 8 : Les fondations du complexe Tokamak - Source : www.iter.org. 62 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER Cette technologie a été utilisée pour le tokamak Tore Supra et sur de nombreux bâtiments publics dans des pays à activité sismique plus importante. Les avancées récentes et à venir L'avancée du chantier est bien illustrée par la figure 10 (photo aérienne d'avril 2016) et en vue plus rapprochée par la figure 11 (photo de mars 2011). Figure 9 : Détail d’un patin antisismique – Source : www.iter.org. Figure 10 : Etiquettes grises : bâtiments réceptionnés – Etiquettes vertes : chantiers en cours – Crédit photo : MatthieuColin.com – Source : www.iter.org. Figure 11 : De gauche à droite, l’atelier Cryostat, l’arrivée d’un des deux ponts de 750 t du hall d’assemblage et le bâtiment d’assemblage. www.iter.org REE N°4/2016 63 Un site et une logistique exceptionnels La logistique Des convois exceptionnels… et très exceptionnels Les opérations de transport Pour mener à bien le projet, la fabri- cation des équipements d’ITER tourne déjà à plein régime. Mener à destination ces millions de composants qui arrivent à Marseille depuis le monde entier né- cessite une logistique toute particulière. Depuis janvier 2015, des convois excep- tionnels circulent déjà et il y en aura des milliers à l’avenir (figure 12). Pour les pièces les plus imposantes, impos- sible de prendre les anciennes routes. Exceptionnelles par leur taille (jusqu’à 10 m de hauteur, 50 m de long ou 9 m de large) et par leur poids (jusqu’à 800 t), elles seront regroupées entre deux et trois cents convois « très excep- tionnels ». Ils parcourront ainsi depuis Fos-sur-Mer un itinéraire taillé sur me- sure, coordonnés et financés conjoin- tement par l’agence ITER France et l’agence domestique européenne. A environ 5 km/h, ces véhicules spécialement conçus par l’équipe- mentier français Daher franchiront la dernière « ligne droite » (une centaine de kilomètres) en plusieurs opérations nocturnes afin de perturber le moins possible le trafic routier. La charge étant soigneusement répartie sur une modeste remorque de ... 352 pneus, les manœuvres les plus fines peuvent être conduites grâce à deux cabines de commande, pilotables de l’exté- rieur. Autre enjeu de taille : la protection et la prévention de ces opérations, qui affectent 41 communes de la région. Pour minimiser ces impacts, la gen- darmerie mobile et maritime, ainsi que les forces aériennes et motocy- clistes de la Garde républicaine sont impliquées, mobilisant jusqu’à 140 personnes. Ces unités peuvent faire valoir leurs expériences des itinéraires Airbus ou Ariane. L’itinéraire ITER La plupart de ces convois arrivent par la mer au port de Fos-sur-Mer, à l’ouest de Marseille, et traversent l’étang de Berre sur une barge spéciale. Là commence l’itiné- raire ITER, long de 104 kilomètres, vers le site de Cadarache (figure 13). Les anciennes routes ne permettant pas d’acheminer des convois de telles dimensions, la France – conformément à son engagement de pays hôte – les a aménagées afin de permettre tous les transports nécessaires au projet. D’importants travaux ont ainsi été réa- lisés en trois ans sous maîtrise d’ou- vrage de l’État avec le co-financement du Conseil général (respectivement 40 millions et 72 millions d’euros). Ainsi, 26 ponts ont été construits ou - électriques enterrées ou surélevées, et 19 ronds-points ont été aménagés. La plupart de ces travaux ont été réalisés par des entreprises de la région. Ils ont sensiblement contribué à l’amélioration des conditions de circulation. Les moyens mis en œuvre sur le chantier ces 39 bâtiments nécessite près d’un Figure 12 : Photo prise du second convoi-test, le 28 mars 2014 (essai de validation de l’itinéraire ITER) – Source : www.iter.org. Figure 13 : Plan de l’Itinéraire ITER – Crédit photo : CEA. 64 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER milliard d’euros d’investissement. La moitié d’entre eux étant prévus en bé- ton armé, parfois soumis aux obligations de sûreté nucléaire. La logistique mobili- sée est donc colossale, avec 18 millions d’heures de travail sur une décennie, fournies par de grands groupes inter- nationaux (Vinci, Ferrovial, Razel, Engie pour n’en citer que quelques-uns) mais aussi par bon nombre de PME locales. Une centrale à béton a été spéciale- ment ouverte sur le site (groupe Lafarge), contribuant aux besoins de 250 000 m3 de béton. Les trois quarts étant qualifiés « nucléaire », donc d’une qualité parti- culièrement contrôlée. Particulièrement rapide aussi, cette centrale peut fournir près de 120 m3 /h de béton afin de per- mettre d’importants coulages en continu et ainsi maîtriser drastiquement les phé- nomènes de fissures lors de ces phases délicates. Visibles de loin, pas moins de huit grues à tour, fixes, œuvrent aussi de concert, souvent épaulées par de nom- breux moyens mobiles. Choisies pour leur fiabilité éprouvée sur de nombreux chantiers, ces grues, levant jusqu’à 40 t sont estampillées de la marque Potain, leader du domaine3 . Une grue de plus de 1 000 t de capacité, mobile, vient d’ailleurs tout juste d’arriver en renfort. Un véritable ballet. 3 Six grues Potain construisent la plus grande centrale d’énergie de fusion du monde : http://www.manitowoccranes.com/fr-fr/ news-events/news/2015/six-potain-cranes- building-worlds-largest-fusion-energy-facility Références [1] Livre J Jacquinot et R Arnoux chez Edisud « ITER, le chemin des étoiles ». [2] Site ITER Organization - Les grandes dates d’ITER https://www.iter.org/fr/ proj/itermilestones [3] Jean Jacquinot, Chris Llewellyn- Smith, Paul Vandenplas, Carlos Varandas, Carlos Alejaldre, Alex Bradshaw, Francesco Romanelli, Le Monde, Edition du 30 janvier 2004 p.19–TousunispourITERàCadarache http://www.lemonde.fr/archives/ article/2004/01/30/tous-unis-pour- iter-a-cadarache_351106_1819218. html#YwOBpPFeL4tGp8zm.99 [4] Site IRSN - Risque sismique et instal- lations nucléaires Etudes de l’aléa sismique pour le centre de recherche de Cadarache : http://www.irsn.fr/ FR/connaissances/Installations_ nucleaires/La_surete_Nucleaire/ risque_sismique_installations_ nucleaires/Pages/10-Etudes_de_l_ alea_sismique_pour_le_centre_ de_recherche_de_Cadarache. aspx?DossierGuid=bbb50e91-d795- 4734-9450-f7cd15fe0aea&Dossier WebGuid=53763c1d-e722-4980- 88f3-de3d62e7991a#.Vt0tEojH55I [5] Article L’Officiel des Transporteurs - Grand Angle – Le projet ITER (E. Demangeon,−N°2742du13juin2014) http://www.wk-transport-logistique. f r/outils /upload /transpor t- exceptionnel-n-2742-juin-2014- L-officiel-des-transporteurs.pdf L'AUTEUR Erwan Duval est ancien élève de l’Ecole Centrale Paris. Il entame sa carrière à Kourou en 2000, au sein des équipes opérationnelles d’Arianespace. D’abord responsable des systèmes fluides des lanceurs Ariane, il prend la charge des ré- seaux fluides du site (cryogéniques, propergols et gazeux). Il est alors amené à coordonner les activités du complexe de lancement Ariane 5. Début 2008, il s’intègre à la prépa- ration du projet Soyuz en Guyane et coordonne les essais et activités du site sur les deux premiers lan- cements. En 2012, il rejoint ITER Organization dans le département Construction. Il conduit l’exploitation des infrastructures IO et pilote divers travaux nécessaires à la bonne pro- gression du projet ITER. REE N°4/2016 65 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITER DOSSIER Introduction Les installations de recherche sur la fusion nécessitent d’importantes infrastruc- tures électrotechniques. En effet, le champ magnétique nécessaire au confinement du plasma est généré par des convertisseurs de puissance alternatif/continu. De même, les systèmes de chauffage du plasma sont d’importants consommateurs électriques. Cet article décrit la problématique des grandes installations de recherche, alliant des processus industriels ainsi que des élé- ments spécifiques à la conduite de l’infras- tructure de recherche. Il faut raccorder ces installations hors normes au réseau de distribution élec- trique général, tout en garantissant leur in- tégration dans l’environnement contractuel existant. De même, afin d’optimiser l’ex- ploitation et la maintenance de ces grands équipements de recherche, l’utilisation d’équipements industriels pour la distribu- tion électrique est privilégiée. Néanmoins, dans certains cas, le développement de matériel spécifique s’avère nécessaire. Connexion d’ITER au réseau de transport électrique français Besoins du projet Le fonctionnement d’ITER nécessi- tera la fourniture et la distribution d’une grande puissance électrique. Comme toute installation de type industriel, un réseau interne desser- vira les différents systèmes fonction- nant en régime permanent. Ce réseau de structure tout à fait classique, ap- pelé “Steady State Electrical Network” (SSEN), pourra fournir jusqu’à 120 MW. Mais un autre réseau est nécessaire pour permettre le fonctionnement pulsé du tokamak. Appelé “Pulsed Power Electrical Network” (PPEN), il assurera l’établissement et le contrôle des champs magnétiques nécessaires au confinement du plasma ainsi que l’alimentation des systèmes de chauf- fage auxiliaires du plasma ; ces utili- sations demanderont jusqu’à 500 MW en pic de puissance active et jusqu’à 900 MVAr de puissance réactive. La compensation nécessaire de la puis- sance réactive limitera l’appel sur le réseau à 200 MVAr. Enfin, ITER, classé comme instal- lation nucléaire de base (INB), doit disposer d’un réseau électrique de secours à base de groupes diesel (avec une puissance unitaire d’environ 3,5 MW), constituant la partie « sûre- té » de la distribution électrique. Dans ce cas, les règles classiques de redon- dance et de séparation des équipe- ments sont appliquées. Choix de la solution de connexion au réseau La volonté de la France d’accueillir le projet au début des années 2000 en- gendra une série d’études menées en collaboration avec l’Agence européenne de recherche sur la fusion (EFDA) et le Commissariat à l’énergie atomique et aux énergies alternatives (CEA). A partir des simulations effectuées par les développeurs du projet, il a fallu vérifier que le « client ITER » pouvait être raccordé au réseau de transport national sans engendrer de perturbations pour sa conduite ou pour les autres utilisa- teurs. Pour cela, le Réseau de transport de l’électricité (RTE) effectua les vérifi- cations nécessaires, notamment pour toutes les études des conditions transi- toires. Les conclusions de ces études ont permis d’approuver une connexion électrique du projet en 400 kV, pour la partie pulsée. En effet, ce réseau pos- sède une puissance de court-circuit d’environ 10-12 GVA, pouvant absor- ber de grandes variations de puissance. Cette raison avait déjà conduit à la déci- sion de construction en 1985 de la ligne 400 kV venant de Tavel pour alimenter Tore Supra, dont les besoins de puis- sance pulsée posaient alors des pro- blèmes similaires à ceux d’ITER. La distribution électrique du site et les alimentations électriques de puissance Par Joël Hourtoule1 Electrical Distribution Section Leader, Plant Engineering Department, Electrical Division - ITER Organization Fusion research facilities require significant electro-technical infrastructures to support their various systems. For example: the AC/DC converters that power the magnetic field required to create the plasma confinement and the heating and current drive (H&CD) systems used to heat the plasma are large consumers of energy. This paper describes the issues encountered in the ITER facility, e.g. dealing with standard industrial devices together with “state of the art” components specially developed for the project. This extraordinary installation is required to be connected to the electrical national grid, without exceeding the operating parameters or contractual provisions imposed by the regulator. ABSTRACT 1 L’auteur est seul responsable des faits énoncés et opinions émises dans cet article 66 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER La connexion du projet ITER en « HTB3 » (supérieur à 225 kV) sur le réseau de transport français, ainsi que le statut international du projet, ont nécessité une adaptation de tous les ac- teurs. ITER sera le plus important poste 400 kV privé en service. L’aménagement des arrivées élec- triques est de la responsabilité du pays hôte (figure 1) ; l’agence ITER France (AIF) a donc conduit le projet d’exten- sion de la ligne 400 kV existante ainsi que la construction du poste de livraison RTE sur le site. Six kilomètres de lignes haute tension 400 kV ont été construits pour alimenter le projet ITER et le poste de Prionnet a vu le jour dans l’enceinte du site ITER (figure 2). La distribution électrique du site Distribution industrielle Le réseau électrique SSEN se com- pose de quatre connexions au poste 400 kV RTE. Chaque connexion permet de soutirer une puissance de 75 MVA. En cas de défaillance d’un transformateur, des couplages au secondaire (22 kV) per- mettent de basculer les charges vers les autres transformateurs, sans affecter la disponibilité de toute la puissance. Un réseau interne 22 kV permet en outre de distribuer la puissance depuis le poste source jusqu’aux postes de distribution 6.6 kV (pour les machines tournantes de forte puissance) ou aux postes de distribution 400 V (pour la distribution interne aux bâtiments et les systèmes auxiliaires). Au total, envi- ron 240 MVA sont installés, pour une consommation maximale estimée de Figure 1 : Distribution électrique très haute tension du Sud-Est de la France - Source RTE. Figure 2 : Vue d’ensemble du poste Prionnet sur le site ITER – Source : ITER. REE N°4/2016 67 La distribution électrique du site et les alimentations électriques de puissance 120 MW en phase d’exploitation nomi- nale [1], [2]. Les principaux consommateurs connectés à ce réseau industriel sont (figure 3) : du Tokamak et des systèmes auxi- liaires. Différentes boucles adaptées aux types de composants à refroidir (caractéristiques chimiques de l’eau) sont installées. La circulation de ces boucles est faite grâce à des moteurs électriques entrainant des pompes de puissance unitaire jusqu’à 3,5 MW ; - mants supraconducteurs. Ce système à base de compresseurs (de puis- sance unitaire jusqu’à 4,7 MW) per- met la circulation et le refroidissement de l’hélium dans les bobines. C’est un système à très large inertie, devant fonctionner en continu, dès lors que l’installation est en mode opération ; - tion, force et autres utilités (figure 4) ; pompage de l’enceinte à vide. Distribution de puissance pulsée pour la machine Le réseau de puissance pulsée permet d’alimenter les convertisseurs alternatif/ continu (AC/DC) nécessaires aux bobines supraconductrices (avec une puissance installée proche des 2GVA), ainsi que les systèmes de chauffage additionnel du plasma. La puissance consommée sur ce réseau variera fortement durant les scé- narios expérimentaux et pourra atteindre 500 MW en pointe. Celui-ci est constitué de trois connexions sur le poste 400 kV RTE afin d’alimenter trois transformateurs de 300 MVA chacun. Au secondaire de ces transforma- teurs, deux réseaux distincts sont ali- mentés (figure 5) : Figure 4 : Vue d’ensemble des transformateurs pour les auxiliaires – Source : ITER. Figure 3 : Synoptique des principaux consommateurs électriques – Source : ITER. 68 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER - tations des aimants assurant le confi- nement magnétique ; - tèmes de chauffage du plasma. Du fait de leur conception (redresse- ment par ponts à thyristors), les alimen- tations des aimants (Cf. l’article de Paul Libeyre) consommeront une impor- tante puissance réactive. Le respect de cette contrainte sera assuré par la mise en place d’un compensateur statique de puissance réactive de 250 MVAr sur chaque réseau secondaire 66 kV (soit 750 MVAr au total). Chaque compensateur sera consti- tué : - sant en permanence 250 MVAr, qui permettront également de filtrer les harmoniques induits par les convertis- seurs (de rangs 5, 7, 11 et 13 en par- ticulier) ; - socié à des inductances, consommant entre 0 et 250 MVAr de puissance réactive selon l’angle de commande des thyristors. Ce dernier sera ajusté en permanence avec un court temps afin de pouvoir répondre aux variations Figure 5 : Distribution générale pulsée du site ITER – Source : ITER. Figure 6 : Valve TCR prototype (Copyright RXPE) – Source : ITER. REE N°4/2016 69 La distribution électrique du site et les alimentations électriques de puissance rapides de la puissance réactive souti- rée par les alimentations des aimants. Il est à noter que les valves à thyristors (figure 6) seront directement connec- tées au réseau 66 kV, ce qui a nécessité des développements technologiques spécifiques [3]. Distribution électrique pour les fonctions de sûreté ITER est classé comme une installa- tion nucléaire de base (INB) au titre de la règlementation française. Dans ce cadre, des fonctions de sûreté nucléaire ont été définies (principalement liées au confi- nement du tritium). Certaines d’entre elles nécessitent une alimentation élec- trique. Le projet ITER a donc adopté la même configuration de distribution élec- trique de sûreté que celle que l’on peut trouver dans les centrales nucléaires. Ce réseau est constitué de deux « trains », totalement indépendants (géo- graphiquement et électriquement) et redondants. Ce principe de séparation et de ségrégation permet d’assurer la dis- ponibilité de l’alimentation électrique, en cas d’évènement externe (séisme, crash d’avion) ou interne (explosion, incendie). Ce réseau palie aussi l’absence éventuelle d’alimentation générale élec- trique, par la mise en place de géné- rateurs entraînés par des diesels (de puissance unitaire d’environ 3,5 MW), qualifiés pour des conditions extrêmes (notamment le séisme de référence). Il assure une continuité de service à l’aide d’onduleurs (environ 1,2 MW sur chaque train) et de chargeurs, chacun étant équipé de son propre jeu de bat- teries. L’autonomie de ces batteries est définie par les besoins du projet (plu- sieurs heures). Les alimentations électriques des aimants Dans un tokamak, le contrôle du plasma (initiation, positionnement, sta- bilité verticale) est réalisé magnétique- ment. Les champs magnétiques requis sont produits par de nombreux aimants installés autour et dans la chambre à vide. Sur ITER, tous les aimants externes seront supraconducteurs (TF, CS, PF, CC), contrairement aux bobines internes (VS3, ELM). L’alimentation de ces aimants re- quiert essentiellement : l’allumage du plasma ; la protection des bobines supracon- ductrices. Les convertisseurs de puissance Les caractéristiques principales des convertisseurs apparaissent dans la figure 8 : Sauf VS3, tous les convertisseurs sont des redresseurs dodécaphasés à pont à thyristors. Ils opéreront dans les quatre quadrants, à l’exception de l’ali- mentation toroïdale dont le courant sera seulement positif [4], [5]. Les ponts à thyristors seront connec- tés en parallèle (déphasage de 30°) et des inductances de lissage limiteront l’amplitude des courants inter-ponts. Le schéma de principe est représenté sur la figure 9. Pour certains convertisseurs (CS, PF, VS1) dont le besoin en tension est important, plusieurs unités similaires (de tension en charge ±1,05 kV DC) seront connectées en série. En termes de contrôle, cette topologie permettra de diminuer la consommation de puis- sance réactive par la contribution suc- cessive des différentes unités. Afin de contrôler les instabilités verticales du plasma, l’alimentation VS3 a une exigence de rapidité plus contraignante : la topologie choisie est donc différente (pont en H avec des IGBT). Au cours du programme opération- nel, l’alimentation du champ toroïdal restera à un courant constant pendant de longues périodes (plusieurs jours) et ne jouera donc pas un rôle actif pendant les chocs plasma. Elle sera contrôlée en boucle fermée par une référence de courant. Au contraire, le fonctionnement de toutes les autres alimentations sera di- rectement lié à la réalisation des scéna- rios plasma souhaités. Leurs points de fonctionnement varieront constamment Figure 7 : Schéma de principe de la distribution de sûreté par 2 trains indépendants – Source : ITER. 70 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER pendant ces scénarios, ce qui aura pour conséquence des fluctuations sur le profil des puissances actives et réactives soutirées du réseau. Ces convertisseurs seront pilotés en boucle ouverte par des références de tension, calculées au niveau du système de contrôle-com- mande du plasma à partir des mesures magnétiques pour suivre le scénario souhaité. En cas de défaut sur un convertis- seur, le courant sera transféré des ponts à thyristors vers un système de roue libre, constitué de manière redondante de composants statiques (thyristors) et d’un contacteur. La bobine se trouvera alors en court-circuit : son courant sera décharge rapide décrits dans le chapitre ci-dessous sur la protection des bobines supraconductrices (à l’exception des CC) ou bien par décroissance naturelle s’il y a suffisamment de résistance dans le circuit (CC, VS3, ELM). Les systèmes d’allumage du plasma Le courant plasma sera initié par effet transformateur. L’application d’une forte tension dans les bobines centrales (CS, PF1 et PF6) permettra la création d'un arc dans la chambre à vide puis l’augmentation du courant. La tension générée par les convertisseurs n’étant pas suffisante, cette fonction sera réalisée en détournant le courant circulant dans chaque bobine vers une résistance, qui permettra de produire jusqu’à 8,5 kV. Le schéma de ce système est repré- senté sur la figure 10. En phase pré- paratoire du choc plasma, les bobines centrales seront prémagnétisées à Figure 8 : Vue d’ensemble des alimentations des bobines – Source : ITER Figure 9 : Structure de base des convertisseurs – Source : ITER. REE N°4/2016 71 La distribution électrique du site et les alimentations électriques de puissance un courant positif important (environ 45 kA). Les mêmes actions seront réali- sées simultanément sur chaque bobine. Puisque l’interruption d’un courant DC aisée, le courant circulant initialement dans les contacteurs (FOS et FDS sur le schéma) sera successivement dévié dans des thyristors connectés en parallèle (pendant que les contac- teurs s’ouvrent), puis annulé par des décharges de bancs de capacités. Le courant de la bobine sera alors forcé de circuler dans la résistance (R1). Cette séquence complexe s’effectuera en seulement quelques ms. La valeur de la résistance pourra être ajustée (avec R2) par la fermeture du contacteur MS. Après quelques se- condes, la phase d’allumage du plasma sera terminée et le contacteur MS1 se fermera, laissant le contrôle aux seuls convertisseurs. La protection des bobines supraconductrices En cas de perte de supraconductivité (“quench”) suite à une défaillance du système cryogénique par exemple, il est indispensable de dissiper rapidement à l’extérieur la grande énergie stockée dans les bobines (environ 41 GJ dans les 18 bobines du champ toroïdal par exemple) pour éviter leur destruction. Ces fonctions seront réalisées par des systèmes de décharge rapide, très similaires aux systèmes d’allumage du plasma, car ils permettront d’ajouter une résistance dans le circuit DC [6]. Le schéma de principe est représenté sur la figure 11. Le courant circulera initiale- ment dans le contacteur BPS (figure 12). Au cours de son ouverture, il sera dévié dans un disjoncteur connecté en parallèle (VCB). Une fois l’ouverture du BPS ter- minée, la décharge de banc de capacités (CPC) permettra d’annuler le courant du disjoncteur et de forcer le transfert vers la résistance (FDR). Cette fonction doit Figure 10 : Schéma du système d’allumage du plasma – Source : ITER. Figure 11 : Schéma de principe du système de décharge rapide – Source : ITER. Figure 12 : Contacteur by-pass et disjoncteur à contacts sous vide – Source : ITER. 72 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER avoir la plus haute fiabilité ; un pyrobrea- ker (figure 13), disjoncteur opérant à l’aide de charges explosives, sera connecté en série pour la garantir en cas de défaillance du système précédent. Il y aura un système de décharge de ce type dans chaque circuit des bobines CS et PF. Pour le circuit des 18 bobines du champ toroïdal connectées en série, plusieurs unités de décharge seront nécessaires afin de limiter la tension apparaissant entre les conducteurs et la terre, tout en garantissant une décharge à la constante de temps désirée (environ 11 s dans ce cas). En conséquence, neuf systèmes de décharge rapide seront ins- tallés pour ce circuit (chacun étant inter- calé en série avec une paire de bobines) [7]. Les alimentations des systèmes de chauffage du plasma Le principe de chauffage du plasma repose sur l’injection et l’absorption d’ondes électromagnétiques haute fré- quence ou de faisceau de particules de grande énergie. Ces systèmes néces- sitent d’importantes alimentations élec- triques haute tension, connectées aux réseaux 22 kV et 66 kV « pulsés ». Alimentations des systèmes de chauffage HF Deux systèmes de chauffage HF seront installés dans la première phase du projet ITER : le système fréquence cyclotronique ionique (FCI), basé sur la fréquence de résonance gyromagné- et le système fréquence cyclotronique électronique (FCE), basé sur la fré- quence de résonance des électrons du Les ondes électromagnétiques du système FCI sont générées par huit sources RF à trois étages d’amplifi- cations, similaires aux transmetteurs de radiodiffusion. Les deux derniers étages utilisent des tubes à vide de forte puissance (tétrode ou diacrode). Ils sont alimentés par une même alimentation haute tension. Une autre famille de tube à vide, les gyrotrons, produisent les ondes millimé- triques du système FCE. Plusieurs niveaux de tension sont nécessaires pour polariser les différentes électrodes du tube Le tableau 1 décrit les principaux para- mètres et le nombre de ces alimentations [8]. Les alimentations principales des systèmes FCI et FCE sont basées sur la technologie “Pulsed Step Modulation” (PSM). Les tensions continues éle- vées sont produites en connectant en de puissance d’une tension unitaire de quelques centaines de volts. La tech- nologie PSM permet une grande dyna- mique de tension (10 kV/µs) tout en limitant l’énergie dissipée dans le tube en cas d’arc interne (<10 J) [9]. Figure 13 : Disconnecteur à charge explosive - Source : ITER. Udc (kV) Idc (A) Quantité Puissance électrique installée (MW) Puissance HF (MW) FCE Alimentation principale -55 110 12 72.6 20Alimentation Body 35 0.1 24 Alimentation Anode 20 0.5 8 FCI Alimentation étage final 27 170 + 20 18 55 20 Alimentation étage Driver 15 18 Tableau 1 : Principales caractéristiques des alimentations des systèmes de chauffage HF. REE N°4/2016 73 La distribution électrique du site et les alimentations électriques de puissance Le site hébergera trois systèmes électriques, un pour l’injecteur diagnos- tique à 100 kV DC et deux autres pour les deux injecteurs de chauffage plasma à 1 MV DC. L’alimentation électrique pour un injecteur se décompose en trois sous-systèmes représentés sur le schéma global de la figure 14. La première partie alimentée en 66 kV AC est appelée “Accelération Grid Power Supply (AGPS)” [11]. Elle fournit les tensions aux cinq grilles d’accélération dans l’injecteur. Le potentiel de chaque grille est de - 1 000 kV, - 800 kV, - 600 kV, - 400 kV et - 200 kV DC. L’électronique de puissance assure la régulation et la coupure du courant en cas de court-cir- cuit dans la grille d’accélération. La seconde partie se trouve dans une cagedeFaradayisoléedusolquiestappelée “High Voltage Deck 1 (HVD1)” [12]. Elle contient les équipements qui composent les alimentations électriques pour la source d’ions de l’injecteur “Ion Source Power Supply (ISPS)” [13]. Tous les équi- pements d’alimentation électrique instal- lés dans HVD1 sont au potentiel de -1 MV DC. Ils sont alimentés par un transforma- teur d’isolement (22 kV / 6,6 kV, tension d’isolement 1 MV DC). Cet ensemble est installé dans le bâ- timent 37 et sera fourni par l’Europe et le Japon comme le montre la figure 15. Figure 14 : Schéma de l’alimentation électrique de l’injection de neutres – Source : ITER. Figure 15 : Alimentations des injecteurs de neutres (HNB PS) dans le bâtiment 37 – Source : ITER. 74 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER La troisième partie du système est nommée “Ground Related Power Supply (GRPS)”. Le GRPS alimente le “Residual Ion Dump (RID)” [14] et les “Active Compensation & Corrective Coils (ACCC)”, pour corriger activement le champ magnétique autour de l’injecteur. La puissance électrique est transmise à la source d’ions et aux grilles d’accélé- ration par l’intermédiaire d’une ligne de transmission (TL) à haute tension (HV), qui contient du SF6 à 6 bars. Ce der- nier fournit l’isolation entre les différents potentiels électriques dans la ligne de transmission qui vont de 0 à -1 MV DC. Le bloc appelé HVD2 contient la tuyau- terie pour l’eau de refroidissement et le Le tableau 2 résume les grandeurs électriques mises en œuvre pour un injecteur. Références [1] J. Hourtoule, C. Neumeyer, I. Suh, Y.Ding,L.Dong,C.Boyer,D.Rodrigues, “ITER electrical distribution system”, Proceedings of IEEE 25th Symposium on Fusion Engineering, 2013. [2] S. Nair, J. Hourtoule, K.W. Kang, J. Journeaux, M. Khedekar, “In- strumentation and Control of the ITER Electrical Power Distribution System”, Proceedings of ICEMS International Conference on Electrical Machines and Systems, 2013. [3] A. Mankani, “The ITER Reactive Power Compensation and Harmonic Filtering (RPC & HF) System”, proceedings of 26th SymposiumonFusionTechnology, 2010. [4] J.Tao, “ITER Coil Power Supply and Distribution System”, Proceedings of IEEE 24th Symposium on fusion Engineering, 2011. [5] C. Neumeyer, I. Benfatto, J. Hourtoule, J. Tao, A. Mankani, F. Milani, S. Nair, I. Suh, H. Tan, M. Wang, J.S. Oh, A. Roshal, “ITER Power Supply Innovations and Advances”, Procee- dings of IEEE 25th Symposium on fusion Engineering, 2013. [6] F. Milani, & al. “System integration of the ITER switching networks, fast discharge units and busbars”, proceedings of 26th Symposium on Fusion Technology, 2010. [7] I. Song, “Analysis on earthing circuit of ITER coil power supply”, Proceedings of 24th International Conference on Magnet Technology, 2015. [8] T. Gassmann, B. Arambhadiya, B. Beaumont, U.K. Baruah, T. Bonicelli, C. Darbos, D. Purohit, H. Decamps, Paramètres Unité Valeur Grille d’accélération tension/courant kV / A -1000/59 Grille 1 tension/courant kV / A -800/7 Grille 2 tension/courant kV / A -600/6 Grille 3 tension/courant kV / A -400/3 Grille 4 tension/courant kV / A -200/3 Courant au niveau de la masse A 40 Puissance utile d’AGPS MW 48 Puissance utile d’ISPS MW 6 Puissance utile de GRPS MW 6 Tableau 2 : Paramètres des alimentations électriques d’injecteur de neutres. L'AUTEUR Joël Hourtoule est diplômé de l’école d’ingénieur Polytech, avec la spécialité Ingénierie électrique et conversion de puissance. Il a plus de 15 ans d’expérience professionnelle dans la gestion et le design de la dis- tribution électrique de grandes ins- tallations scientifiques. Depuis 2007, il est le responsable du groupe dis- tribution électrique pour le projet ITER. Auparavant, il a travaillé plus de 10 ans au sein du CEA (Commissa- riat à l’énergie atomique et aux éner- gies alternatives), sur l’installation de fusion « TORE SUPRA », où il était également responsable des instal- lations électriques. Joël Hourtoule est membre actif de plusieurs orga- nisations professionnelles comme le CIGRE ou le groupe de travail RCCE. REE N°4/2016 75 La distribution électrique du site et les alimentations électriques de puissance F. Albajar, F. Gandini, M. Henderson, F. Kazarian, P.U. Lamalle, T. Omori, D. Parmar, A. Patel, D. Rathi, N.P. Singh, “High voltage power supplies for ITER RF heating and current drive systems”, Fusion Engineering and Design, Volume 86, Issues 6-8, p. 884-887, 2011. [9] J. Alex, W. Schminke, “Fast switching, modular high-voltage DC/AC-power supplies for RF-amplifiers and other applications”, Symposium of Fusion Engineering, p. 936-939, 1995. [10] R. Hemsworth, H. Decamps, J. Graceffa, B. Schunke, M. Tanaka, M. Dremel and A. Tanga, “Status of the ITER heating neutral beam system” Nuclear Fusion 49, 2009. [11] L. Zanotto, V. Toigo, D. Gutierrez, M. Simon, H. Decamps, M. Perna, “Final design of the Acceleration Grid Power Supply Conversion System of the MITICA Neutral Beam Injector” to be presented to the 29th Symposium on Fusion Technology, 2016. [12] M. Boldrin, T. Bonicelli, H. Decamps, C. Finotti, G. E. Gomez, M. Krohn, E. Sachs, M. Simon, V. Toigo, “Final design of the High Voltage Deck 1 and Bushing for the ITER Neutral Beam Injector” to be presented to the 29th Symposium on Fusion Technology, 2016. [13] Giuseppe Taddia, Luigi Rinaldi, Luca Sita, Marco Bigi, Vanni Toigo, Muriel Simon, Hans Decamps, “The Ion Source and Extraction Power Supplies (ISEPS) for the SPIDER experiment project status”, IEEEC 15 Int. Conf. on EEEIC, p. 626-631, 2015. [14] A. Ferro, V. Toigo, L. Sita, L. Rinaldi, G. Taddia, D. Gutierrez, M. Simon, H. Decamps, “The design of the Residual Ion Dump Power Supply for ITER Neutral Beam Injector” to be presented to the 29th Symposium on Fusion Technology, 2016. 76 REE N°4/2016 LA FUSION THERMONUCLÉAIRE ET LE PROJET ITERDOSSIER Le système magnétique d’ITER Fonctionnalité La fonctionnalité du système ma- gnétique d’ITER [1] est la création de la configuration magnétique de révolu- tion caractéristique d’un tokamak, qui repose sur l’existence de deux champs magnétiques distincts : le champ toroï- dal et le champ poloïdal. Chacun de ces champs est créé par un ensemble de bobines indépendantes, chacune ayant sa propre alimentation électrique. Tous ces champs magnétiques sont de révolution ; ils doivent avoir avec une grande précision (<5 mm), le même axe vertical, qui doit être aussi celui de la chambre à vide toroïdale. Alors que le champ toroïdal est un champ statique, le champ poloïdal, est par nature pulsé ; sa fonction principale consiste à induire un courant électrique de plusieurs mégaam- pères dans le plasma et à contrôler l’équi- libre mécanique et la forme du plasma. La configuration magnétique dépend de la valeur d’un certain nombre de para- mètres (Cf. l’article sur le projet ITER de Robert Aymar & al.) : les choix effectués pour ITER déterminent en particulier la valeur 5,3 T du champ magnétique toroï- dal sur l’axe du plasma à R = 6,2 m, la valeur de 15 MA du courant plasma à in- duire et maintenir pendant une durée de 400 s (qui nécessite de produire une va- riation de flux magnétique de 267 Wb). En plus de cette fonction d’inducteur, le système de champ poloïdal contrôle l’équilibre et la forme du plasma par celui des courants dans une série de bobines de révolution à axe vertical positionnées près de la surface tout autour du tore de plasma à l’extérieur de la chambre à vide, à l’exception d’une paire de bo- bines coaxiales en cuivre, refroidies par eau pressurisée, qui, dans la chambre à vide et plus proches du plasma, assure- ront l’équilibre vertical souvent instable du plasma. Le fonctionnement de la machine suit le cycle décrit dans l’article introduc- tif de Jean Jacquinot. Pour bénéficier du maximum de variation du flux magné- tique, il est prévu de charger la bobine d’induction avec son courant maximum circulant dans un sens donné, puis de décharger cette bobine et de la charger ensuite au maximum avec le courant cir- culant en sens inverse. Il en résulte donc que pour chaque cycle plasma, deux cycles de chargement – déchargement se succèdent. Les 30 000 cycles plasma prévus se traduisent donc par 60 000 cycles machine. Conception La conception du système magné- tique repose sur quelques principes simples pour la mise en œuvre des choix effectués pour définir le projet ITER (Cf. article Aymar). Le premier principe est que les forces électromagnétiques de révolution soient autosupportées vis à vis de tous les types de chargement, normaux ou accidentels prévisibles. Seules les forces de gravité et celles générées lors d’inci- dents peu fréquents (les VDE, Cf. article Aymar) sont transmises à des supports extérieurs au système magnétique (l’an- neau de béton support commun des bobines et de la chambre à vide). Le second principe est la segmen- tation du système en éléments modu- laires en nombre limité, appartenant à quatre sous-ensembles à la finalité séparée (figure 1) : - bines TF) créant le champ toroïdal sta- tique ; planes identiques, en forme de D, compatible avec la forme souhaitée pour le plasma ; bobines PF) générant le système de champ poloïdal pulsé ; le solénoïde central composé de six bobines planes circulaires identiques superpo- sées ; les six grandes bobines planes circulaires réparties autour du plas- ma ; toutes ces bobines de révolution doivent avoir le même axe vertical de révolution que l’ensemble créant le champ toroïdal ; de champ magnétique transversal, Les aimants supraconducteurs d’ITER Par Paul Libeyre1 CS&CC Section Leader, Tokamak Engineering Department, Magnet Division - ITER Organization The function of the ITER Magnet System is to create the magnetic configuration characteristic of a tokamak, based on two distinct magnetic fields: the toroidal field and the poloidal field. Each of these fields is created by a set of coils, individually powered. The design of these coils relies on the application of a few basic principles, one of which is the exclusive use of superconducting material to carry the high intensity currents required. The different components of the Magnet System are the toroidal field coils, the central solenoid, the poloidal field coils, the correction coils and the feeders. The main aspects of the components design are presented as well as a summary status of their manufacturing. ABSTRACT 1 L’auteur est seul responsable des faits énoncés et opinions émises dans cet article. REE N°4/2016 77 Les aimants supraconducteurs d’ITER par paires anti-symétriques sur le bas, le haut et les côtés de la machine (six bobines BCC, six bobines TCC et six bobines SCC : Bottom, Top and Side Correction Coils) ; insérées entre les bobines TF et les bobines PF, à l’exté- rieur des bobines TF, les bobines BCC et TCC sont des bo