3EI 2011-65

Abonnez-vous

Prix de l'abonnement/accès : 30,00 €
se connecter ou s'enregistrer pour commander.
Prix de l'abonnement/accès : 0,00 €
se connecter ou s'enregistrer pour commander.
Prix de l'abonnement/accès : 0,00 €
se connecter ou s'enregistrer pour commander.
Prix de l'abonnement/accès : 0,00 €
se connecter ou s'enregistrer pour commander.
Prix de l'abonnement/accès : 0,00 €
se connecter ou s'enregistrer pour commander.

Achetez la version papier

Version papier
Prix du numéro : 12,00 €
se connecter ou s'enregistrer pour commander.

Articles et dossiers

Creative Commons Aucune (Tous droits réservés) Aucune (Tous droits réservés)

La Revue 3EI publication trimestrielle du Cercle Thématique 13-01 de la SEE SOCIETE de l'ELECTRICITE, de l'ELECTRONIQUE et des TECHNOLOGIES de l'INFORMATION et de la COMMUNICATION. 17, rue de l’Amiral Hamelin, PARIS 75783 CEDEX 16 Tél : 01 56 90 37 00 Fax : 01 56 90 37 19 site web : www.see.asso.fr SEE, association reconnue d'utilité publique par le décret du 7 décembre 1886 Siret 785 393 232 00042, APE 9412 Z, n° d'identification FR 44 785 393 232 3EI : Enseigner l’Electrotechnique et l’Electronique Industrielle La Revue 3EI, Édition SEE, 17 rue de l’Amiral Hamelin 75783 PARIS Cedex 16 Directeur de la publication Paul FRIEDEL Président de la SEE Rédactrice en Chef Marie Michèle LE BIHAN Adresser les propositions d’article à : revue3ei.art@voila.fr Communication Micheline BERTAUX communication@see.asso.fr 01 56 90 37 17 publicité au rapport Abonnement (4 numéros par an) déc. 2010, mars, juin, sept. 2011. tarifs TTC : Individuel : France et CEE………..38 € Pays hors CEE………..48 € Collectivités France et CEE……… .54 € Pays hors CEE……. ...67 € Gestion abonnement revue3ei@see.asso.fr Réalisation et impression Repro-Systèmes 23, rue de Verdun 77181 Le Pin Routage et Expédition Départ Presse ZI les Richardets 93966 Noisy le Grand Dépôt Légal : Juin 2011 Commission Paritaire 1212 G 78028 ISSN 1252-770X Sommaire du n° 65 Thème : Compatibilité ElectroMagnétique p. 2 Éditorial, p. 3 Publications, Informations p. 4 La CEM : une contrainte majeure dans les équipements embarqués P. ASFAUX AIRBUS TOULOUSE p. 11 Un condensé de Compatibilité Electromagnétique appliqué à l’électronique de puissance B. REVOL Ecole Normale Supérieure de Cachan CACHAN p. 19 Filtrage des émissions conduites : analyse et prédimensionnement des filtres de mode commun B. REVOL Ecole Normale Supérieure de Cachan CACHAN p. 29 Historique de la compatibilité électromagnétique et Presentation d’un Moyen d’essai en Immunité : La CRBM S. DUBOIS GERAC. ZAC de Pissaloup, 78190 TRAPPES. p. 36 Analyse tensorielle des réseaux appliquée à la compatibilité électromagnétique de l’électronique de puissance O. MAURICE GERAC. ZAC de Pissaloup, 78190 TRAPPES. Hors Thème p. 44 Les réseaux d’énergie électrique dans les navires de surface Troisième partie : Exemples de schémas et perspectives d’avenir. A. BONDU, P. LETELLIER JEUMONT ELECTRIC JEUMONT p. 53 L’ESME Sudria partenaire du CONCORDAT GENELEC 2010 Hommage à Jean Louis SANCHEZ Michel AMIET Président GENELEC ICA-R DGA p. 55 Conversion d’énergie par effets thermoélectriques : un regard sur les matériaux du passé et du présent B. LENOIR, A. DAUSCHER Ecole Nationale Supérieure des Mines de NANCY p. 60 Les Convertisseurs Statiques ; Percées dans les applications – Révolution dans les architectures H. FOCH (1), T. MEYNARD TOULOUSE p. 69 Les enjeux des composants de puissance SiC G. GROSSET IBS ZI Peynier/Rousset 13790 PEYNIER p. 74 La synthèse de films de diamant pour des applications en électronique de puissance A. GICQUEL, J. ACHARD, F. SILVA, O. BRINZA, A. TALLAIRE, K. HASSOUNI Laboratoire des Sciences des Procédés et des Matériaux, VILLETANEUSE p. 82 Nanostructuration des carbones activés et supercondensateurs carbone / carbone de haute densité d’énergie P-L. TABERNA, P. SIMON Université Paul Sabatier TOULOUSE Toute reproduction ou représentation intégrale ou partielle, par quelque procédé que ce soit, des pages publiées dans la présente édition, faite sans l'autorisation de l'éditeur est illicite et constitue une contrefaçon. Seules sont autorisées, d'une part, les reproductions strictement réservées à l'usage privé du copiste et non destinées à une utilisation collective et, d'autre part, les analyses et courtes citations justifiées par le caractère scientifique ou d'information de l'oeuvre dans laquelle elles sont incorporées. Toutefois des copies peuvent être utilisées avec l'autorisation de l'éditeur. Celle-ci pourra être obtenue auprès du Centre Français du Droit de Copie, 20, rue des Grands Augustins, 75006 Paris, auquel la Revue 3EI a donné mandat pour la représenter auprès des utilisateurs. (loi du 11 mars 1957, art.40 et 41 et Code Pénal art. 425). La Compatibilité ElectroMagnétique, CEM, compose le thème de ce numéro et nous devons à Mr Bertrand Revol de l’avoir piloté. Vous trouverez dans ces articles un peu d’histoire de la CEM, le point de vue d’un industriel et des articles plus orientés vers la modélisation. Nous remercions vivement Mr Bertrand Revol pour sa contribution personnelle et pour le travail de coordination au sein de ce vaste sujet. Pour la partie hors thème, nous publions la seconde partie d’une collaboration avec Mr Amiet, président du Génélec. Les interventions du Concordat Genelec, qui a lieu tous les dix ans et présente l’état de l’art en Génie Electrique, donnent lieu, dans ce numéro, à des articles balayant les sujets suivants : Matériaux, Electronique de puissance, Electrochimie, Energie…….nous remercions Mr Amiet pour cette fructueuse collaboration. Pour les prochains numéros : • L’académie de Créteil prépare le numéro académique de Septembre 2011 sous la direction de Mr Samuel Viollin • L’éclairage sera le thème de Janvier 2012 • Défaillance et durée de vie du matériel électrique celui d’Avril 2012 Nous vous rappelons qu’à partir de l’année 2012, les quatre numéros de notre revue paraîtront en : Janvier, Avril, Juillet et Octobre. Nous remercions les auteurs d’articles spontanés qui sont toujours de grande qualité. Continuer à nous envoyer des articles pédagogiques : fiches de TP, TD, cours…Nous sommes toujours très intéressés par des articles présentant des études de systèmes avec une approche pluridisciplinaire et nous serons heureux de recevoir vos articles que vous aurez déposés dans la boite aux lettres dont l’adresse e-mail est revue3ei.art@voila.fr. Nous sollicitons également la participation des amoureux de l’histoire des Sciences ; les articles permettant d’alimenter cette rubrique sont les bienvenus. Bonne lecture. Le Comité de Publication de la Revue3EI La Revue 3EI Comité de publication Hamid BEN AHMED Jean BONAL Arnaud BRUGIER Jean FAUCHER Gilles FELD Jean-Philippe ILARY Chérif LAROUCI Marie Michèle LE BIHAN Franck LE GALL Pascal LOOS Oviglio SALA Jean-François SERGENT Jean-Claude VANNIER Pierre VIDAL Lire la revue 3EI c’est bien et même très bien, Lire la revue 3EI en étant abonné c’est encore mieux !!!!

Creative Commons Aucune (Tous droits réservés) Aucune (Tous droits réservés)
contenu protégé  Document accessible sous conditions - vous devez vous connecter ou vous enregistrer pour accéder à ou acquérir ce document.
- Accès libre pour les ayants-droit

La CEM : une contrainte majeure dans les équipements embarqués Pascal ASFAUX pascal.asfaux@airbus.com Airbus Opération SAS 316, route de Bayonne 31060 Toulouse cedex 1. L’avion plus électrique Quatre formes d’énergie sont utilisées sur les avions actuels ; elles sont principalement obtenues à partir des moteurs de propulsion. Un prélèvement mécanique est effectué sur le moteur pour couvrir les besoins du réseau pneumatique ainsi que pour la génération des énergies hydraulique et électrique. L’énergie pneumatique est obtenue par prélèvement d’air sur les compresseurs du moteur. L’énergie hydraulique est utilisée pour l’alimentation de nombreux actionneurs de puissance, comme, par exemple, les servocommandes assurant le déplacement des surfaces de commandes de vol. Le prélèvement d’air permet le conditionnement d’air du cockpit et de la cabine, ainsi que le dégivrage des bords d’attaque des ailes et du moteur. Figure 1 : Photographie Airbus A380 Durant les dernières décennies, l’énergie électrique a occupé un rôle croissant au sein des réseaux de bord aéronautiques. Son utilisation était autrefois limitée à la navigation et à l’instrumentation de bord. Puis, elle s’est progressivement développée pour améliorer le confort et le divertissement des passagers (éclairage, cuisine, équipements vidéo). De nouvelles applications sont ensuite apparues pour optimiser le fonctionnement de l’avion, comme par exemple la gestion électrique des commandes de vol sur l’Airbus A320 dans les années 1980 (Fly-by-wire). Le développement de l’Airbus A380 (figure 1) constitue une étape supplémentaire d’innovation au niveau des technologies électriques : -le réseau électrique alternatif est à fréquence variable (360-800Hz), -le système de secours est entièrement électrique, -des actionneurs à puissance électriques (figure 2) ont été introduits en redondance pour les commandes de vol, -la fonction "disjoncteur" est réalisée électroniquement pour les faibles calibres de courant. Figure 2 : Electro-Hydrostatic Actuators (EHA) Actionneur commande de vol - Elévateur A380 Les nouvelles générations d’avions sont susceptibles d’intégrer d’autres fonctions électriques, comme par exemple le freinage des roues, le conditionnement d’air ou le démarrage des moteurs. Cette évolution des architectures énergétiques est souvent évoquée à travers l’expression "avion plus électrique". Elle est liée au potentiel d’amélioration supérieur qu’offrent les systèmes électriques par rapport aux autres formes d’énergie exploitées, car les solutions conventionnelles sont déjà optimisées et ne Résumé : Après avoir introduit l’avenir avec l’avion plus électrique, cet article présente tout d’abord quelques notions de compatibilité électromagnétique (CEM) et les principaux essais avioniques associés. Les problématiques de compatibilité électromagnétique (CEM) en aéronautique sont ensuite exposées, et enfin quelques règles de conception simples sont données dans le but de répondre à l’ensemble des contraintes aéronautique. Via des exemples simples, cet article permet de comprendre quelques contraintes de compatibilité électromagnétique en aéronautique et de connaître les enjeux en termes de conception d’un équipement de puissance embarqué. laissent pas entrevoir d’évolution significative. De nombreux bénéfices sont attendus des réseaux pour lesquels l’énergie est davantage véhiculée sous forme électrique (Power-by-wire), sur les plans technologique, industriel, fonctionnel et structurel. Si ces perspectives présentent de nombreux bénéfices fonctionnels pour l’avion, elles provoquent des changements majeurs au niveau de la génération et de la distribution électriques. En particulier, il est nécessaire d’augmenter la tension distribuée pour réduire les sections du câblage électrique, et donc sa masse et son volume. Il peut ainsi être envisagé d’évoluer vers des architectures de distribution 230V AC et même 270V DC. 2. La compatibilité électromagnétique (CEM) 2.1. Généralités Commençons par donner une définition : la compatibilité électromagnétique (CEM) est l'aptitude d'un système électronique à fonctionner dans son environnement électromagnétique de façon satisfaisante, sans produire lui-même des perturbations électromagnétiques intolérables pour tout ce qui se trouve dans cet environnement. Une bonne compatibilité électromagnétique décrit un état de « bon voisinage électromagnétique » : - limiter le niveau des émissions non désirées provenant du système, afin de ne pas perturber la réception radio ou les autres équipements ; - être suffisamment immunisé envers les perturbations provenant des autres équipements, ou plus généralement de l'environnement. Les bruits électromagnétiques et radioélectriques sont le résultat de tous les courants électriques induisant une multitude de champs et signaux parasites. Dans un environnement aéronautique, la CEM devient primordiale de par la multiplicité et la complexité des systèmes. L’architecture système et les équipements électroniques doivent tenir compte dès les phases de conception de cette forte contrainte. Le domaine aéronautique civil est standardisé par la norme DO-160. Elle permet de définir des limites maximales de perturbations conduites et rayonnées, de définir les niveaux d’immunité en conduit et rayonné des équipements, et enfin de décrire les méthodes et les moyens nécessaires à la vérification des niveaux d’immunité et d’émission pour reproduire des mesures fiables. Suivant la zone avion concernée (Baie électronique, fuselage, ailes, ventre mou) et la catégorie de l’équipement, les niveaux de contraintes sont plus ou moins élevées. Pour qu’un avion obtienne la certification, l’ensemble des équipements doivent être qualifiés et donc être conforme à la norme DO160. 2.2. Les principaux essais CEM avioniques Afin de s’assurer d’un environnement électromagnétique « propre », les essais CEM conduits sont généralement effectués dans une cage de faraday (enceinte conductrice reliée à la terre étanche aux champs électriques). Elle peut-être munie d’absorbants électromagnétiques. Ces essais conduits peuvent également être réalisés en champ libre sous réserve de prendre quelques précautions (réseau d’alimentation « propre », distance de sécurité pour l’essai en susceptibilité, …). Ils sont réalisés à l’aide de pince de courant (ayant une bande passante importante, jusqu’à 400MHz) permettant de mesurer et/ou injecter des courants sur les torons testés. Un gabarit d’émission conduite (150kHz  30MHz) extrait de la norme DO160 à respecter est présenté sur la figure 3. Le courant est donnée en dbµA. la conversion en µA est donné par la relation µA=10^(dbµA/20). Le palier à 20dbµA entre 2 et 30MHz correspond donc à une valeur de 10µA ! ! ! Cette valeur très faible permet de comprendre l’enjeu de la compatibilité électromagnétique notamment en électronique de puissance pour laquelle les variations des courants et des tensions sont importantes. Figure 3 : Gabarit d’émission conduite pour les réseaux d’alimentation – DO160 Concernant le set-up, afin d’assurer une bonne reproductibilité des essais, des Réseaux Stabilisateurs d’Impédance de Ligne (RSIL) sont mis en place sur chaque alimentation externe du système (28V DC ou 230V AC). L’impédance normée d’un RSIL est représentée sur la figure 4. Figure 4 : Impédance RSIL en fonction de la fréquence Le RSIL permet d’une part de normer l’impédance afin d’obtenir les mêmes résultats quelque soit le générateur utilisé et d’autre part, de par sa fonction filtre passe-bas de filtrer toutes les perturbations émises par le réseau. La mesure des émissions conduites est réalisée avec des pinces de courant ayant des bandes de fréquences adapté à l’essai (par exemple, F-55 de chez Fischer). Figure 5 : Photographie Pince de courant Les essais rayonnés sont quant-à-eux réalisés soit dans une chambre anéchoïque (essai en émission), soit dans une chambre réverbérante à brassage de mode (essais en susceptibilité) : - La première permet de supprimer toutes réflexions d’onde électromagnétique générée par l’équipement sous test afin de mesurer exclusivement son rayonnement via une antenne. Figure 6 : Essai en émission rayonnée – Chambre anéchoïque - La deuxième permet quant-à-elle de générer un champ électromagnétique donnée au niveau de l’équipement sous test afin de tester son immunité. La Chambre Réverbérante à brassage de mode (CRBM) fonctionne selon le principe d’une cavité résonante dans laquelle une énergie RF est injectée. Les modes excités (résonances de cavité) forment le champ électromagnétique auquel l’équipement sous test est soumis. Un brasseur de modes – qui tourne et par conséquent modifie la distribution des modes dans la chambre – est utilisé pour produire un champ électrique statistiquement homogène et isotrope. Figure 7 : Essai en susceptibilité rayonnée – Chambre Réverbérante à Brassage de Mode Une contrainte non négligeable du monde aéronautique est la foudre. Elle peut avoir deux types de conséquences sur les avions : le premier, appelé effet direct, touche les structures constituant la carlingue de l’avion et soumet les matériaux à des brûlures voire des fractures, notamment sur l’extrémité des ailes et le gouvernail. Le second, l’effet indirect de la foudre est dû à l’association d’un fort courant associé à la création d’un puissant champ électromagnétique qui se propage à l’intérieur de la carlingue qui se comporte exactement comme une cage de Faraday. Ce phénomène provoque des interférences électromagnétiques liées aux courants de surface. De plus, il induit des couplages entre câbles et engendre donc des différences de potentiel en certains points de l’appareil (liées aux impédances des torons concernés). Les effets indirects de la foudre sont reproduits, sur les câblages avion, par l’intermédiaire de générateurs dédiés permettant de reproduire les formes d’ondes spécifiques à l’environnement aéronautique. Figure 8 : Banc d’injection foudre Les différentes formes d’ondes décrites dans la DO160 sont les WF1, WF2, WF3, WF4 et WF5A. Elles sont plus ou moins énergétiques et représentent différents phénomènes physiques. La figure 9 présente la WF5A qui a été déclinée sur l’A350 avec l’apparition du carbone au niveau de la structure. Les valeurs des niveaux d’agression données dans la DO160 vont de 50V/50A à 1600V/1600A. C’est la forme d’onde la plus énergétique. Les protections sont généralement de type Transzorb ou varistance. Figure 9 : Forme d’onde en courant et tension WF5A 3. La CEM et l’électronique de puissance dans l’aéronautique L’explosion de l’électronique de puissance dans le monde aéronautique (l’A380 et l’A350 pour Airbus, le B787 pour Boeing) ont un fort impact en terme de Compatibilité Electromagnétique. Ces systèmes doivent cohabiter dans un environnement sévère (champ radar, champ radio, exposé foudre) et sur un réseau électrique commun (problématique d’émission et de susceptibilité conduite). La complexité grandissante de ces systèmes impose des contraintes de conception très importantes. Nous développerons ce point dans le prochain paragraphe. Nous allons ici nous attarder sur les contraintes d’émission conduites et rayonnées dues à l’utilisation d’éléments de commutation. En effet, les bruits de commutations haute fréquence des Mosfets, des IGBTs, des diodes génèrent des perturbations sur les réseaux de puissance et ont un fort impact sur l’installation électrique avion. De par la longueur des câbles, des boucles de surface importante de circulation des chemins de mode commun peuvent se créer. Si cela est maîtrisable pour les courants de mode différentiels par des câbles torsadés, ces boucles sont plus difficilement évitables pour les courants de mode commun. Prenons le cas d’un onduleur 10kVA, alimenté par un réseau de bord continu 540V DC, et alimentant une charge moteur déportée. La figure 10 montre l’ensemble de la problématique CEM dans cette configuration système. DC/AC Converter SortieAC EntréeDC Sortie HVDC Génération de puissance Câble triphasé Moteur Busbar ou câble Emission rayonnée du câble Emission conduiteEmission conduite Filtre d’entrée Filtre de sortie Figure 10 : Schéma d’une installation avion et ses contraintes Les problématiques de mode commun sur des structures d’équipements comme celle-ci sont prépondérantes. Les émissions conduites et rayonnées notées dans la figure 10 peuvent induire, si elles ne sont pas maitrisées, des perturbations sur d’autres équipements connectés au même réseau ainsi que des couplages sur des signaux bas niveaux (analogiques) routés dans des câbles avion proches. L’implémentation de filtre CEM en entrée et en sortie de l’équipement doivent donc être prévue dès le début des phases de conception afin de maitriser au mieux ces problématiques. Outre les difficultés techniques de réaliser un filtre performant dans toute la bande de fréquence (DO160 : 150kHz  30MHz), une contrainte récurrente en aéronautique rajoute une difficulté majeure : le couple poids/volume. Le volume alloué au filtrage dans un équipement de puissance peut s’avérer très important suivant les contraintes imposées (entre 1/4 et 1/3 du volume total). Au niveau système avion, l’installation électrique peut également être modifiée afin de satisfaire aux exigences globales du système avion complet. Des solutions simples en théorie mais très couteuses en terme de poids et de contraintes mécaniques en pratique peuvent être envisagées : routage des câbles de puissance dans une route avion dédiée, blindage des torons de puissances, … 4. Quelques règles de conception CEM simple Cette partie présente quelques règles de conception de compatibilité électromagnétique (CEM) pour l’électronique de puissance embarquée. Les perturbations de mode commun et de mode différentiel obligent les concepteurs à prendre en compte des recommandations CEM. Quelques thèmes sont abordés mais ne représente pas une liste exhaustive. 4.1. Les interconnexions Concernant les connexions de type signal bas niveau (analogique, numérique, bus) entre une carte contrôle et une carte puissance par exemple, afin d’éviter tout problème d’auto-susceptibilité (susceptibilité de l’équipement due à un rayonnement interne par exemple) il est souhaitable d’utiliser des connexions type « flex » plutôt que des connexions filaires. Un blindage peut et doit être réalisé avec des plans de masse dans le flex. Cette solution peu coûteuse et industrielle permet de supprimer tout couplage sur des signaux d’interconnexions entre cartes qui peuvent être relativement sensibles. Figure 11 : Connexions « flex » Concernant les connexions de puissances, de la même manière, il est souhaitable d’utiliser des connexions type « busbar ». Elles peuvent être réalisées soit directement dans un circuit imprimé (PCB), soit par une pièce mécanique en cuivre par exemple. Le principal intérêt d’une telle technologie est de réduire les inductances parasites (dans une cellule de commutation par exemple). Figure 12 : Connexions « Busbar » De manière générale, il faut donc éviter dans la mesure du possible du câblage filaire non maitrisé. Des connexions type « flex » et « busbar » permettent d’assurer également une très bonne reproductibilité et des réductions des coûts de production non négligeable. 4.2. Les filtres CEM Dans un environnement aéronautique, des filtres CEM doivent être conçus pour chaque entrées/sorties d’un système. Les réseaux de puissance embarqués actuels sont le 28V DC et le 115V AC 400Hz, auxquels il faut rajouter les réseaux de bords futurs : +/-270V DC et 230V AC 400Hz. Les deux fonctions principales d’un filtre sont d’une part de réduire les émissions conduites d’un équipement en maitrisant les chemins de courants parasites et d’autre part de rendre le système immune en filtrant toutes les perturbations venant de l’extérieur. En électronique de puissance les filtres sont réalisés à partir de composants discrets (Capacités, inductances, résistances). Les deux principaux challenges du filtrage CEM sont d’une part d’assurer les performances du filtre dans toute la bande de fréquence (en effet, les éléments parasites capacitifs et inductifs des composants passifs dégradent fortement les performances haute fréquence) et d’autre part de prendre en compte la contrainte poids/volume (en effet, les composants passifs volumineux et lourds de l’électronique de puissance ne permettent pas toujours de respecter les objectifs fixés). La structure standard d’un filtre pour un équipement de puissance embarqué est décrite dans la figure 13. Deux étages de filtrage sont réalisés, un de mode commun, un de mode différentiel : DC/AC Self de mode commun Entrée DC Sortie AC CFilmCAluSelf de mode différentiel Capacité de mode commun Capacité de mode commun Dédié au filtrage de mode commun Dédié au filtrage de mode différentiel Figure 13 : Structure type d’un filtre d’entrée réseau +/-270VDC Afin d’obtenir les meilleures performances CEM, les capacités de mode commun sont généralement de type céramique (faible ESR « résistance équivalente série », faible ESL « Inductance équivalente série », fréquence de résonance élevée). Les capacités de mode différentiel sont quant-à- elles de type film (faible ESR, faible ESL, courant admissible important). Une capacité aluminium de forte valeur peut être rajoutée en parallèle pour obtenir la valeur désirée sur le bus DC. La self de mode différentiel est réalisée soit à partir de ferrite (par exemple, Ferroxcube 3F4), soit à partir de poudre de fer (par exemple, Magnetics MPP). Pour des applications de forte puissance (>5kVA), un matériau émergent permettant d’optimiser la contrainte poids/volume est le nanocristallin faible perméabilité (par exemple, ArcelorMittal kµ cores, Bsat=1.2Tesla, µ=200 à 3000). Figure 14 : Caractéristiques Matériau Kµ ArcelorMittal La self de mode commun est quant-à-elle réalisée majoritairement à partir de matériau nanocristallin haute perméabilité (par exemple, Vacuumschmelze Vitroperm, BSAT=1.2Tesla, µ=30000). Cette technologie aujourd’hui mature permet de réduire significativement la taille des noyaux magnétiques et donc leurs poids et volumes. 4.3. L’étage de puissance Les longueurs des boucles de commutations (capacité + Mosfet par exemple) doivent être minimisées et être peu impédantes (réduction de la self parasites de connexion). Cette recommandation permet d’une part de réduire les surtensions observés sur les éléments de commutation (Vsurtension = L.di/dt) et d’autre part de constituer une première brique efficace du filtre CEM. Dans la figure 15, cette notion est présentée pour le mode différentiel et pour le mode commun sur une structure type onduleur. Le filtre complet n’est pas représenté, seulement les capacités de découplage sont implémentées. Module de puissance Filtre CEM Capacité de mode commun Capacité de mode commun Sortie AC Capacité de mode différentiel Impédance du Busbar IMC : Courant de mode commun Impédance du Busbar IMC Entrée DC IMD : Courant de mode différentiel IMC IMD Figure 15 : Cellule de commutation et découplage Très simplement, nous constatons que si l’impédance du « busbar » est très faible, les courants de mode commun et de mode différentiel pourront être maitrisés respectivement via les capacités de mode commun et les capacités de mode différentiel sans engendrer de surtensions. L’ensemble des capacités de découplage doivent donc être positionnée au plus près de la cellule de commutation et connectées avec des liaisons non impédantes. 4.4. Ségrégation Il est important au début d’un design d’identifier les sources de bruit et les victimes potentielles afin de décliner des contraintes CEM et de réaliser un « zoning ». Ce travail doit être réalisé en 3D dans l’équipement complet. Les différentes fonctions présentes dans l’électronique de puissance (éléments de commutation, drivers, filtre d’entrée/sortie, alimentation auxiliaire, FPGA, DSP, …) doivent être ségréguées afin d’éviter tout couplage entre des zones « propres » et des zones « sales ». La partie puissance doit donc être isolée de la partie contrôle et les filtres CEM doivent être positionnés dans une zone dédiée. Un exemple sur une application onduleur est présenté sur la figure 16. Figure 16 : Ségrégation de fonction – Application Onduleur 4.5. Architecture de masse Une bonne architecture de masse permet d’assurer d’une part une bonne équipotentialité du système ( bonne communication entre carte) et d’autre part de maitriser les courants parasites de mode commun vers la masse mécanique sans engendrer de disfonctionnements. Un plan de masse mécanique dédié au filtrage de mode commun est primordial. Prenons le cas d’un équipement puissance « simple » référencé à la masse mécanique. Les plans dédiés aux filtrages et aux fonctions électroniques seront ségrégués et connectés au châssis par deux chemins distincts. Les courants parasites ne traverseront pas la masse électrique des circuits afin de maintenir cette masse fonctionnelle « propre ». Références Norme, ‘Environmental Conditions and test procedures for Airborne Equipment’, RTCA DO- 160 Michel Beltramini, Thèse de doctorat, INPT-Laplace, ‘Optimisation de l’ensemble convertisseur/filters de sortie vis à vis des contraintes CEM avion’, 2011.

Creative Commons Aucune (Tous droits réservés) Aucune (Tous droits réservés)
contenu protégé  Document accessible sous conditions - vous devez vous connecter ou vous enregistrer pour accéder à ou acquérir ce document.
- Accès libre pour les ayants-droit

Un condensé de Compatibilité Electromagnétique appliqué à l’électronique de puissance Bertrand REVOL Ecole Normale Supérieure de Cachan, département EEA, Laboratoire SATIE UMR 8029 61, Avenue du président Wilson 94235 Cachan cedex 1. Introduction De la foudre frappant le sol à proximité d’habitations aux téléphones portables brouillant les émissions radio, la compatibilité électromagnétique s'immisce dans notre quotidien sans penser qu'elle représente la bête noire des ingénieurs chargés de nous concevoir des dispositifs électroniques innovants. Elle met en évidence que la combinaison entre des équipements électroniques toujours plus performants et les principes de l'électromagnétisme engendre des phénomènes d’une extrême complexité. C’est pourquoi l’électronique de puissance dont les équipements maintes fois présentés comme étant parmi les plus perturbateurs sur le plan électromagnétique fait naturellement l'objet de cet article. Malgré la complexité des structures de conversion, la modélisation des émissions conduites semble relativement bien maîtrisée [1]. Malheureusement, les outils dédiés à la CEM sont encore peu répandus et peuvent difficilement définir tout le système dans son environnement. Pour répondre à cette demande, l'un des premiers objectifs correspond à l'uniformisation des techniques de simulation et des modèles utilisés. Ces modèles pour l'instant développés au niveau des composants élémentaires (interrupteurs, éléments passifs, câbles, machines... ) se doivent de donner des résultats acceptables dans les domaines temporel et fréquentiel. Pour ne pas se limiter, ils doivent pouvoir être renseignés soit à partir de simulations numériques à l'aide de logiciels usuels (Comsol® , ANSYS®, FLUX®, FEMM…), soit par une approche analytique ou tout simplement par la mesure qui pour certains éléments reste indispensable. En décrivant l'environnement du composant, autrement dit en décrivant le système dans son ensemble, nous espérons également simuler une partie du spectre des émissions rayonnées naturellement couplées aux émissions conduites. Cet article montre comment sont élaborés des modèles spécifiques à l’électronique de puissance pour rendre compte de la CEM de ces dispositifs. 2. La compatibilité électromagnétique (CEM) 2.1. Généralités "Emission et Susceptibilité" sont les deux mots clés de la CEM. Si l'émission représente l'aptitude d'un appareil à transmettre des signaux perturbateurs à son entourage, la susceptibilité concerne la capacité de ce même dispositif à être perturbé par l'extérieur. Il s’agit ici de la CEM inter-système. Le couplage de ces deux catégories entraîne une troisième définition: l'auto- perturbation, autrement dit, la possibilité d'un système de se perturber lui-même. On parle alors de CEM intra- système (Fig. 1). Ces termes génériques permettent d'introduire les trois notions de bases de l'analyse CEM des dispositifs électriques : les Sources, les Chemins et les Victimes. Pour résumer et donner ainsi le schéma classique d’une analyse en CEM, nous dirons que les générateurs de perturbations ou sources vont, par l'intermédiaire de chemins de propagation, agir sur une victime, par définition susceptible. La modélisation CEM consiste donc à représenter au mieux ces trois composantes. Résumé : La Compatibilité Electromagnétique (CEM) étant le fil conducteur de cet article, nous nous permettrons quelques familiarités d’une en la rappelant au cours du texte par son abréviation et d’autre part en s’en servant directement comme adjectif. La CEM possède l'un des plus vastes domaines d'applications et naturellement nous ne pouvons en quelques lignes en avoir une représentation exhaustive. Les paragraphes qui suivent s’attachent à donner des définitions usuelles et les principaux mécanismes de génération d’émissions des structures électroniques de puissance réputées pour leur pollution électromagnétique. Seules les émissions dites « conduites radiofréquences » sont mises en évidences dans cet article pour la simple raison qu’elles correspondent aux premières grandeurs à analyser pour maîtriser la CEM d’un dispositif électronique. Fig. 1 : Représentation des trois composantes CEM L'identification des sources au sein d'un dispositif électrique ou des appareils perturbateurs n'est pas toujours évidente. Toutefois, en électronique de puissance, certains générateurs sont intuitivement détectables. En effet, les principales perturbations conduites sont engendrées par les changements d'état des interrupteurs de puissance. Ces basculements brutaux amènent des variations rapides de courant ou de tension aux bornes des différents composants. Si les règles de l'électronique de puissance sont respectées, aucune variation brutale n'est imposée à une variable d'état du système ; malheureusement, les éléments parasites induits par la réalisation technologique font que des courants vont varier brutalement en transitant dans des inductances parasites, et que des fronts de tension vont s'appliquer à des capacités parasites, induisant alors des courants perturbateurs non désirés. Les interrupteurs de puissance sont les principaux acteurs de la génération de courants et de tensions parasites. Les chemins ou canaux de propagation sont multiples et peuvent être de nature totalement différentes : citons par exemple le vide ou plus simplement l'air, les isolants, la connectique constituée de circuits imprimés ou de câbles, sans oublier les semiconducteurs et le reste des composants. Ceci introduit la notion de couplage, déterminant le mode de transmission d'une perturbation électromagnétique de la source à un circuit victime. Globalement, on définit 5 types de couplage différents, bien que certains d'entre eux semblent très voisins [2]. Nous pouvons ainsi distinguer les couplages :  champ à boucle (effet des champs magnétiques),  champ à fil (effet des champs électrostatiques),  par diaphonie inductive,  par diaphonie capacitive,  par impédance commune. Les chemins de propagation sont alors constitués par l'ensemble de ces couplages. Dans le cas de la CEM conduite des convertisseurs statiques, l'étude que nous menons n'a pas la prétention de tenir compte de l'ensemble des couplages parasites, d'une part, parce que l'environnement électromagnétique n'est pas nécessairement connue, et d'autre part, parce que certains de ces modes de transmission n'ont qu'un impact relatif sur les gammes de fréquences que nous étudions. Aussi, nous ne retiendrons que les effets induits et directs des grandeurs électriques (diaphonies et impédance commune). 2.2. Mode Commun/ Mode différentiel Les phénomènes associés aux émissions conduites peuvent encore se décliner en deux modes, permettant une analyse plus fine et d’apporter des solutions ciblées. Nous allons ainsi définir les notions de mode différentiel et de mode commun. Pour aborder ces concepts parfois perçus comme flous, il faut naturellement poser quelques définitions sur un cas simple d’un équipement sous test (EST) monophasé possédant une liaison à la terre (Fig. 2). Il est avant tout important de retenir que les grandeurs présentées sur cette figure ne porte ni puissance ni informations utiles, elles ne représentent que des signaux indésirables. Le potentiel de référence des tensions et celui de la terre ou du châssis de l’équipement. Fig. 2: Courants et tensions analysées Mode différentiel (MD) : Les courants de MD circulent dans les fils d’alimentation de façon symétrique, c’est à dire dans les conducteurs « aller et retour » utiles. On l’appelle encore mode transversal ou mode symétrique. Les relations (1) et (2) permettent d’exprimer respectivement le courant et la tension de mode différentiel à partir des courants et des tensions de chacune des phases d’alimentation. En utilisant cette définition, une mesure directe de ces courants peut s’effectuer dans le cas d’une alimentation monophasée ou continue selon le schéma Fig. 3. (1) (2) Environnement électromagnétique Système électrique Émission Susceptibilité Auto perturbation aller retour i1 EST i2v1 v2 Fig. 3 : Mesure du courant de mode différentiel Mode Commun (MC) : Les courants de MC circulent dans les fils d’alimentation de façon asymétrique, c’est à dire dans le même sens dans les conducteurs aller et retour utiles, le retour de ce courant s’effectue par les masses soit par liaisons capacitives soit par liaisons directe. On l’appelle encore mode longitudinal ou mode asymétrique (3). La tension de mode commun, quant à elle, résulte de la contribution moyenne de toutes les tensions de phase (4). A l’instar du mode différentiel une mesure directe du courant est possible en suivant le schéma présenté sur la Fig. 4. (3) (4) Fig. 4 : Mesure du courant de mode commun Remarque : On retrouvera également ces notions de mode commun et mode différentiel dans le cas des émissions rayonnées. 2.3. Norme et dispositifs de mesure L'analyse et la compréhension des problèmes de CEM des convertisseurs ou tout autre appareil électronique sont implicitement guidées par les multiples normes européennes et internationales, aujourd'hui imposées pour la commercialisation d'un équipement électrique. Le respect des normes CEM représente pour le constructeur un gage de qualité et de compétitivité de ses produits. Cette conformité devient alors un véritable argument de vente. Ces normes peuvent se scinder en deux groupes. Le premier définit le niveau d'émission conduite et rayonnée. Le deuxième groupe traite des niveaux de susceptibilité des équipements. Comme nous l'avons précédemment introduit, cette étude porte sur l'estimation des perturbations conduites. Pour cela, nous allons prendre comme support la norme générique européenne EN55022 qui suit les recommandations du CISPR 16 [3]. Elle spécifie les niveaux des émissions conduites et rayonnées hautes fréquences applicables aux domaines résidentiels, commerciaux et à l'industrie légère. Les niveaux sont donnés sur une échelle logarithmique en dBµV (5) ; ce système d'échelle sera donc utilisé par la suite pour les représentations spectrales. (5) Les spécifications des normes relatives aux perturbations conduites dans la bande des fréquences radio (150kHz-30MHz) se divisent en deux catégories [3]. La première, désignée par l'appellation "Classe A", définit le niveau d'émission pour des appareils destinés au secteur industriel. La seconde, et certainement non la moindre, est réservée au secteur domestique et hospitalier : c'est la Classe B. Comme nous pouvons le constater sur la Fig. 5, cette dernière possède un gabarit nettement plus contraignant que celui de la Classe A, et dont les niveaux sont ceux du Tab 1. Généralement, les concepteurs des équipements électriques cherchent à répondre aux critères de la Classe B, ceci leur permettant de couvrir un marché plus vaste, voire, en allégeant les moyens de filtrage, de ne répondre qu'à la classe A. Fig. 5 : Exemple de Gabarits normatifs issu des spécifications de la norme CISPR 16 Fréquences (MHz) Classe A (dBµV) Classe B (dBµV) 0,15 – 0.5 79 66 – 56 0,5 – 5 73 56 5 – 30 73 60 Tab 1 : Valeurs limites des gabarits pour les Classes A et B (CISPR 16) 0.1 1 10 100 40 50 60 70 80 90 100 Classe B Classe A Fréquences (MHz) Niveau(dBµV) aller retour imes= iMC iMC1 sonde ampèremétrique HF VMC iMC2 aller retour imes= 2iMD iMD iMD sonde ampèremétrique HF VMD Ceci étant, spécifier un gabarit normatif serait inutile sans un protocole de mesure clairement défini et imposé ; il nous faut donc introduire l’un des dispositifs de mesure qui sera par la suite indissociables de certaines études que nous pouvons mener. Pour le mode conduit, le dispositif de mesure dépend essentiellement du niveau de courant absorbé par l'équipement sous test. Pour des courants de ligne inférieurs à 100 A, ce qui est le cas pour la plupart des équipements que nous utilisons tous les jours, le Réseau Stabilisateur d'Impédance de Ligne (RSIL) s'impose ; au-delà, il est possible d'utiliser des sondes de courant. Ce dispositif s’incère entre l’équipement sous test et l’alimentation électrique (Fig. 6). Ce RSIL, comme son nom l'indique, permet de définir une impédance bien déterminée au réseau d’alimentation tant en mode différentiel qu’en mode commun. Son rôle est de collecter « l’ensemble » des courants haute fréquence générés par l’EST. Sa structure s’apparente à celle d’un filtre (Fig. 7). Il impose des impédances entre les phases et la terre (ZY) dont le module est inférieur à celui de l’impédance de ligne du réseau. Pour s’en assurer des éléments inductifs (ZX) sont insérés en série sur chaque phase. Les impédances ZY et ZX sont donc respectivement de nature capacitive et inductive. Cet équipement quasi-incontournable en CEM permet une reproductibilité des mesures et de fixer, en partie, les conditions de mesure sur la plage normative de fréquences (150 kHz - 30 MHz). Il existe plusieurs structures de RSIL, suivant les spécifications des Normes. In fine, qu'ils soient composés d'une ou plusieurs cellules de filtrage, l’impédance vue par l’EST entre une phase et la terre (ZY) doit présenter un module de 50  de quelques kilohertz jusqu'à la fin de la bande fréquentielle imposée. Cette valeur permet l'adaptation d'impédance des appareils de mesure tels que des récepteurs CEM autrement dit des analyseurs de spectre dédiés aux mesures CEM. L’ensemble des réglages de ces équipements de mesure sont spécifiés et imposés par les normes. Fig. 6 : Implantation du RSIL Fig. 7 :Structure simplifiée du RSIL 3. Electronique de puissance et CEM 3.1. Généralités Pour illustrer les mécanismes d’émissions conduites et apporter les briques élémentaires de la modélisation de ces phénomènes, les structures électroniques de conversion d’énergie sont tout à fait adaptées [4]. La nature même de leur fonctionnement est en contradiction avec les règles de bon sens que l’on cherche à appliquer pour limiter l’interaction inter et intra système. Plus concrètement, la CEM tend à montrer qu’il est nécessaire de limiter les variations rapides de grandeurs électriques (tension, courant) et électromagnétiques (champs) alors que les structures à découpage génèrent des variations brutales, du moins électriques, pour gérer le transfert d’énergie souhaitée à moindre pertes. Le schéma Fig. 8 nous donne une idée de la richesse spectrale des structures de puissance, des harmoniques de la fréquence du réseau d’alimentation aux fréquences équivalentes des fronts de tensions et de courants engendrés par les commutions l’analyse s’étend sur plus de 7 décades. L’analyse CEM des structures statiques de puissance suivant le triptyque classique « source-chemin-victime » est d’autant plus justifiée que la cellule de commutation, brique élémentaire des convertisseurs statiques [5], joue le rôle de générateurs. En effet, la cellule de commutation, facilement identifiable dans les structures non isolées, représente l’association de deux interrupteurs commandés ou non. Elle est le siège de forts gradients de tension et de courant. Les formes d’ondes idéalisées (Fig. 9) rendent compte de ces variations brutales. Ces phases de commutation n’auraient qu’un faible impact voire aucun si il n’existait pas de couplage entre les interrupteurs et l’environnement proche de ces derniers. L’un des couplages les plus néfastes est défini par la capacité parasite reliant le potentiel du dissipateur généralement fixé à la terre au potentiel variable des transistors de la cellule. EST ZX ZY L N iMC iMD RSIL ZY ZX RSIL EST Charge Système d’alimentation continu ou polyphasé Analyseur L’exemple des transistors MOSFET de puissance en boîtier TO220 est caractéristique puisque la face arrière métallique de ces derniers est au potentiel du drain du composant (Fig. 10). L’épaisseur et la permittivité du film isolant (ex : Mylar, r = 2,5) entre ce substrat métallique et le radiateur détermine alors cette capacité parasite qui offre un couplage privilégié en mode commun. Fig. 8 : Plage spectrale usuelle associée aux structures électroniques de puissance Fig. 9 : Cellule de commutation et formes d’onde théoriques associées Fig. 10 : Couplage capacitif transistor - radiateur 3.2. Analyse d’une cellule de commutation La modélisation des structures de puissance visant à estimer les émissions conduites passe par une représentation particulière pour laquelle les interrupteurs en commutation sont remplacés par des générateurs localisés dont les tensions et courants produits se propagent par les différents chemins de propagation qu’ils soient de mode commun et/ou de mode différentiel. La définition de ces sources n’est pas triviale bien qu’intuitive toutefois les paragraphes qui suivent permettent d’aborder cette modélisation sans réelle difficulté. Parmi ces générateurs équivalents, celui ou ceux qui peut être sont les plus délicats à renseigner sont ceux de mode commun sur lesquels nous allons nous attarder. 3.2.1. Analyse en mode commun Pour commencer cette analyse, il suffit de d’étudier le schéma générique d’une structure non isolée avec une cellule de commutation (Fig. 11). L’étage d’entrée est volontairement non défini. Seul le fonctionnement de la cellule de commutation et la tension de mode commun qu’elle génère nous intéresse. Pour simplifier son étude et déterminer le générateur équivalent de mode commun quelques hypothèses sont nécessaires : - les modes différentiel et commun sont totalement découplés, il n’y a pas de conversion de l’un vers l’autre, - le couplage principal en mode commun est uniquement défini par une impédance ZMC entre le point milieu de la cellule de commutation et la terre (la charge du convertisseur ne propose pas de chemin de propagation plus simple au courant de mode commun), - les tensions v1 et v2 entre le bus continu et la terre sont défini indirectement par l’étage d’entrée de la structure, elles sont liées à la topologie de cette partie du système, Les courants et tensions notée (ik1, ik2) et (vk1, vk2) décrivent l’état électrique des deux interrupteurs quelle que soit leur technologie (diode, transistor). Cette représentation volontairement idéalisée permet une mise en équation simple et abordable. 102 10 103 104 105 106 107 108 Fréquence(Hz) redresseur BF t commutationsdécoupage t t vk2 idec iCH Tdec V.Tdec I.Tdec tdV tdItmI tmV 50% 50% t DC+idec k1 k2 vdiff DC- M vk2 iCH vdiff Fig. 11 : Cellule de commutation vue en mode commun La première étape consiste à exprimer la tension entre le point milieu de la cellule dont le potentiel est fortement variable et la terre en fonction des autres tensions de la cellule (6). (6) Les différentes tensions découpées présentent aux bornes des interrupteurs, sont définies par la tension de mode différentiel vdiff (7). Cette dernière correspond par définition à la tension du bus continu toutefois prise aux bornes de la cellule. La prédétermination rigoureuse de cette tension n’est pas triviale puisqu’elle dépend elle-même des chutes de tension liées aux courants parasites circulant dans les impédances du bus d’alimentation. Cette interaction, qualifiée en générale du second ordre, ne peut être prise en compte en utilisant le modèle simplifié proposé dans cet article. Seul un modèle mettant en œuvre une résolution itérative permet d’en tenir compte. (7) avec Nous savons aussi que vk2 est définie en fonction de la stratégie de commande de la structure représentée par la fonction de modulation fsw (8) et de la tension aux bornes des deux interrupteurs vdiff (9). é é (8) (9) L’expression de la tension de mode commun donnée en (7) s’écrit à l’aide d’une fonction de modulation modifiée fMC (10). (10) avec Le courant de mode commun iMC s'exprime facilement en fonction de l'admittance relative à ZMC notée YCM (11). Ce courant est issu de la contribution de deux tensions particulières. La première représente par définition la tension de mode commun du bus continu au plus près de la cellule. La seconde fait clairement apparaitre le découpage puisqu’elle dépend directement de la loi de commande des interrupteurs. (11) 3.2.2. Analyse en mode différentiel En suivant une démarche similaire, l’analyse des courants sur le bus continu en amont de la cellule permet d’identifier un courant circulant en mode différentiel (Fig. 12). Pour cela l’hypothèse de découplage de mode est encore nécessaire et suppose que seuls les courants de mode différentiel existent. En appliquant la définition donnée précédemment (1), le courant iMD est donné par la relation 12. Fig. 12 : Cellule de commutation vue en mode différentiel (12) Les courants des interrupteurs sont naturellement complémentaires et s’expriment en fonction de iCH. L’expression du courant iMD s’écrit, de ce fait, en fonction de iCH (13). (13) Cette démonstration permet de donner des conclusions similaires au courant de mode différentiel circulant sur le bus continu à l’instar de la tension de mode commun. Il se caractérise par la contribution de deux termes. L’un représente le courant de mode différentiel en avale de la cellule et le second est défini par le courant commuté puisqu’il s’écrit à l’aide du ik1 i2 iCH E ag d’ n é (Alimentation, RSIL, filtres…) i1 ik2 i1’ i2’ ZMC v1 v2 vk1 vk 2 -ik2 iCM E ag d’ n é (Alimentation, RSIL, filtres…) ik1 courant d’un interrupteur. Pour simplifier cette expression, et obtenir une relation finalement évidente, on peut remarquer que le terme en aval de la cellule peut également s’écrire en fonction du courant de charge iCH (14). L’expression 13 se simplifie considérablement (15). (14) (15) Naturellement, le courant dans l’interrupteur est directement lié au courant de charge iCH par l’intermédiaire de la fonction de modulation fSW. L’équation 16 donne finalement la relation entre le courant recherché et le découpage du courant de charge. (16) 3.3. Modélisation d’une cellule de commutation Les relations principales (10) (16) établies précédemment montrent que l’étude des émissions conduites d’une structure dans laquelle la cellule de commutation est clairement définie peut être abordée de manière relativement simple. Il s’agit finalement d’établir un schéma linéaire équivalent sur lequel les interrupteurs n’apparaissent plus. Ces derniers sont tout simplement remplacés par des sources localisées permettant de vérifier sur ce schéma les courants iMD et iMC. L’équation 11 est finalement assez simple à interpréter et à retranscrire par un schéma équivalent (Fig. 13). En s’imposant aux bornes de YMC, la différence entre la tension de mode commun en amont de la cellule et la tension produite par un générateur équivalent se substituant à la cellule engendre le courant iMC. Ce schéma équivalent bien qu’extrêmement simple impose que le reste de la structure soit également modélisé en mode commun et ne laisse pas la possibilité d’intégrer facilement le mode différentiel. Pour résoudre ce problème, il suffit d’écrire différemment l’équation donnant le courant de mode commun (17). Le schéma équivalent qui résulte de cette écriture fait de nouveau apparaitre le bus continu et le reste de la structure sans modification ni besoin de transformation (Fig. 14). (17) avec Fig. 13 : Figure Schéma équivalent en mode commun Fig. 14 : Figure Schéma équivalent en mode commun distribué Dans le cas de structures simples à une seule cellule de commutation (Fig. 12), l’un des courants i’ est forcément nul. La définition que nous avons retenue pour la fonction de modulation implique que l’interrupteur k1 est commandé et que la charge se reboucle sur k2. Le courant i1’ est par définition nul. L’interprétation de l’équation 15 relative au courant de mode différentiel devient encore plus simple puisque le générateur équivalent de mode différentiel est égal au courant de charge commuté (18). (18) La superposition des deux modes, rendue possible par l’hypothèse du découplage des sources de perturbations, permet d’obtenir le schéma CEM équivalent de la cellule de commutation (Fig. 15). Fig. 15 : Modèle équivalent de la cellule de commutation 4. Mise en œuvre : Simulation Vs. Mesures Pour démontrer l'efficacité de cette modélisation, nous allons les comparer les résultats d’une simulation à la mesure directe sur un hacheur abaisseur (Buck). Nous adoptons, de ce fait, une démarche d'analyse puisque l'ensemble des composants v1 v2 iMC YCM/2 YCM/2 v1 v2 iCM E ag d’ n é (Alimentation, RSIL,filtres…) YCM/2 YCM/2 iCM E ag d’ n é (Alimentation, RSIL,filtres…) YCM est connu contrairement à la conception et au pré- dimensionnement pour lesquels les éléments ne sont que virtuels. La cellule de commutation est constituée de l'association d'un transistor MOSFET IRFP450 et d'une diode BYT06-PI400. Ces deux composants représentent un choix tout à fait standard pour un convertisseur de 200W fonctionnant à 100kHz. La tension d'alimentation continue est fixée à 100V pour un courant de charge nominal de 4A. L’impédance de tous les composants discrets est caractérisée au pont d'impédance HP 4194A. Cette étude préliminaire permet de déterminer le comportement en fréquence des différents composants et de la connectique et d’établir des modèles équivalents (Fig. 16). Un RSIL simplifié, dont on reconnaitra la structure sur le schéma détaillé, est également utilisé. Il constitue l’étage d’entrée du convertisseur. Fig. 16 : Schéma électrique du hacheur avec ses imperfections Le modèle équivalent construit à partir de la méthode présentée dans les paragraphes précédents fait apparaitre d’une part les principales impédances identifiées liées aux composants et à la connectique et d’autre part les générateurs de mode différentiel et de mode commun (Fig. 17). Ces derniers peuvent être prédéterminés théoriquement à partir de formes d’onde théoriques (Fig. 9) dont les transformées de Fourier sont facilement calculables. Elles peuvent également être affinées pour rendre compte des oscillations hautes fréquences caractéristiques des phases de commutation. Le modèle obtenu permet une comparaison directe dans le domaine fréquentiel entre les résultats issus d’une simulation et d’une mesure. Les résultats obtenus (Fig. 18) attestent de l’efficacité de ce type de modèle pour l’électronique de puissance. Naturellement, cette représentation reste limitée et ne permettra pas de couvrir une plage de fréquence élevée à moins de connaitre avec plus de précision et de reproduire avec plus de réalisme les phases de commutation des interrupteurs. L’une des applications de cette modélisation est la prédétermination par optimisation des étages de filtrage des émissions conduites [6]. Fig. 17 : Modèle équivalent de la cellule de commutation Fig. 18 : Emissions conduites mesurées et simulées 5. Conclusion La maîtrise de la CEM des convertisseurs électroniques de puissance est un réel enjeu puisque ces dispositifs s’incèrent dans la majeure partie des systèmes électriques. Les performances CEM doivent être naturellement anticipées et réfléchies dès la phase de conception Les méthodes fréquentielles offrent de ce fait des possibilités intéressantes, malgré la simplicité des modèles portant sur les interrupteurs ou la cellule de commutation. Leurs performances en termes de temps de calcul et la robustesse des traitements numériques sont en adéquation avec les exigences de la conception et des phases d'optimisation qui désormais s'y rattachent. Références [1] D. Labrousse, B. Revol, F. Costa “Common-Mode Modeling of the Association of N-Switching Cells: Application to an Electric- Vehicle-Drive System”, IEEE Transactions on Power Electronics, Volume: 25 , Issue: 11 Page(s): 2852 – 2859 [2] P. Degauque, “Compatibilité électromagnétique 1 et 2 Des concepts de base aux applications”, Editeur : Hermès – Lavoisier [3] CEI, “Spécifications des méthodes et des appareils de mesure des perturbations radioélectriques et de l’immunité aux perturbations radioélectriques”,CISPR 16-1:1999 [4] F. Costa, G. Rojat, “CEM en électronique de puissance, Sources de perturbations, couplages, SEM”, Techniques de l’ingénieur, D 3 290 [5] J.P.Ferrieux, F.Forest, "Alimentation à découpage, Convertisseurs à résonances", Dunod, 3ième édition, 1999. [6] B. Revol, F. Costa, “Optimisation des filtres de mode commun associés aux systèmes de variation de vitesse”, Congrès CEM’06, Saint Malo, Avril 06. 250µH 220nF 50 50µH 100V 1.35m 0.3m 10 2mH 110pF 280pF 2.2mF 40nH 25m 1.3m481nH 90pF 1.1m 25.6nH 520nH 452nH 10nH 10nH 5 Dissipateur 1 10 4 1 10 5 1 10 6 1 10 7 1 10 8 0 20 40 60 80 100 120 Mesure Méthode Matricielle Fréquence (Hz) Niveaux(dBµV) Mesures Simulation v1 v2 iMC YCM/2 YCM/2 2ZX ZY ZY Zconnectique Zcondensateur

Creative Commons Aucune (Tous droits réservés) Aucune (Tous droits réservés)
contenu protégé  Document accessible sous conditions - vous devez vous connecter ou vous enregistrer pour accéder à ou acquérir ce document.
- Accès libre pour les ayants-droit

Filtrage des émissions conduites : analyse et prédimensionnement des filtres de mode commun Bertrand REVOL Ecole Normale Supérieure de Cachan, département EEA, Laboratoire SATIE UMR 8029 61, Avenue du président Wilson 94235 Cachan cedex 1. Introduction Aujourd'hui encore, en électronique de puissance, ce n'est qu'une fois le prototype achevé que les tests de pré certification sont réalisés et que l'on calcul réellement le filtre CEM dédié à la réduction du bruit en mode conduit. La CEM qu'elle soit conduite ou rayonnée n'est donc pas gérée comme une contrainte au moment de la conception mais seulement comme une épreuve que l'on fait subir au prototype avant la fabrication en série. L’étude que nous proposons dans cet article est axée sur la modélisation et le dimensionnement des filtres CEM pour des convertisseurs électroniques de puissance tels que les variateurs de vitesse. Comme la quasi-totalité des équipements électriques destinés aux marchés européens, les variateurs de vitesse ou les associations convertisseurs-machines se doivent de répondre aux normes CEM conduites et rayonnées. Même si leur utilisation, prépondérante dans le secteur industriel leur permettrait parfois d'échapper à cette contrainte, leur implantation progressive en milieu tertiaire nécessite de remplir ou au moins de prévoir l'aspect normatif. La modélisation, la caractérisation, la conception et l'optimisation des filtres sont toujours un défi pour les ingénieurs en électronique de puissance. En général, ces filtres CEM sont mis en œuvre à l'aide de composants discrets, ce qui pose certaines limtes. Tout d'abord, en raison des éléments parasites de ces composants, la gamme de fréquence effective de filtrage est généralement inférieure à quelques MHz. Certaines analyses présentées dans les paragraphes qui suivent montrent clairement que l’atténuation des filtres est principalement déterminée par ces éléments parasites. Avant d’analyser ces phénomènes du second ordre, il est nécessaire de comprendre et de maîtriser le fonctionnement de ces dispositifs de filtrage très spécifiques. L'utilisation de filtres sur une large plage de fréquences est généralement inévitable et bien qu'il existe des filtres complets commercialisés, il est généralement préférable pour des raisons évidentes de coûts et d'efficacité de les dimensionner directement en fonction de la structure de puissance développée. Les études sur le filtrage RF ne manquent pas, proposant des solutions passives et actives intéressantes [1][2]. Dans la plupart des cas, du moins pour des structures conventionnelles, les limitations des émissions conduites, qu’elles soient de mode commun ou de mode différentiel sont réalisées en utilisant des structures simples de filtres passe-bas. La topologie des filtres dépend naturellement de la nature des perturbations (tensions ou courants parasites). Intéressons nous à la cellule de filtrage élémentaire permettant d’atténuer des courants de fréquences élevées générés par une source en P2 (Fig. 1). Pour diminuer le niveau en P1, il faut limiter la propagation des courants en proposant un chemin de retour ZY de faible impédance pour des fréquences élevées notamment celles définies par les normes [3]. Les éléments permettant d’assurer cette fonction sont évidement des condensateurs. Pour s’assurer que l’impédance imposée par ces condensateurs est plus faible que celle du réseau, on ajoute en série sur la ligne un élément définissant une impédance élevée sur une large plage de fréquence (ZX). Cet élément de nature duale aux précédents est naturellement inductif. Fig. 1 : Structure d’un filtre de courant 2. Description d’un filtre de mode commun 2.1. Représentation des éléments en mode commun Pour comprendre la structure d’un filtre de mode commun, il est préférable d’introduire des Résumé : Le prototypage virtuel est aujourd'hui devenu incontournable dans les phases de développement et se doit évidemment d'intégrer l'ensemble des contraintes critiques jouant directement sur le dimensionnement des convertisseurs de puissance (rendement, coût, volume, masse, thermique…). Cet article propose d’apporter des éléments quant au dimensionnement des filtres de mode commun. Ces éléments, présents dans la quasi-totalité des structures de puissance commercialisées, sont généralement dimensionnés à partir de mesures sur un prototype, par une approche de type "essai-erreur". Si cette démarche permet dans la majeure partie des cas de répondre aux contraintes normatives, elle est toutefois loin d'être satisfaisante et ne permet pas de définir les éléments représentant "la meilleure solution" pour le filtrage de la structure développée. ZY ZX P1 P2 composants idéaux sur une structure monophasée. Les courants de mode commun se propageant par définition sur les deux lignes d’alimentation pour se reboucler par la terre, il est nécessaire de découpler les deux lignes (CYi). La structure la plus simple voudrait que l’inductance soit insérée sur la ligne de terre (Fig. 2), toutefois cette solution n’est pas compatible avec les règles de protection des personnes et des équipements. Les parties métalliques et châssis accessibles au toucher doivent être directement reliés à la terre sans élément supplémentaire inséré. Deux inductances peuvent être placées en série sur les lignes d’alimentation mais les chutes de tension qu’elles engendreraient par des courants de mode différentiel résiduels, pourraient être néfaste pour le bon fonctionnement de la structure. Ainsi, il faut que ces éléments puissent agir en mode commun et reste transparents pour des courants de mode différentiel. La solution est simple puisqu’il s’agit de coupler deux inductances sur un noyau magnétique. Fig. 2 : Placement théorique des éléments en mode commun 2.1.1. Inductance de mode commun Quelques considérations énergétiques permettent de trouver rapidement un de trouver un modèle équivalent à deux inductances parfaitement couplées (i.e. le coefficient de couplage est supposé unitaire). L’énergie magnétique WM stockée par des inductances couplées est donnée par la relation 1. Pour deux inductances couplées (Fig. 3), les relations entre les courants et les tensions s’expriment simplement à l’aide de la représentation matricielle 2. L’énergie magnétique que cet élément peut stockée est donnée par l’équation 3. (1) Fig. 3 : Inductances couplées (2) (3) La relation (3) peut être comparée avec celle issue d’une inductance qui serait traversée par la somme des courants (Fig. 4) si cette dernière était placée sur la liaison de terre(5). Fig. 4 : Schéma équivalent d’une inductance de mode commun (4) (5) L'identification des différents termes montre que deux inductances couplées par un coefficient de mutuelle inductance positif sont strictement équivalentes à une inductance traversée par la somme des courants, autrement dit par le courant de mode commun. Cet élément est alors virtuellement inséré dans la liaison de terre. Le couplage est dit en mode commun, on parle alors d’inductance (self) de mode commun (SMC). Cette transformation met en évidence qu’une SMC parfaite n'est définie que pour les courants de mode commun et reste invisible pour les courants de mode différentiel. Ainsi, l'impédance Z1 du filtre, est définie par ce composant. Comme nous l’avons précédemment vue, l'utilisation d'un seul élément passif comme une SMC dans une structure de filtre n'est généralement pas suffisante pour atténuer convenablement les courants de mode commun et répondre ainsi aux contraintes normatives. Dans la plupart des cas, un filtre d’ordre deux est utilisé pour assurer l'atténuation nécessaire. Par conséquent, des condensateurs spécifiques de classe Y sont sélectionnés pour le filtrage en mode commun et placés entre les différentes phases et la terre, normalement au plus près de la source de perturbation et loin de l'alimentation. Ces filtres sont basés sur l'hypothèse de la symétrie des chemins de propagation de mode commun. Si cette symétrie n’est pas respectée il existe un mécanisme de conversion du mode commun en mode différentiel et inversement. Par conséquent, les condensateurs et inductances doivent être identiques (Fig. 5). Fig. 5 : Filtre de mode commun : Structure et localisation LMC CY CY Alimentation SMPS Terre LMC i1+i2 i2 i1 L22 L11 L12 V1 V2 i1 i2 CY1 m CY2 m alimentation SMPS LMC 2.1.2. Condensateur de mode commun Une étude similaire peut être menée pour les condensateurs CY. Pour cela il faut définir la tension de mode commun VMC (6) au niveau des condensateurs (Fig. 6). (6) Pour se ramener à un condensateur équivalent en mode commun, il suffit d’écrire les courants dérivant dans chacun de ces éléments (7) tout en faisant apparaître la tension de mode commun. Compte tenu de la symétrie des lignes d'alimentation électrique par rapport à la terre, le condensateur équivalent en mode commun Ceq correspond à la mise en parallèle des condensateurs CY (8). Fig. 6 : Condensateur équivalent en mode commun (7) soit (8) Quel que soit le nombre de phase d’alimentation du système, il est toujours possible de ce ramener à un filtre équivalent définit en mode commun. Sa structure élémentaire monocellulaire (i.e. à un étage) est toujours composée de deux éléments LMC et Ceq (Fig. 7). Pour déterminer l’efficacité de cet étage de base, le convertisseur, générateur de bruit de mode commun est modélisé par une source de courant iMC. Le réseau fictif ou réseau stabilisateur d’impédance de ligne (RSIL) est défini par ZRSIL. Selon le même principe de changement de base, la mise en parallèle des impédances caractéristiques de mesure du RSIL égale à 50 (f150kHz-30MHz) permet de définir une impédance équivalente ZRSIL en mode commun dont la valeur R0 est supposée fixe et égale à 25. La fonction de transfert AFMC entre le iMC et i0 (9), correspondant à l'atténuation introduite par le filtre, est définie par la relation (10), dans laquelle Z1 et Z2 sont respectivement les impédances idéales de LMC et Ceq. Fig. 7 Schéma équivalent en mode commun (9) (10) 2.2. Etude asymptotique Une simple étude asymptotique permet de donner le comportement du filtre. Les diagrammes présentés supposent que R0 soit inférieure à l'impédance du condensateur à la pulsation 0. Cette condition introduit une résonance à la pulsation 1. Si cette condition n’est pas vérifiée (R0 est supérieure à Z2 à 0), il n’y a pas de résonance visible sur la courbe d’atténuation. Représentation de Z0 Représentation de Z1 Représentation de Z2 Représentation de ZRSIL+Z1+Z2 Représentation de AFMC Fig. 8 : Construction de la fonction d’atténuation théorique Une approche assez simple permet de prédéterminer la valeur des éléments du filtre. Pour ω1 1 LMC Ceq = Log() Log(|AFMC|) 1 R0 1 R0 Ceq ω1 Log() Log(|Z|) ω1 1 LMC Ceq = ω0 R0 LMC = Log() Log(|Z|) Z2 =1 / (Ceq) Log() Log(|Z|) Z1 =LMC Log() Log(|Z|) R0 Z1 i0 Z2 iCM ZRSIL CeqvCM CY CY v1 v2 cela il faut déterminer l'atténuation minimale nécessaire pour inscrire le spectre des tensions mesurées sur le RSIL en dessous du gabarit normatif imposé pour l’équipement sous test. En règle générale, cette atténuation se trouve autour du début de la plage de fréquence imposée soit 150kHZ (Fig. 9). L’ordre du filtre N étant imposé par sa structure, il faut déterminer le niveau maximal du spectre (SM) donné en dBμV à la fréquence fM. Pour cette fréquence le gabarit GM (dBμV) est naturellement connu. Le produit LMCCeq est alors donné par (11). Cette relation est déduite de la fréquence maximale de coupure du filtre telle que l’atténuation désirée puisse être vérifiée à la fréquence fM pour un filtre d’ordre N. Pour un dimensionnement simple sans processus d’optimisation, Ceq est initialement choisi, en respectant des contraintes de sécurité imposées par l’installation. Pour les applications domestiques, les protections différentielles des équipements électriques sont sensibles aux courants de fuite à la terre. C’est à la mise sous tension que les appels de courant dans les condensateurs de filtrage peuvent dépasser les limites de détection des disjoncteurs. Ces condensateurs de mode commun doivent avoir une impédance très élevée à 50Hz de manière à assurer un niveau acceptable de courant homopolaire (<30mA). Théoriquement limité à quelques 100nF, leur valeur est en règle générale volontairement choisie inférieure à 100nF pour garantir une marge de sécurité. (11) Avec N = 2×Nombre de cellule identique Fig. 9 : Représentation de comparaison entre le spectre des émissions conduite est le gabarit normatif 3. Etude de cas : détermination d’un filtre de mode commun pour un variateur de vitesse 3.1. Modèle équivalent du variateur Pour étayer cette étude, nous allons appliquer cette recherche de filtre à une structure commercialisée dont le filtre d’entré a été préalablement retiré. Ce convertisseur est un variateur de vitesse de 5kW relié à une machine asynchrone de 3kW par un câble triphasé blindé de 5m. Le spectre des perturbations de mode commun produit par cet équipement en fonctionnement est mesuré aux bornes d’un RSIL. Afin de rendre indépendant cette analyse de toutes les phases de mesure et ne travailler que sur les émissions en mode commun, les différentes parties de l'association testée (onduleur, câble, moteur à courants alternatifs ...) sont mesurés et modélisés pour construire le modèle CEM équivalent de l’onduleur [4]. Le RSIL et l’étage de filtrage sont également insérés dans ce modèle (Fig. 10). Les générateurs présents dans ce modèle rendent compte du découpage des tensions et courants de puissance. Fig. 10 : Modèle CEM du variateur Les courants de mode commun sont ainsi calculés dans les branches de mesure du RSIL et permettent de déterminer le spectre de la tension à comparer au gabarit à l’instar d’une mesure directe. Les deux spectres étant quasi-identique (Fig. 11), nous pouvons valider le modèle proposé et l’utiliser pour déterminer par simulation l’impact de la cellule de filtrage. Fig. 11 : Spectre des émissions conduites du variateur simulé et mesuré 3.2. Filtre simulé à partir de composants parfaits En absence du filtre, l'atténuation nécessaire pour se conformer à la norme est de l'ordre de 46dB à 150kHz. L'un des maxima du spectre est situé à 8 kHz et son niveau est de l'ordre de 121dBμV (Fig. 12). Cette valeur met en évidence la fréquence de découpage du convertisseur, choisie en générale relativement basse pour limiter entre autre les pertes par commutation dans les interrupteurs de puissance. Pour cet exemple, la valeur des condensateurs de mode commun est fixée à 22nF (<100nF) soit 44nF pour le condensateur équivalent. La valeur de 10 3 10 4 10 5 10 6 10 7 40 60 80 100 120 140 Fréquence (Hz) Amplitude(dBµV) Mesure Simulation Norme - CISPR16 classe B- VMC Zp iMC Zp ZCbusZCy ZCx2 ZCx1 ZLMC ZLM C ZRSI L ZRSI L ZLrsil ZLrsil RSIL Filtre SM f fM GM Spectre de mode commun Gabarit normatif 30MHz150kHz l'inductance de mode commun quant à elle est donnée par l'équation (11). Le calcul donne une valeur de l'ordre de 5mH. Cette inductance est supposée parfaite, autrement dit sa valeur reste constante sur toute la plage de fréquence. L’ajout de ces éléments dans le modèle permet d’obtenir un nouveau spectre qui décroît rapidement après le pic lié à fréquence de résonance du filtre fixée à 10kHz. L'effet de cette résonance est clairement visible puisque le niveau du spectre à la fréquence de découpage est de 133dBμV (Fig. 13). Cette augmentation liée à l’interaction entre le filtre et la fréquence de fonctionnement du convertisseur peut modifier le comportement de l’inductance de mode commun en entraînant sa saturation. Dans le cas d'un tel accroissement le courant de mode commun dans l'inductance à la fréquence de découpage est quatre fois plus important que le courant déterminé sans le filtre. Fig. 12 : Comparaison du spectre à la norme Fig. 13 Spectres filtré et non filtré Une autre solution consiste à adapter l'impédance du filtre à l'impédance de mode commun du réseau qui dans notre cas est fixée par le RSIL. Cette adaptation fait disparaitre la résonance du filtre. La condition nécessaire pour assurer cette adaptation d’impédance est donnée par la relation (12). Le couple {LMC, Ceq} est alors imposé. (12) Dans ce cas, le niveau maximal à la fréquence de découpage reste à peu près à la même valeur et le spectre et correctement atténué (Fig. 15). Malheureusement les éléments LMC et Ceq sont considérablement modifiés puisque les valeurs obtenues ils sont fixées respectivement à 380μH et 300nF. Si la valeur de LMC est vraiment intéressante, la valeur des CY obtenue (150nF) n'est pas conseillée pour les applications de faible puissance (protections différentielles). Fondamentalement, la valeur d'impédance de réseau modifié par le réseau fictif est faible ce qui conduit à une valeur élevée de C dans les basses fréquences. Évidemment, afin de respecter la fréquence de coupure du filtre, la valeur de l'inductance est choisie petite. Il existe deux avantages directs avec l’utilisation de petites valeurs d’inductances. Le premier avantage est une diminution du volume car il est fonction de la valeur de l’inductance. Le deuxième avantage est lié aux éléments parasites qui dépendent des caractéristiques géométriques. Si l'on considère une petite valeur d’inductance, le nombre de spires est faible et les noyaux magnétiques sont petits. Fig. 14 : Courbe d’atténuation du filtre avec et sans adaptation d’impédance Fig. 15 : Filtrage avec adaptation d’impédance 3.3. Effet des éléments parasites des composants Les éléments de ces filtres doivent respecter « théoriquement » deux exigences fondamentales : ils doivent tolérer en toute sécurité la tension de fonctionnement et le courant nominal de l'équipement électrique sans que leurs caractéristiques hautes fréquences évoluent. Afin de concevoir ces cellules de filtrage, il est nécessaire de comprendre voire de prédéterminer le comportement HF des éléments qui les constituent. Autrement dit, les constituants (inductances, condensateur, connectique) ne peuvent plus être simplement considérés comme idéaux sur la plage de fréquence d’utilisation du filtre (hypothétiquement 150 kHz-30 MHz). Il est toujours intéressant de constater que les relations de dualité s’appliquent notamment pour des fréquences telles que les éléments parasites définissent les impédances des 10 3 10 4 10 5 10 6 10 7 20 40 60 80 100 120 140 Fréquence (Hz) Amplitude(dBµV) 7.9kHz , 121dBµV 46dBµV Tension de mode commun Gabarit normatif - CISPR16 classe B - 10 3 10 4 10 5 10 6 10 7 0 20 40 60 80 100 120 140 Fréquence (Hz) Amplitude(dBµV) 8.1kHz , 131dBµV Avec filtrage Sans filtrage Norme - CISPR16 classe B - 10 3 10 4 10 5 10 6 10 7 0 20 40 60 80 100 120 140 Fréquence (Hz) Amplitude(dBµV) 7.9kHz , 117dBµV Filtre simple Filtre avec adaptation d'impédance Gabarit normatif - CISPR16 classe B - 10 3 10 4 10 5 10 6 10 7 -100 -80 -60 -40 -20 0 20 40 Fréquence (Hz) Atténuation(dB) 10.6kHz , 22dB 46.1 dB Filtre simple Filtre avec adaptation d'impédance Plage de fréquence normative composants. Ainsi une inductance bobinée présente un comportement capacitif en HF alors que celui d’un condensateur est inductif [5-6]. La même approche que celle utilisée pour décrire la courbe d'atténuation du filtre parfait est appliquée aux composants imparfaits. Chaque modèle équivalent de LMC et Ceq est simple mais réaliste. Les condensateurs sont modélisés par une association série de C, ESL (inductance série équivalente) et ESR (résistance série équivalente). L’inductance peut être définie simplement comme une association parallèle d’éléments (LMC, CP et RP). La construction asymptotique de la courbe d’atténuation est un peu plus délicate que la précédente mais rend très bien compte de l’impact des éléments parasites (Fig. 16). Représentation de Z1 Représentation de Z2 Représentation de ZRSIL+Z1+Z2 Représentation de AFMC Fig. 16 : Construction de la fonction d’atténuation avec éléments parasites En tenant compte des éléments parasites de chaque composant, l'atténuation du filtre est limitée en fréquence [7] et perd son atténuation caractéristique de 40dB par décade (Fig. 17). Statistiquement, les filtres passifs dont les éléments sont souvent du même ordre de grandeur pour des équipements différents perdent leur efficacité pour des fréquences comprises entre 100kHz et 1 MHz. Les éléments parasites dont la prédétermination est très difficile possèdent aussi des ordres de grandeur typiques. L’impact sur le spectre est direct (Fig. 18). Fig. 17 : Effet des éléments parasites sur la courbe d’atténuation du filtre avec et sans adaptation Fig. 18 : Effet des éléments parasites du filtre sur le spectre avec et sans adaptation d’impédance La représentation asymptotique réalisée à partir des impédances définissant AFCM met en évidence l'influence de chacun des éléments parasites. Pour le vérifier, une mesure de l'atténuation sur une carte de filtrage (Fig. 19) implantée sur un variateur de vitesse commercialisé montre clairement l'influence de ces éléments indésirables (Fig. 20). A partir de cette courbe, nous pouvons identifier la principale fréquence de résonance de ce filtre dont l'expression est donnée par (11). Contrairement à la représentation asymptotique, la courbe réelle ne possède pas un palier défini par les effets conjugués de la capacité parasite équivalente parallèle à LCM et des condensateurs de mode commun CY. Cet effet, qui indirectement avantage l'efficacité de ce filtre, est lié à la conjoncture de deux phénomènes. Le premier peut s'expliquer simplement par une valeur de capacité parasite CP faible. Pour le filtre pris comme exemple ici, le nombre de spires est relativement faible pour un noyau magnétique torique dont la circonférence permet de réaliser des enroulements à une couche, limitant ainsi les couplages capacitifs parasites. Il faut également tenir compte de la diminution de la perméabilité du matériau magnétique en fonction de la fréquence (Fig. 21). Cette évolution conduit naturellement à une réduction de la valeur de l'inductance repoussant la fréquence de résonance propre de cet élément. 10 3 10 4 10 5 10 6 10 7 -100 -80 -60 -40 -20 0 20 40 Fréquence (Hz) Atténuation(dB) 10.6kHz , 20dB 48.5 dB Filtre simple Filtre avec adaptation d'impédance Plage de fréquence normative 10 3 10 4 10 5 10 6 10 7 0 20 40 60 80 100 120 140 Fréquence (Hz) Amplitude(dBµV) 7.9kHz , 117dBµV Filtre simple Filtre avec adaptation d'impédance Gabarit normatif - CISPR16 classe B - 1 R0 Ceq ω1 1 RP Ceq ωL ωL 1 LMC CP = ωC 1 Ceq ESL = ωCL 1 CP ESL = Log(|AFMC|) Log() ω1 1 LMC Ceq = 1 ESR CP ωC Log() ω1 1 LMC Ceq = ωL 1 LMC CP = ωC 1 Ceq ESL = ωCL 1 CP ESL = ω0 R0 LMC = Log(|Z|) ωC 1 Ceq ESL = Log() Log(|Z|) Z2 =(Ceq)-1 Z2 =ESL ESR Log() Z1 =LMC RP ωL 1 LMC CP = Z1 = (CP)-1 Log(|Z|) Tore de mode commun condensateurs de mode commun (47nF) condensateurs de mode différentiel (330nF) Fig. 19 : Filtre de mode commun testé Fig. 20 : Mesure de l'atténuation du filtre Fig. 21 : Perméabilité relative du tore de mode commun 4. Eléments pour le dimensionnement et l’optimisation 4.1. Etude des condensateurs La majeur partie des condensateurs de classe Y utilisés pour le filtrage de mode commun sont réalisés avec un matériau diélectrique en polyester (MKT) dont la permittivité (MKT) est de 2.7 pour une rigidité électrique (EMKT) de 10kV/mm. A partir de ces données et de la tension maximale d'utilisation (Um), le volume peut s'exprimer comme une fonction linéaire de la capacité (13). Cette relation usuelle, vérifiée pour ces technologies permet de prédéterminer le volume de condensateur du filtre optimal recherché (Fig. 22). (13) Fig. 22 : Volume des condensateurs de classe Y Nous pouvons également prédéterminer les éléments parasites de ces condensateurs pour approcher au mieux la réponse du filtre dans le processus de recherche des éléments les plus adaptés. Le modèle associé aux condensateurs est un circuit R-L-C série, comme nous l’avons déjà défini. Des relevés au pont d'impédance HP4194A permettent de déterminer ces différents paramètres de façon précise. Le Tableau 1 présente ces éléments pour une série de condensateurs. Capacité (nF) 1 2.2 10 22 47 Inductance série (nH) 6.9 7.1 6.88 7.5 7.33 Résistance série (m) 444 383 240 113 90 Fréquence de résonance (MHz) 60.5 40.2 19.2 12.4 8.57 Tableau 1 Eléments parasites et fréquence de résonance des condensateurs Y étudiés (MKT 250V) Nous pouvons constater que l'inductance série n'a pas une variation significative en fonction de la capacité, contrairement à la résistance série (esr) qui diminue rapidement (Fig. 23). On peut alors déterminer une relation permettant d'estimer ce paramètre en fonction de la capacité (14). Cette résistance conditionne l'une des atténuations maximales du filtre (Fig. 16). Fig. 23 : Evolution de la résistance série des condensateurs de filtrage   C e)C(esr (14) Avec  = 0.4 ,  = 8 101.1  et 08.0 10 1 10 2 10 3 10 4 10 5 10 6 10 7 10 8 -100 -80 -60 -40 -20 0 20 Fréquence (Hz) Atténuation(dB) 10 2 10 3 10 4 10 5 10 6 0 5000 10000 15000 Fréquence (Hz) Perméabilitérelative VolCY c( ) c MKT Um Em MKT       2  V0 MKT  0 5 10 15 20 25 30 35 40 45 50 0 0.5 1 1.5 2 2.5 3 3.5 4 Condensateurs mesurés (250 Vac) Interpolation Capacité (nF) Volume(cm3) 0 5 10 15 20 25 30 35 40 45 50 0 100 200 300 400 500 Condensateurs mesurés (250 Vac) Interpolation Capacité (nF) Résistancesérie(mOhms) 4.2. Etude du tore de mode commun 4.2.1. Considérations générales La démarche proposée pour réaliser ce type d’inductance est basée sur l'utilisation des circuits magnétiques toriques (Fig. 24) autour desquels seule une couche de conducteurs est réalisée. Les matériaux magnétiques utilisés pour le filtrage de mode commun possèdent de fortes perméabilités. Ces matériaux se divisent en deux familles distinctes. La première, la plus classique, regroupe les matériaux à base de ferrite haute perméabilité dont l'induction à saturation reste modeste (<400mT). La deuxième, associée à des matériaux plus récents, est constituée par des alliages nanocristallisés. Ces deux types de matériaux concurrentiels possèdent des caractéristiques très différentes. La deuxième catégorie, par exemple, offrent des performances en terme de perméabilité relative (>25000) et d'induction à saturation (1.2T) très intéressantes pour le filtrage haute fréquence. Toutefois, la difficulté de conditionnement des matériaux nanocristallins et leur prix encore élevé rendent leur utilisation marginale. Les matériaux à base de manganèse zinc (Mn-Zn), quant à eux, peuvent également atteindre des perméabilités élevées (>2104 ) (ex: 3E9 FerroxCube) [8]. Cette perméabilité reste relativement constante sur une plage de fréquences pouvant aller jusqu'à 100kHz (ex : 3E9 µr=15000@100kHz). Au delà de cette fréquence les propriétés magnétiques du matériau décroissent rapidement (-27dB/dec). Dans le cadre de cette étude, les circuits magnétiques retenus sont à base de ferrite dont la perméabilité relative est supérieure à 3 105 .  2 p N Dext Dint Sfil h Sfil : Section d'un conducteur Sb : Surface interne de bobinage SCM : Section du circuit magnétique  : densité de courant admissible N : Nombre de spires d'un enroulement p : Nombre de phases Ai = SbSCM Fig. 24 : Répartition des spires sur un circuit torique et données sur l’inductance Le dimensionnement des inductances de mode commun est, dans une certaine mesure, similaire à celui des inductances de lissage. Le choix du circuit magnétique peut être effectué à partir du produit (Ai) de la section du circuit (SCM) par la surface du bobinage (Sb). Ce paramètre est définie par la valeur de l'inductance, la densité de courant admissible par les conducteurs, le courant efficace défini par la puissance du convertisseur, l'induction à saturation et du courant de mode commun maximal (15). Cette expression conduit à une première remarque. Le dimensionnement de ce composant nécessite la connaissance du courant de mode commun généré par l'ensemble de la structure. Ceci suppose que le filtre est également intégré à cette dernière. Nous voyons ainsi que la seule façon d'obtenir un élément correctement définis fait intervenir une simulation itérative pour estimer le courant de mode commun à chaque modification des éléments du filtre. 4.2.2. Règle de dimensionnement proposée L'expression du produit des aires conduit normalement à une relation indépendante du nombre de spires. Ce paramètre n'est alors pas directement maîtrisé ce qui peut conduire au remplissage quasi total de la fenêtre de bobinage. En imposant le nombre de couches, Ai est inévitablement fonction de N par le coefficient de bobinage (16). Un développement limité sur N de ce coefficient de bobinage KN permet de linéariser ce terme (17). Cette nouvelle expression n'est cependant intéressante que pour un nombre de spires supérieur à 5 majorant ainsi l'erreur relative à 8% (Fig. 25). Pour des convertisseurs de très fortes puissances (ex : variateurs de vitesse supérieurs à 30kW) et notamment dans les applications triphasées, les inductances de mode commun peuvent être réalisées avec un nombre de spires par enroulement très faible (2 à 3 spires). Il est alors nécessaire de considérer l'expression exacte de KN. Dans notre cas, nous allons supposer que l'expression approchée de KN s'applique. M effMC Ni B IIL )N(KA    (15) (16)             2 Npp NKN fk)( (17) Fig. 25 : Tracé de KN en fonction de N (pour kf=1 et p=2) Nous savons que le volume de matériau magnétique peut s'exprimer en fonction du produit des aires et d'un facteur adimensionné KCM (18). Ce facteur KCM, souvent utilisé pour l'optimisation du volume des KN N( ) kf N 1 1 sin  p N               2  kf 1.5 2 4 6 8 10 12 14 16 18 20 22 0 2 4 6 8 10 12 expression exacte de KN expression approchée de KN Erreur relative (%) Nombre de spire Coefficientdebobinage composants magnétiques, dépend des paramètres géométriques du circuit (Dint, Dext, h). L'expression de ce terme (19) n'est pas unique suivant que l'on intègre ou non le bobinage dans le calcul du volume. En se référant aux données FerroxCube pour 19 circuits toriques des séries TX et TN dont les perméabilités relatives sont comprises entre 5000 et 10500, Kcm est défini entre 3 et 7. Ainsi, pour un même fabricant de circuits magnétiques toriques, le facteur KCM peut varier fortement. Ceci montre que l'hypothèse d'une réalisation homothétique des tores, sur laquelle nous nous appuyons, n'est pas toujours vérifiée. Ces différences sont liées aux facteurs k1 et k2 (19) qui varient en fonction des noyaux (Fig. 26). Ces dernières considérations dépendent fortement du fabriquant et ne peuvent être généralisées. Si nous nous basons sur les études statistiques de [9], il est possible d'établir des lois de variation de KCM en fonction de Ai. Fig. 26 : k1 et k2 en fonction du produit des aires Toutefois, si nous voulons prédéterminer l'inductance à partir des données FerroxCube en assurant une bonne utilisation du circuit magnétique, nous allons supposer que ces deux coefficients sont invariants. k1 et k2 sont alors fixés à leur valeur moyenne sur le nombre d'échantillons soit respectivement 1.8 et 1.4. L'utilisation de ces valeurs permet de fixer KCM à 3.83. A partir de la définition de la réluctance, il est possible d'établir une relation reliant N au volume de matériaux (VCM) et à la valeur de l'inductance (L) grâce au facteur KV (20). Ce terme dépend de la perméabilité du matériau et de la géométrie du circuit magnétique. Pour illustrer cette approche, la perméabilité relative est fixée à 10000. Cette valeur correspond à la référence 3E6 de FerroxCube. Grâce aux relations (15) (17) et (20), nous pouvons définir un polynôme de Ai (21) dont les racines permettent de déterminer le produit des aires que nous recherchons et de sélectionner un circuit dans la liste du fabriquant. 4 3 iCMCM AKV  (18)    4 121CM 1kk1kK  (19) avec intD D k ext 1  et intD h2k2  8 1 iV ALKN   (20) avec 0AA 8 1 ii   (21) Avec M effMCf B IILk4       M effMC 2 3 2 Vf B IILKk4       A titre d'exemple, les solutions de l'équation (21) permettent de tracer un réseau de caractéristiques définissant le produit des aires en fonction du courant de mode commun maximal et de la valeur de l'inductance (Fig. 27). Fig. 27 : Produit des aires en fonction de IMC et L Ainsi pour un matériau donné de perméabilité connue, généralement utilisé pour le filtrage haute fréquence, le choix du circuit magnétique peut s'effectuer grâce à une expression simplifiée (22) extraite du réseau de courbes. Cette expression issue de la linéarisation de la relation 21 en L donne des résultats très satisfaisants (Fig. 28).    LCILCA 2MC1i  (22) Avec Fig. 28 : Comparaison entre l'expression simplifiée et la solution du polynôme pour L=3mH Cette dernière relation est naturellement plus simple à exploiter dans un processus d'optimisation dans lequel il est préférable de pouvoir connaître le sens de variation de Ai en fonction des variables à optimiser telle que L. Si nous voulons proposer un dimensionnement optimal, il est nécessaire de Séries TN et TX 0 0,5 1 1,5 2 2,5 3 3,5 0 5000 10000 15000 20000 25000 30000 35000 40000 45000 50000 Ai (mm4) k1 = Dext/Dint k2 = 2*h/Dint KV  KCM µ k2 k1 1  0 2 4 6 8 10 12 14 0 0.083 0.17 0.25 0.33 0.42 0.5 L = 1mH L = 3mH L = 5mH L = 7mH Courant de mode commun (mA) Produitdesaires(cm4) 0 5 10 0 0.083 0.17 0.25 0.33 0.42 0.5 L = 1mH L = 3mH L = 5mH L = 7mH Courant de mode commun (mA) Produitdesaires(cm4) C1 L( ) 4.618 10 3  L 1.829 C2 L( ) 2.952 L 1.655 10 3  0 2 4 6 8 10 12 14 0 0.067 0.13 0.2 0.27 0.33 0.4 L = 3mH Expression approchée pour L=3mH Courant de mode commun (mA) Produitdesaires(cm4) déterminer l'impédance équivalente et le générateur de tension équivalent de mode commun de l'équipement. L'insertion de l'équation (22) dans un processus d'optimisation sous contraintes conduit au choix du circuit magnétique le plus adapté pour minimiser le volume de l'inductance en limitant les effets des capacités parasites [10]. 5. Résultats Le filtre obtenu, sans réelle optimisation, permet de définir un volume théorique de référence. Pour l'inductance, le circuit magnétiques a une perméabilité élevée et ne possède qu'une seule couche de conducteurs. Pour le spectre précédent, l'atténuation nécessaire est de 46dBµV à 150kHz (Fig. 12). Les résultats obtenus sont reportés dans le Tableau 2. LCM CY Valeurs 5,1mH 22nF Volume (cm3 ) 9.8 21.9 Tableau 2 : Eléments du filtre de référence. Ainsi, le volume total du filtre de mode commun de référence est de 13,6 cm3 . A titre d'exemple Une optimisation sous contraintes en se fixant comme objectif la minimisation du volume permet une diminution relative de quelques pourcents (5% à 10%) (Tableau 3). LCM CY Valeurs 3.4mH 33nF Volume (cm3 ) 7.3 22,5 Tableau 3 Eléments du filtre optimisé. La fonction objectif, liée au volume et associée à un algorithme d'optimisation sous contraintes permet de réaliser un compromis intelligent entre le volume des condensateurs et celui de l'inductance. En fixant des valeurs réalistes aux éléments parasites des composants, que nous avons pris soin de détailler dans la première partie de cet article, le modèle équivalent pour le filtre calculé détermine un spectre dont le niveau reste inférieur au gabarit normatif à partir de 150kHz. Nous avons réalisé dans cette étude, une optimisation mono objectif avec pour contrainte le respect du gabarit normatif. Cette démarche reste évidemment valable pour des optimisations multi objectifs pour lesquels nous pouvons considérer le coût de réalisation ou encore intégrer l'aspect thermique en définissant les pertes associées à chaque composant. 6. Conclusion Contrairement au dimensionnement classique d'une inductance de mode différentielle ou de lissage, pour lequel l'énergie stockée maximale est connue, celui d'une inductance symétrique (i.e. de mode commun) est plus délicat puisqu'il nécessite de connaître l'amplitude maximale du courant de mode commun pour éviter la saturation du circuit. La connaissance de ce courant est de ce fait indispensable. Un dimensionnement a priori de cet élément à partir d'un prototype et des règles usuelles de calcul de filtre peut conduire à un mauvais fonctionnement lié à la saturation du circuit magnétique. Nous savons qu'une telle démarche durant la phase de développement est parfois coûteuse. Ainsi, l'optimisation sous contrainte du filtre, qui peut également être associée à une optimisation globale de la structure, peut apporter une aide précieuse dans la conception des convertisseurs de puissance. La technique de dimensionnement présentée dans cet article doit permettre d'assurer un fonctionnement optimum du filtre. Références [1] S. Yo-Chan, S. Seung-Ki "A new active common mode EMI filter for PWM inverter"; IEEE transactions on Power Electronics, vol. 18, No. 6, November 2003 [2] P. Cantillon-Murphy, C. Neugebauer "An active ripple Filtering technique for improving common- mode inductor performance"; IEEE Power Electronics letters, vol.2, No.2, June 2004 [3] CEI, “Spécifications des méthodes et des appareils de mesure des perturbations radioélectriques et de l’immunité aux perturbations radioélectriques”,CISPR 16-1:1999 [4] D. Labrousse, "Amélioration des techniques d’estimation des perturbations conduites, application à une chaîne de traction de véhicule électrique", thèse de doctorat de l‘ENS Cachan, 2010 [5] G. Grandi, M. Kazimierczuk, A. Massarini; "Stray capacitance of single-layer solenoide air-core inductors"; IEEE transactions on Industry Applications; vol. 35, No. 5, September/October 1999 [6] A. Massarini, M. Kazimierczuk; "Self- capacitance of inductors"; IEEE transaction on Power Electronics, vol. 12, No. 4, July 1997 [7] S. Wang, F. C. Lee, W. G. Odendaal; "Effects of parasitic parameters on EMI filter performance"; IEEE transaction on Power Electronics, vol. 19, No. 3, May 2004. [8] Magnetic materials Datasheet, "Soft Ferrites and Accessories", on www.FerroxCube.com [9] Colonel Wm. T. McLyman, "Transformer and Inductor Design Handbook"; Ed. Dekker; ISBN 0- 8247-7828-6 [10] W.Shen, F.Wang, D.Boroyevich, V.Stefanovic, M.Arpilliere, "Optimizing EMI filter design for motor drives considering filter component high-frequency characteristics and noise source impedance", APEC '04. Nineteenth Annual IEEE, Page(s):669 - 674 vol.2

Creative Commons Aucune (Tous droits réservés) Aucune (Tous droits réservés)
contenu protégé  Document accessible sous conditions - vous devez vous connecter ou vous enregistrer pour accéder à ou acquérir ce document.
- Accès libre pour les ayants-droit

Historique de la compatibilité électromagnétique et Presentation d’un Moyen d’essai en Immunité : La CRBM Soizic DUBOIS GERAC. 3 avenue Jean d’Alembert, ZAC de Pissaloup, 78190 Trappes. soizic.dubois@gerac.com 1. Introduction Les premiers problèmes de compatibilité électromagnétique sont apparus très tôt (fin du 19eme siècle), avec les réflexions sur la diaphonie issues des couplages entre les premières lignes de télégraphes et les modélisations qui s’en suivirent avec principalement les travaux de Heaviside, portant le nom « modèle de ligne des télégraphistes ». Mais la notion « officielle » de Compatibilité Electro- Magnétique (CEM) est apparue plus tard dans les années 1930 avec les problèmes d’interférences radioélectriques provenant de moteurs électriques. Au début n’étaient considérés que les effets de perturbations électromagnétiques émises par ces dispositifs, sans prise en compte de l’immunité des systèmes perturbés et ceci jusqu’au début des années 1970. Ces problèmes d’interférences ont amenés à la création en 1933 du CISPR (Comité International Spécial des Perturbations Radioélectriques) par la CEI (Commission Électrotechnique Internationale). Le CISPR a ainsi pour but d’écrire et de justifier des normes en limites d’émissions électromagnétiques afin d’éviter ces problèmes d’interférences. Au cours de la seconde guerre mondiale dans les années 1940, les systèmes de communication et les appareils électroniques se sont fortement développés, amenant ainsi la multiplication des interférences entre la radio et les systèmes de navigation aérienne. Le C.I.S.P.R. continue alors son activité de recherche et propose des techniques de mesures des perturbations et recommande des valeurs limites d'émissions. Ces valeurs limites recommandées par le C.I.S.P.R. sont adoptées par plusieurs pays européens. Un autre phénomène, en général moins connu, a donné lieu à de nombreux travaux à partir des années 1962 dont pourra bénéficier le métier de la CEM plus « classique » : l’impulsion électromagnétique d’origine nucléaire (IEMN). Une bombe nucléaire explosant en haute altitude engendre des particules secondaires dont des électrons qui en s’accélérant autour des lignes de champ magnétique terrestre, fabrique une impulsion de champ électrique de très haute amplitude (50 kV/m) et qui couvre une surface sur le sol terrestre gigantesque (à l’échelle d’une nation). Ce phénomène, suspecté mais confirmé par l’expérience historique de StarFish est rapidement apparu comme une arme potentielle pour détruire des systèmes électroniques adverses. Par voie de conséquence, les nations militairement modernes ont de suite engagé des travaux pour s’en protéger. Ces travaux ont donné lieu à des avancées remarquables sur la modélisation des blindages et de l’immunité des circuits intégrés – des transistors en général. Avec l'invention des composants électroniques à haute densité tel que le transistor en 1950, le circuit intégré en 1960 et les puces à microprocesseur, est apparue une augmentation des problèmes d'interférence. Le spectre fréquentiel utilisé devient beaucoup plus large, afin de subvenir aux besoins croissants de transmissions d'information. L'American Federal Communication Commission (F.C.C.) a publié en 1979 des normes limitant les émissions électromagnétiques de tous les appareils électroniques car ceux ci devenaient plus sensibles aux interférences. Ce n’est qu’au début des années 1980, que furent publiés par la CEI, des textes normatifs concernant l’immunité des matériels (CEI 801), que certains industriels se mirent à décliner spontanément au sein de leur propres systèmes, c’est-à-dire sans engagement contractuel, pour garantir le bon Résumé : Cette article présente dans un premier temps un bref historique de la Compatibilité ElectroMagnétique (CEM). Il s’agit de rappeler pourquoi la CEM a vu le jour et comment la prise en compte de la CEM est devenue impérative dès la phase initiale de conception de tout équipement électrique ou électronique. Dans une seconde partie, il s’agit de présenter un moyen d’essai afin de valider la bonne prise en compte des contraintes CEM au niveau d’un équipement ou d’un système. Le moyen d’essai présenté dans cet article est la Chambre Réverbérante à Brassage de Modes (CRBM) permettant de simuler les agressions des ondes radar que peuvent par exemple rencontrer les systèmes de l’aéronautique. Entre la théorie de Hill qui repose sur des hypothèses de volume aux propriétés réfléchissantes idéalisées et la réalité des conditions d’usage de ce moyen on trouve de larges écarts et c’est sur ces écarts que portent les études actuelles sur les CRBM. Pour les industriels il s’agit de mieux maîtriser les conditions d’environnement que voit un équipement en test dans une CRBM et de mieux maîtriser les analyses et conclusions qui s’en déduisent vis à vis du risque réel en environnement fonctionnel et naturel. fonctionnement des dispositifs électroniques inclus dans les processus de fabrication. Le 1er janvier 1996 tout produit mis sur le marché européen doit satisfaire aux exigences des normes CEM d'émission et d'immunité (marquage CE), non applicable aux matériels de la défense et de l’aéronautique devant répondre à d’autres directives spécifiques à leur domaine. Cette réglementation vient de la directive 89/336/CEE du 3 mai 1989 élaborée par la Communauté Économique Européenne (CEE). Cette réglementation au niveau communautaire était indispensable pour éviter les réflexes protectionnistes qui conduiraient à utiliser des règlements nationaux dans un domaine où il est très facile de complexifier à l’infini les problèmes de définition, de méthode, ou d’interprétation des résultats des essais. L’apparition de cette directive est un événement important pour les industriels dans les domaines de l’électricité et de l’électronique, tant des points de vue économique et juridique, que du point de vue technique. La directive européenne 89/336/CEE fut définitivement abrogé en juillet 2009 par la nouvelle directive CEM 2004/108/CE : nous ne retiendrons de cette directive que l’obligation de maîtriser les performances CEM des systèmes. Apparaît ainsi la définition officielle de la Compatibilité ElectroMagnétique (CEM), qui est : « l’aptitude d’un dispositif, d’un appareil ou d’un système à fonctionner dans son environnement électromagnétique de façon satisfaisante et sans produire lui-même des perturbations électromagnétiques intolérables pour tout ce qui se trouve dans cet environnement ». Cette définition de par sa formulation rend compte du fait que la CEM n’est par définition ni une science, ni une technique, mais une capacité souvent vue comme une contrainte, que les matériels électriques et électroniques doivent couvrir. Pour satisfaire cet objectif, le métier de la CEM utilise l’arsenal scientifique et technique de l’électromagnétisme et de l’électronique. Aujourd’hui le métier de la CEM couvre un champ très large, incluant la tenue aux rayonnements ionisants, les particules faisant partie du périmètre de l’électromagnétisme, et d’autres contraintes apparues dans divers cadres comme les agressions aux fréquences microondes par exemple, ainsi que les interactions entre les champs électromagnétiques et le vivant – on parle de « bioélectromagnétisme ». Le concept dual de limitation du pouvoir perturbateur et d’immunité aux perturbations est récent. Dans une exigence toujours plus forte de diminution des coûts, il est de fait une demande de maîtrise des développements en amont prenant en compte la CEM afin de ne pas multiplier les prototypes, et pour ce faire une grande part de calculs et d’analyses en conception amont sont normalement effectués avant de réaliser des simulations au sens d’essais virtuels ou des essais CEM en conception, puis des essais de qualification viennent confirmer ponctuellement l’ensemble de la conception CEM sur un produit. On peut parler dans ce cas de « simulations réelles » au sens que ce n’est que très rarement dans le cas des grands systèmes, que le système final est testé dans son ensemble et dans son environnement opérationnel. Nous allons exposer dans ce qui suit un type d’essai CEM particulier qui prend une place très importante dans la qualification des systèmes aéronautiques : il s’agit des essais « champs forts » ou « HIRF » (High Intensity Radiated Field) en CRBM (Chambre Réverbérante à Brassage de Modes). 2. Essais « champs forts » ou « HIRF » en CRBM Rappelons tout d’abord le but des essais de susceptibilité rayonné : il s’agit de vérifier l’aptitude de tout équipement électrique ou électronique à continuer de fonctionner de façon opérationnelle lorsque celui-ci est soumis à des agressions de type « champs forts », c’est-à-dire lorsqu’il se situe dans le périmètre d’émission d’un RADAR par exemple. Cette vérification a une grande importance, car imaginons l’impact de la défaillance d’un système tel qu’un avion dont tous les équipements électriques ou électroniques le constituant ne répondraient plus face à une telle agression : cela serait catastrophique. Il est donc impératif de passer par une phase de simulation réelle de l’impact du champ électrique sur les équipements et pour cela nous allons détailler ici la méthode d’essais d’immunité rayonnée en CRBM. 2.1. Historique de la CRBM Les premiers développements des essais en CRBM datent de 1976 afin de répondre aux contraintes sur les mesures de fonctions de transfert sur les câbles. S’en est suivi des applications des mesures et d’injections de perturbations rayonnées sur équipements dans les années 1980. Les références normatives faisant un premier état de ce nouveau principe furent l’automobile, puis le civil avec la norme EN 61000-4- 21 et l’aéronautique avec la norme RTCA / DO-160D. Cette méthode d’injection fut implantée dans la norme militaire MIL STD 461E. Elle fut véritablement prise en compte et appliquée pour des exigences normatives à partir des années 2000. Nous allons ici aborder ce moyen d’essais dans le cadre de l’aéronautique. La CRBM a pris un impact considérable dans l’aéronautique et fut acceptée par les organismes normatifs et par les systémiers en raison des possibilités importantes de simulation des champs radars. De plus les CRBM de part leurs propriétés, simulent très bien la pénétration des ondes radars à l’intérieur de cavités métalliques, et donc ont une bonne représentation de l’impact des ondes radars pénétrant à l’intérieur de soutes d’un avion. Un autre point important favorable à l’usage des CRBM est le fait qu’il est possible de réaliser des champs aussi important qu’en chambre semi- anéchoïque (une chambre semi-anéchoïque est une chambre pourvue d’absorbants radioélectriques simulant l’espace libre, mais avec un sol réfléchissant, reproduisant ainsi la majorité des environnements aéronautiques et civil – au sol !) avec des puissances environ 10 fois moins importantes, exploitant les propriétés de cavitation de la CRBM et le coefficient de qualité lié. Le champ en CRBM a cependant des caractéristiques différentes de celles qu’il présente en chambre anéchoïque (où le champ est de type propagatif avec une réflexion éventuelle de sol comme en espace libre), alors qu’en CRBM le champ est partiellement propagatif et principalement stationnaire. Il est aujourd’hui possible de mettre en œuvre des champs d’environ une dizaine de kV/m avec des sources de seulement quelques kW, contrairement à la méthode en émission directive en chambre anéchoïque où il faut des sources avec plusieurs dizaines de kW. Ce moyen d’essai permet de simuler des agressions d’ondes RADAR dans la bande de fréquences de 80 MHz à 40 GHz. 2.2. Principe de la CRBM Une CRBM est avant tout une cavité électromagnétique et les lois associées lui sont applicables. Une cavité électromagnétique est un volume vide ou rempli de diélectrique limité par des murs de type électrique (interface avec un conducteur, l’acier galvanisé ou l’aluminium poli dans le cas de la CRBM), ou de type magnétique. Les cavités peuvent, en principe, avoir des formes géométriques diverses. Si, par un moyen approprié (une antenne d’émission par exemple), un champ électromagnétique est excité à l’intérieur d’une cavité, il peut s’y produire des ondes stationnaires lorsque des conditions de résonnance sont atteintes. La cavité emmagasine alors une certaine quantité d’énergie électromagnétique dont uen partie sera transmise à l’équipement sous test placé dans le volume de la cavité : c’est l’effet recherché en CRBM. Figure 1 : L’essai de susceptibilité rayonnée en CRBM  Fréquence fondamentale La théorie modale sur les cavités permet de déterminer la fréquence fondamentale de la chambre, c'est à dire la fréquence à partir de laquelle des modes de résonance peuvent être excités, suivant la formule : Où a, b et c sont les dimensions de la cavité avec a la plus petite longueur (ahttp://transmissions-radio.chez-alice.fr.  Les chambres réverbérantes en électromagnétisme, Bernard DEMOULIN, Philippe BESNIER, édition Lavoisier, 2010.  Norme RTCA DO-160 E, décembre 2004.  Norme MIL STD 461 E, août 1999.  D. A. Hill, _Plane wave integral representation for fields in reverberation chambers,_IEEE Trans. Electromagn. Compat., vol. 40, no. 3, pp. 209_217, Aug. 1998.  Exploration of the Radiated Electromagnetic Immunity of Integrated Circuits up to 40 GHz. Perdriau, Maurice, Dubois, Ramdani, Sicard. Electronic Letters 47, 2011.

Creative Commons Aucune (Tous droits réservés) Aucune (Tous droits réservés)
contenu protégé  Document accessible sous conditions - vous devez vous connecter ou vous enregistrer pour accéder à ou acquérir ce document.
- Accès libre pour les ayants-droit

Analyse tensorielle des réseaux appliquée à la compatibilité électromagnétique de l’électronique de puissance Olivier MAURICE GERAC. 3 avenue Jean d’Alembert, ZAC de Pissaloup, 78190 Trappes. olivier.maurice@gerac.com 1. Introduction La compatibilité électromagnétique (CEM) est un savant mélange de compétences en électronique et en électromagnétisme, additionné de quelques curiosités en interactions champ-vivant et interactions entre l’électronique et les rayonnements ionisants. Ces multiples interactions doivent souvent être évaluées lors de la conception d’un nouveau système pour anticiper les contraintes normatives ou pour assurer le bon fonctionnement du système lui-même (ce système pouvant ne pas fonctionner correctement du fait des couplages électromagnétiques entre ses signaux). Pour présenter la méthode proposée, nous imaginons une petite électronique de puissance que nous allons étudier dans un contexte en CEM. Une approche théorique de l’analyse tensorielle serait ici hors de propos. Pour montrer la puissance de cette algèbre sans pour autant en détailler la théorie, on choisit de l’introduire progressivement dans le développement de l’étude CEM proprement dite. Le seul prérequis demandé dans cette présentation est la connaissance de l’algèbre matriciel. Après avoir discuté la notion de couplage si importante en CEM, on détaille le projet et une partie des contraintes CEM que l’on va considérer. On modélise ensuite le système pour calculer son comportement électromagnétique dans le domaine des fréquences (on choisit de n’aborder que ce domaine, le domaine temporel nécessitant des connaissances sur la résolution temporelle et numérique des systèmes d’équations intégro-différentielles qui dépassent le cadre de cet article). On code ensuite le système sous le logiciel SCILAB (logiciel de calcul librement disponible : http://www.scilab.org), pour rechercher alors des solutions d’optimisation de l’électronique vis à vis de certains des objectifs en CEM qui pourraient le concerner. 2. Notion de couplage La notion de couplage n’est pas une notion intuitive. Pendant pratiquement toute notre formation nous apprenons des cas idéaux souvent sans pertes et couramment sans couplages. Or la réalité est tout l’inverse. Les systèmes ont toujours des pertes et sont des systèmes couplés. En mécanique quantique, la notion de couplage entre les particules observées et l’observateur est souvent mise en exergue, discutée, interprétée. Pourtant il en est ainsi, dans une mesure différente certes, mais de toutes nos actions de mesurages. Toutes sondes d’oscilloscope, sondes magnétiques, etc., sont des éléments qui réalisent une mesure par couplage avec un circuit sous-jacent qui comporte la grandeur – courant ou tension – que l’on veut acquérir. En toute rigueur, ce couplage a son influence, souvent suffisamment peu significative pour que l’on puisse le considérer comme « faiblement » couplé, c’est à dire sans incidence sur le fonctionnement du circuit observé. En CEM, la préoccupation majeure de l’ingénieur CEM est la détection et la maîtrise de tous ces couplages qui peuvent être engendrés par la proximité des électroniques. Contrairement au cas de la mesure, certains de ces couplages peuvent modifier le comportement attendu d’une électronique et provoquer la défaillance de la fonction qu’elle est censée assurer : défaillance au sens large c’est à dire un fonctionnement anormal qui peut aller de l’interruption au fonctionnement erratique, incontrôlé. Ces défaillances peuvent avoir des conséquences dramatiques, comme la destruction d’un navire de la marine américaine par déclenchement intempestif d’une charge explosive. Les avions qui subissent des écoulements de courants foudre sur leurs fuselages pouvant atteindre plusieurs dizaines de milliers d’ampères doivent se prémunir contre les énergies induites que ces circulations de Résumé : La complexité croissante des systèmes électroniques, incluant ceux de puissance, nécessite une compréhension physique des processus mis en jeu dans ces systèmes. Ce niveau de complexité requiert des méthodes mathématiques sur lesquels l’ingénieur puisse s’appuyer pour appréhender (en gérant l’incertitude sur un manque de connaissance s’il le faut) le comportement de ces systèmes. L’analyse tensorielle des réseaux, développée en France par Denis PAPIN et Arnold KAUFFMAN et imaginée par Mr Gabriel KRON aux Etats Unis (1939) est de ces méthodes qui peuvent offrir tout l’environnement d’analyse attendu. Cet article tente d’en donner une illustration et un aperçu concrets au travers d’un exemple très simple, qui peuvent être utilisés dans un objectif pédagogique pour aborder l’analyse théorique et tensorielle des réseaux et les processus de couplages qu’elle décrit rigoureusement ainsi qu’une première introduction à l’analyse tensorielle appliquée à l’industrie. courants provoquent sur les liaisons internes de l’avion. Ces couplages ramènent ainsi sur ces liaisons de l’ordre de plusieurs centaines de volts et dizaines d’ampères. Bref, ces couplages que nous percevons si peu sont en fait constamment présents dans le monde réel et les ingénieurs ou chercheurs se doivent aujourd’hui de les imaginer systématiquement. L’ingénieur en CEM pour sa part en fait son cœur de métier : la CEM est la science des systèmes couplés. 3. Système électronique en développement Nous imaginons un système d’électronique de puissance simple, comportant une source inductive, un commutateur, un condensateur et une charge. La figure 1 présente le schéma considéré. Figure 1 : circuit considéré comme illustration Nous décrirons les éléments du schéma dans un premier temps sous le formalisme de Laplace, pour ne le traduire en fréquence qu’au dernier moment. La source E(p) (si p est la variable de Laplace) est ainsi quelconque pour l’instant. H22(p) est un commutateur qui vaut h22(1) ou h22(0) suivant la valeur d’une commande non représentée sur le schéma (nous verrons la signification du double indiçage ensuite). Les composants de L11 à C55 sont des composants électroniques classiques. Par ailleurs, pour mesurer les émissions rayonnées en champ magnétique par cette électronique, on dispose d’une petite boucle de fil comportant une résistance en série, dont le schéma équivalent est représenté figure 2. Ce nouveau graphe peut surprendre quelque peu de par la présence d’une inductance placée en son centre, non raccordée à une des branches du circuit. Nous justifierons cette représentation par la suite. L’objet de notre travail d’analyse CEM est de reproduire le fonctionnement électronique du circuit de la figure 1 puis de le coupler au circuit de la figure 2 pour évaluer ses émissions rayonnées, telles qu’elles auraient pu être mesurées dans le cadre d’un essai de vérification de conformité (ces essais n’utilisent pas en général ce type d’antenne, mais cela ne change rien à la validité de la démonstration ni à la pertinence de la démarche). Figure 2 : circuit équivalent à la boucle de mesure 4. Représentation de la réalité en graphe Le fait de représenter la réalité sous la forme d’un circuit associé à un graphe n’est pas une opération triviale. L’ingénieur identifie des zones de flux conservé (conducteur, matériaux magnétiques, etc.) qu’il relie à un trait sur un dessin, trait associé à un symbole qui rappelle les propriétés du milieu transportant le flux (flux au sens de transport : transport de champ magnétique, de porteurs, …). Ce trait résulte lui-même forcément d’une opération de contraction de ce qui ressemble plus au départ à un tore ou des formes ventrues, définies sur une région de densité de flux supérieure à une valeur critère (en ce sens, les bords d’un conducteur sont beaucoup plus abruptes que les bords du tube de flux magnétique). Le graphe est orienté, c’est à dire qu’entre les symboles, une flèche indique la direction considérée de transport du flux. Cette direction peut être arbitraire, c’est à dire inverse à la direction intuitive que l’on aurait attendue sur des critères de physique. 5. Choix d’une topologie Si l’on est capable de dessiner un graphe orienté, enrichi de symboles – c’est à dire un schéma électrique – du problème, on doit choisir les orientations des courants et leur numérotation. En fait, plus généralement, on va identifier des éléments d’espaces topologiques (sommets aussi appelés nœuds, arêtes ou branches, cycles ou mailles, moments, réseaux, etc.) et les numéroter dans le graphe. Ainsi la figure 3 présente les deux circuits précédents qui ont été enrichis de cette numérotation ainsi que des sens de circulation arbitraires retenus pour les cycles. On notera que pour l’instant, les deux circuits étant considérés indépendants (et ils ont bien une existence propre, indépendamment l’un de l’autre) sont numérotés sans tenir compte des numérotations existantes dans l’autre circuit. Ces deux circuits et les graphes associés sont pour l’instant entièrement découplés. Figure 3 : choix de numérotation et sens de circulations Ces deux étapes de représentation de la réalité par graphes et choix d’une topologie (au sens d’éléments qui constituent les espaces des sommets, arêtes, cycles) sont majeures et peuvent donner lieu à des réflexions poussées pour choisir les représentations les plus pertinentes. L’ingénieur saura construire un graphe d’autant plus adéquat qu’il aura en tête tous les espaces disponibles, les modèles associés aux systèmes physiques représentés, etc. On peut montrer par l’intermédiaire de la topologie algébrique que les processus qui conduisent de l’objet réel à sa représentation en graphe ne sont pas uniquement intuitifs mais peuvent être justifiés par des raisonnements plus mathématiques dont la discussion ici est hors propos. La figure 3 montre les choix opérés pour les sens de circulation des courants d’arêtes im (branches) et leur numérotation, des lettres affectées aux sommets (nœuds) et les sens de circulation et numérotation des courants de cycles (mailles). L’inductance L11 du circuit de la boucle de mesure est justement associée à l’espace des cycles. L’énergie magnétique WB qu’elle représente est ainsi définie dans cet espace par : dans le domaine harmonique (est la pulsation). 6. Inductance et espace des cycles Nous allons représenter et exprimer toutes les quantités de l’espace des branches dans l’espace des cycles. Cette transformation n’est pas forcément intuitive et demande une certaine gymnastique de l’esprit pour se la représenter. Ainsi, le petit réseau de la boucle de mesure constitué de deux branches est-il réduit à « un point » - un cycle dans l’espace des cycles. Il peut paraître surprenant de raccrocher un composant à un élément de cet espace. Pourtant on respecte ainsi la physique de façon plus rigoureuse que dans un espace des branches. L’équation de Maxwell qui décrit la force électromotrice engendrée par une variation de flux magnétique est : . L’opération d’intégration s’effectue bien sur un parcours fermé noté ici dx, qui correspond à une structure de cycle. Dans une définition en arête, il faut être capable de scinder le flux pour définir des inductances « partielles » et pouvoir rattacher une inductance à chaque arête, opération non triviale et source d’imprécisions. Au contraire, l’inductance de la branche 1 (arête 1) du réseau de puissance est un solénoïde. Il est bien un composant en soit et non engendré par la circulation de courants d’arêtes. Il est donc rattaché à l’arête. Maintenant, il nous faut formaliser ces liens que nous commençons à manipuler entre arêtes et cycles. 7. Transformation de l’espace des arêtes à l’espace des cycles Dans chaque espace topologique (on parle d’espaces topologiques car on sait y définir un voisinage) des arêtes ou des cycles on se dote d’une représentation d’un réseau – d’un circuit. Chaque représentation a ses particularités, mais l’algèbre tensoriel va nous permettre de démontrer que du point de vue énergétique, ces deux représentations sont équivalentes. On va pouvoir alors basculer d’une définition au départ plus facile à élaborer en arêtes (nous avons défini les impédances des arêtes, etc.) vers une représentation plus abstraite en cycles où la résolution du problème sera grandement simplifiée. 7.1 Définition d’un espace naturel & coespace Avant d’introduire cette transformation, décrivons l’espace des arêtes sous forme vectorielle et introduisons la notion de métrique. L’ensemble des arêtes du réseau peut être associé à un ensemble de vecteur unitaire, chaque vecteur étant rattaché à une arête particulière. Soit ces vecteurs de base, l’ensemble de tous les courants i circulant sur toutes les arêtes du réseau peut se décliner en une somme d’amplitudes projetées sur cette base, soit : (1) Usant de la convention d’Einstein, nous faisons abstraction du signe somme, l’indice dit « muet » répété (ici « k ») pointant la valeur qui doit être incrémenté pour réaliser la somme. Si l’on se souvient implicitement de ce développement, on peut, par abus d’écriture, omettre les vecteurs de base pour désigner le vecteur simplement par ik . Mais nous verrons que ce symbolisme permet finalement d’accéder à une représentation de la physique extrêmement puissante. Or notre réseau dissipe une énergie correspondant à tous les travaux de déplacement des charges dans les fils des arêtes. Chaque travail élémentaire est donné par : si x est le déplacement sur une arête quelconque. La puissance qui en découle est alors le produit iV, i étant le courant et V l’intégrale du champ électrique sur le déplacement. On peut donc faire correspondre à tout courant sur toute arête, une quantité V telle que le produit du courant par cette quantité donne la puissance, grandeur scalaire qui ne dépend pas de la représentation du réseau. Définissons une forme qui puisse servir de base, pointant toutes les arêtes de façon à projeter sur cette forme toutes les intégrales des champs d’arêtes et écrire comme précédemment : . Cette forme doit être telle que le produit par les vecteurs de la base naturelle n’engendre pas de coefficients particuliers, soit : (2) Comme précédemment également, nous pouvons pointer le pseudo-vecteur que nous appellerons covecteur par ses seules composantes . Un point fondamental est que, de par les définitions d’origine de ces objets, tout élément écrit avec un indice en haut (et nous voyons ici l’utilité de ces conventions) est un courant et a une dimension en ampères, alors que tout objet avec un indice en bas est une tension, une différence de potentiels, et a une dimension en volts. Ces propriétés seront toujours vérifiées dans le contexte que nous nous sommes donné ici. L’écriture tensorielle est riche en information. A chaque type d’objet correspond des propriétés physiques définies. 7.2 Notion de métrique Suivant les propriétés de l’arête, on se doute qu’il doit bien exister un opérateur qui relie tension et courant dans une arête. Appelons g cet opérateur. Il vérifie une relation qui ressemble à quelque chose comme V=g.i. Si cela est vrai, en remplaçant V par son expression, on doit retrouver la puissance. Or i est un vecteur (aussi appelé vecteur contravariant, nous verrons pourquoi ultérieurement) et V un covecteur. Il faut pouvoir multiplier l’indice de ik par un autre k « contenu » dans g et qu’il reste en résultat l’indice de V, soit quelque chose comme : Vm=gmkik . Ce raisonnement simpliste indique déjà que g est un objet à deux indices, donc une matrice (du point de vue organisation). Acceptons cette hypothèse et remplaçons g dans l’expression de la puissance ; on trouve : . Cette expression ressemble fort à une autre plus connue : . ds2 est l’invariant de la relativité, P est l’invariant de l’analyse tensorielle des réseaux. L’objet g est un tenseur du second ordre, appelé métrique. Le caractère tensoriel pourra être défini ensuite. Mais l’on peut déjà noter qu’il permet de relier deux courants dans l’espace des arêtes à un invariant qui est la puissance. Une partie de cette puissance (au sens général) peut être contenue dans les couplages entre les éléments du réseau. La métrique du premier réseau est donnée dans l’espace des arêtes par (p est l’opérateur de Laplace) : (3) Celle du deuxième, dans l’espace des arêtes est : (4) Le fait de garder le même nom ou pas n’a pas d’importance. On peut maintenant se demander comment se transforment toutes ces quantités lorsque l’on passe d’une description en arête à une description en cycles ? 7.3 Transformations On peut sur notre schéma relier les courants de cycles aux courants d’arêtes. Plaçons-nous dans le cas de la boucle en lieu et place de la résistance R11. Cette résistance se voit traversée par le courant d’arête i1 ou le courant de cycle K1 . Rien ne lui permet de faire la différence. On peut donc sur ce raisonnement, traduire l’équivalence des deux représentations sous la forme d’une matrice – la connectivité – avec un coefficient 1 entre la ligne 1 pointant le courant d’arête 1 et la colonne 1 pointant le courant de cycle 1. En procédant de même pour tous les courants des deux réseaux on trouve les deux connectivités associées suivantes (C1 pour le premier réseau et C2 pour le deuxième réseau) : (5) De cette connectivité découle la relation de passage entre les courants d’arêtes et de cycles : . Repartons d’une branche de Kirchhoff constituée d’une source e en série avec une impédance z. Chacun pourra retrouver que cette branche respecte la relation suivante entre les éléments précédents et la différence de potentiel V aux bornes de la branche étendue à un réseau constitué de multiples branches (ou arêtes) : . Remplaçons les courants d’arêtes i par leur développement sur la base des courants de cycles : . Multiplions tous les termes de cette équation à gauche par la matrice conjuguée de la connectivité pour laquelle lignes et colonnes sont échangées pour obtenir : . On voit que la contraction du produit de la connectivité par les sources (premier terme) engendre un covecteur qui sera le covecteur des sources dans l’espace de description des cycles. Laissons le premier terme du membre de droite de côté pour l’instant et regardons le second. On peut réaliser une double contraction sur les impédances pour obtenir une matrice des impédances décrites dans l’espace des cycles : . Le terme mis de côté devrait donner les différences de potentiels (ddp) dans l’espace des cycles. Or dans cette espace ce terme est nul, car la somme des ddp sur un cycle donne toujours 0. Dans notre nouvel espace, la transformation des éléments précédemment décrits conduit à une simplification du problème en éliminant les ddp. Si l’on avait appliqué notre transformation directement sur les vecteurs de base, on aurait écrit : . On voit que cette transformation est inverse de celle que nous avons construit pour les courants . C’est pour cette raison que les courants sont des vecteurs dits « contravariants », parce que lors d’une transformation, ils suivent une relation inverse de celle des vecteurs de base. Par contre les sources s’écrivant suivent une transformation identique et sont dits de fait « covariants ». Ce qui est important pour résoudre notre problème est d’appliquer la transformation à la métrique de nos réseaux définis dans l’espace des arêtes. En appliquant la transformation qui se traduit matriciellement par : , on trouve pour les deux métriques précédentes : (6) On note que l’on utilise les indices muets grecs pour désigner les objets décrits dans l’espace des cycles et les indices latins pour ceux décrits dans l’espace des arêtes. Ce type de convention astucieuse permet de guider l’écriture et de s’y retrouver lorsque l’on manipule beaucoup d’objets. L’application de la transformation à la métrique définie dans l’espace des arêtes n’a en rien changé son rôle ni l’expression de l’équation reliant les sources aux courants. Cette invariance dans la loi associée à la métrique la définit comme un tenseur. Le caractère tensoriel est souvent défini à partir de l’invariance dans les transformations. Pour la métrique de la boucle dans l’espace des arêtes, on trouve facilement qu’elle se réduit à un terme unique . On applique ensuite la transformation aux sources pour trouver les deux covecteurs des sources des deux réseaux dans l’espace des cycles : pour le premier réseau et 0 pour le second. 7.4 Résolution dans l’espace des cycles Une fois les objets transformés, il nous reste à ajouter à la métrique les inductances qui n’existent que pour l’espace des cycles puis assembler les réseaux pour constituer le système couplé avant d’établir l’équation finale de ce système. 7.4.1 Inductances des boucles Un solénoïde est un composant. Son macromodèle est une inductance rattachée à une arête. Mais dans le cas des cycles, l’inductance engendrée par la circulation fermée du cycle n’est pas un composant en soit. Dans une modélisation nodale, comme les logiciels de type SPICE, il faut rajouter sur chacune des arêtes constituants le cycle une « inductance partielle » dont le calcul de chaque élément n’est pas trivial. C’est une notion virtuelle, l’inductance ne pouvant être formellement ainsi découpée. Dans le cas de l’analyse tensorielle des réseaux, il n’est pas utile de réaliser ce découpage. Il suffit (et le symbole un peu déroutant pour ceux plus habitués à SPICE ou SABER d’une inductance placée au centre d’un cycle le représente bien) d’ajouter la composante inductive à l’impédance du cycle une fois la transformation arêtes vers cycles effectuée. Suivant la réalité géométrique et physique du circuit on peut choisir ou non d’associer une inductance à une maille. Dans notre exemple, nous avons l’inductance associée à la boucle de mesure, appelons-la L11, et on imagine que seul le cycle 3 du circuit de puissance a une inductance notée L33. La présence de cette inductance est également concrétisée par un symbole rajouté au centre du cycle 3 (figure 4). Figure 4 : rajout de l’inductance dans le cycle 3 7.4.2 Métrique des inductances Les métriques définies pour les réseaux sans inductances doivent être complétées d’un tenseur des inductances dont la dimension est celle de l’espace des cycles. Ce tenseur que l’on note L a l’allure suivante pour le réseau de puissance : (7) Pour le deuxième réseau, il est réduit à une valeur unique : m=L11p (il s’agit ici du réseau de la boucle de mesure. Le fait d’avoir deux fois l’indiçage « 11 » : pour le solénoïde du réseau de puissance et pour l’inductance de la boucle de mesure n’est pas satisfaisant, mais nous allons voir que ces notations sont appelées à évoluer, et c’est volontairement que nous avons gardé cette ambiguïté). Les deux métrique complétées des termes inductifs s’obtiennent en sommant les deux matrices g+m. 8. Couplage des deux réseaux Après avoir détaillé la structure des réseaux, nous entrons dans la phase la plus intéressante de l’approche tensorielle, à savoir le couplage entre les réseaux. En utilisant la petite boucle pour mesurer le champ magnétique rayonné par la partie de l’électronique de puissance, on passe d’un système de deux réseaux séparés à un système de deux réseaux couplés. La première opération consiste à assembler les matrices des métriques et des connectivités pour ne plus avoir qu’une seule métrique et une connectivité, puis enrichir la métrique des couplages engendrés par la constitution du système couplé. De multiples transformations et accouplements sont ainsi traduisibles en réunions et enrichissements des métriques et des connexions. Nous n’en présentons ici qu’un aspect simple, nous abordons dans la conclusion quelques évocations de ces mécanismes de l’analyse tensorielle des réseaux. Une fois le réseau couplé, on pourra résoudre l’équation tensorielle de ce réseau pour déterminer les courants de cycles, desquels toute l’information sera extractible. Du point de vue symbolique, on concrétise sur le réseau ce couplage assuré par un flux magnétique, une « branche » non solide, par ce que l’on appelle une corde joignant les deux cycles en interactions. Cette corde est une ligne, parfois discontinue, qui va du centre d’un cycle à l’autre avec, comme pour une arête le symbole attaché à la fonction de couplage situé au- dessus de la corde (figure 5). Notons que rien n’oblige le couplage a être symétrique. Dans ce cas, on ajoutera une flèche par exemple sur la corde pour indiquer son caractère non symétrique (du point de vue de l’algèbre tensoriel, le fait de pouvoir disposer d’une métrique non symétrique peut choquer et a donné lieu à l’époque de travaux de Mr G.Kron a de nombreux débats. On pourrait remettre en cause la terminologie de métrique mais ce n’est pas l’objet de cet article. Papin et Kauffman ont proposé de créer une analyse tensorielle dans des espaces non riemanniens et d’autres concepts de topologie ont depuis intégrés ce type d’objet). Figure 5 : schématisation du couplage 8.1 Assemblage des réseaux Le réseau de puissance comporte 3 cycles et la boucle de mesure un seul. Les métriques de fait sont associées à des matrices 3x3 et une valeur unique. En assemblant les réseaux, on réunit d’abord dans une métrique unique les deux précédentes. Cette nouvelle métrique doit donc comporter 4x4 éléments. De fait, une renumérotation des éléments s’impose si l’on veut garder une clarté dans le graphe qui accompagne le circuit. La boucle comportant des arêtes qui auraient été les arêtes numéros 6 et 7 d’un graphe incluant les deux réseaux (l’espace des arêtes du premier réseau est de dimension 5. La numérotation reprend donc à 6 pour tout réseau que l’on veut lui adjoindre) et le quatrième cycle, on exprime la métrique ajoutée par : . On obtient alors la métrique des deux réseaux assemblés mais non encore couplés : (8) L’assemblage des réseaux conduits aussi à l’assemblage des deux connectivités. Notez que l’on aurait pu d’abord réaliser l’assemblage des connectivités et des métriques définies dans l’espace des arêtes, pour appliquer ensuite la transformation arête – cycle à l’assemblage. Une multitude d’opération sont disponibles suivant ce que l’on désire faire. Ici il était relativement plus simple de procéder comme nous avons fait, assemblant ainsi des matrices plus petites. La connectivité assemblée est donnée par : (9) Le vecteur des sources transformé et assemblé est identique au précédent, étendu d’un zéro en dernière colonne. 8.2 Adjonction des couplages Dans notre assemblage, nous avons les cycles 3 et 4 qui sont rayonnants. Les autres cycles, pour des raisons basées sur l’expérience, la physique ou d’autres critères sont considérés comme non rayonnants. Entre les deux boucles que constituent ces deux cycles se crée une mutuelle inductance traduisant les échanges de flux magnétique et l’induction liée à sa variation. Pour prendre en compte ce couplage que l’on notera M, il suffit de rajouter dans la métrique exprimée dans l’espace des cycles cette fonction de couplage (-Mp) comme terme extra-diagonal entre les cycles 3 et 4. La métrique devient alors : (10) On voit que l’insertion de cette interaction devient un détail sous ce formalisme. L’analyse tensorielle des réseaux est un outil particulièrement bien adapté à l’analyse des systèmes couplés. Du fait que la métrique exprime directement les échanges d’énergie entre les éléments, les couplages entre les éléments se traduisent directement comme fonctions ajoutées dans la métrique. Le calcul de la fonction M qui est une fonction dépendant de la distance, de l’orientation des boucles, etc., n’est pas au départ le problème de l’analyse tensorielle. Il suffit de savoir que cette fonction existe et qu’elle est définie dans le domaine de travail pour pouvoir poser son existence a priori et l’insérer dans la métrique. Les difficultés pour calculer les paramètres de cette fonction, pour résoudre le système d’équations qui s’en suit sont un autre aspect de la méthode, incluant entre autre les problèmes numériques dans le cas – fréquent- de résolution par ordinateur telle que nous le montrons ensuite. Mais disposer d’une équation tensorielle, finalement assez simple, décrivant le système est déjà riche en soit, comme nous allons l’aborder dans le paragraphe suivant. 9. Analyse théorique du système couplé On peut vouloir faire une analyse théorique du système modélisé par l’équation . Par exemple, étudions l’influence de la valeur du condensateur C55 sur la tension lue aux bornes de la boucle de mesure, donnée par v=R77i7 . On écrit en profitant de l’algèbre tensoriel : (11) En partant d’une expression définie dans l’espace des arêtes, on remplace ces courants en utilisant la connectivité arêtes – cycles pour finalement exprimer la pente cherchée en fonction des sources et des propriétés (indirectement) de la métrique. On peut obtenir la matrice inverse de g : Y de diverses façons, une consiste à utiliser des outils de calculs formels comme Maxima, puis d’en déduire l’expression analytique de la dérivation précédente. Ce travail peut être fastidieux, mais nous opérons bien ici une étude théorique du système, sans devoir passer par des approches de cumuls de résultats en simulation. L’effort est payé par une profondeur d’analyse sans comparaison. 10. Implémentation numérique Des outils libres comme SCILAB sont une aide précieuse pour programmer, éventuellement dans une version prototype, ce type de problème. On peut choisir soit de rentrer les données dans l’espace d’origine : ici l’espace des arêtes, puis de calculer la transformation dans le programme, soit de rentrer directement les expressions calculées ici dans l’espace des cycles et de juste faire tourner une boucle en fréquence ou en temps. Nous choisissons ici cette deuxième approche, du fait que nous avons déjà calculé les expressions qui conduisent à l’équation finale. L’organisation du programme est globalement simple : on fait les initialisations nécessaires, on rentre les données (dont la fréquence fondamentale ici), on définit la métrique est les sources dans une boucle en fréquence. Pour chaque valeur de fréquence, on inverse cette métrique pour la multiplier par le covecteur des sources et en déduire les courants de cycles. De là, en repassant par la connectivité comme nous l’avons fait dans l’analyse théorique, on retrouve toutes les grandeurs tensions – courants aux niveaux des arêtes. 10.1 Initialisation Trois instructions permettent d’effacer les variables éventuellement résiduelles en mémoire, effacer le graphisme courant et initialiser les deux tableaux qui contiendront les données de sortie dans les deux configurations où le commutateur H22 est ouvert ou fermé : //initialisations clear; clf(0); sortie1=[]; sortie2=[]; 10.2 Valeurs des composants et fréquence fondamentale On donne ici toutes les valeurs des composants qui ne dépendent pas de la fréquence ainsi que la valeur de la fréquence fondamentale. //composants H221=1E6; //H22 en configuration ouvert H222=1E-3;//H22 en configuration fermé L11=1E-6; R44=100; C33=1E-6; C55=10E-12; R66=100; R77=100; L33=10E-9; L44=10E-9; M=1E-9; //fréquence fondamentale fo=10E3; Après avoir défini le générateur de l’électronique de puissance comme un spectre en sinus cardinal de phase nulle (nous ne regardons que le principe ici), il ne reste plus qu’à dérouler la boucle en fréquence avec calcul de la variable de Laplace p, puis calcul de la métrique (pour successivement les deux configurations), puis définition des sources et enfin calcul des courants de cycles et des observables. //début de boucle en fréquence //création de la source e=[]; e=100*sin(%pi*[1:999]*fo/1E7)./(%pi*[1:999]*fo/1E7); //calcul des courants for s=[1:999] p=%i*2*%pi*s*fo; g=[H221+L11*p L11*p L11*p 0 L11*p L11*p+R44+1/(C33*p) 1/(C33*p)+L11*p 0 L11*p L11*p+1/(C33*p) 1/(C33*p)+L11*p+1/(C55*p) -M*p 0 0 -M*p R66+R77+L44*p]; E=[e(s) e(s) e(s) 0]; K=pinv(g)*E'; sortie1=[sortie1;R77*K(4)]; g=[H222+L11*p L11*p L11*p 0 L11*p L11*p+R44+1/(C33*p) 1/(C33*p)+L11*p 0 L11*p L11*p+1/(C33*p) 1/(C33*p)+L11*p+1/(C55*p) -M*p 0 0 -M*p R66+R77+L44*p]; K=pinv(g)*E'; sortie2=[sortie2;R77*K(4)]; end On trace ensuite les courbes du générateur et de la tension mesurée aux bornes de la charge R77 de la boucle sur des graphes présentés figure 5. 11. Conclusion L’objet de cet article était de tenter de présenter, de la façon la plus compacte et lisible possible, l’analyse tensorielle des réseaux. Depuis les premiers travaux de Monsieur Gabriel KRON en 1939 à aujourd’hui des progrès ont été accompli tant dans le domaine des mathématiques et des sciences de la topologie rattachées à ces approches, que dans le domaine de l’exploitation optimum de ces espaces pour le calcul de problèmes complexes et multiphysiques. On a volontairement ici procédé d’une façon un peu inhabituelle, si tant est que l’on puisse définir une façon habituelle de travailler avec cet outil. Fixer une procédure reviendrait à perdre de sa souplesse et de sa capacité de s’adapter à la pensée de l’ingénieur. On a donc d’abord transformé les réseaux dans une description de cycles avant de les coupler. Plus souvent on couplera les réseaux dans leurs descriptions en arêtes pour ensuite transformer le réseau unifié dans une description en cycle. Mais l’on peut aussi de façon plus élégante travailler conjointement sur les deux approches. Soit coupler les réseaux en leur appliquant diverses transformations de réductions, rotations, pour ensuite les projeter dans l’espace des cycles puis les coupler de nouveau dans cet espace en champ magnétique, c’est à dire comme des cordes créées entre divers cycles. Figure 6 : courbes en fréquence du générateur et de la mesure dans les deux configurations Les possibilités de transformations sont ainsi multiples et répondent à toutes les configurations rencontrées dans la vie réelle. Des opérations de soudages, de connexions de fils, etc., sont traduisibles par des transformations appliquées à des réseaux de départ (appelés « primitifs » par Monsieur G.KRON) et qui vont relier des nœuds, rajouter ou supprimer des branches, créer ou supprimer des cordes, etc. Ces transformations sont des connectivités ou s’appliquent tant aux connectivités elles-mêmes qu’aux métriques. 12. Quelques références bibliographiques L’ouvrage de Papin et Kaufmann : « calcul tensoriel » paru en 1966 aux éditions Albin-Michel est sans aucun doute l’ouvrage de référence pour l’usage du calcul tensoriel appliqué. Il n’est malheureusement plus édité depuis longtemps, mais encore accessible dans quelques bibliothèques. Le « Compléments de mathématiques » de Angot comporte un chapitre sur le calcul tensoriel et la méthode de Kron. Bine que ne détaillant pas l’aspect machines électriques et référentiels accélérés, il comporte tout le reste est peut constituer une très bonne introduction au sujet (édition MASSON). Le livre de Bernard DIU « La mathématique du physicien » donne les principales notions pratiques sur les tenseurs (édition Odile Jacob). Le livre de Landau & Lifchitz « théorie des champs » reste une référence comme application du calcul tensoriel à la physique appliquée. Bien qu’abordant des sujets très pointus, l’application du calcul tensoriel est très concrète et accompagnée de nombreux commentaires sur les significations physiques des résultats (édition MIR). Le livre de Nakahara : « Geometry, topology and physics » couvre un très large domaine de la physique moderne et du calcul tensoriel dans le contexte des théories topologiques. L’ouvrage est d’un très haut niveau est extrêmement exhaustif quant aux thèmes abordés (édition Taylor & Francis). Le livre – on pourrait dire la « bibl » de Penrose : « A la découverte des lois de l’univers » paru chez Odile Jacob. Penrose y donne les explications pour comprendre et utiliser les tenseurs avec ses représentations diagrammatiques pour visualiser quelque peu le fonctionnement de ces objets. Sous des apparences de « roman », l’ouvrage reste extrêmement dense et riche d’informations non triviales. Sa lecture de fait n’en est pas facile mais il apporte beaucoup à toutes les questions que peut se poser un physicien dans la progression de son savoir. Feynman aborde dans ses cours de physique les tenseurs. Il en fait une présentation simple et pragmatique, très « physique » dans le tome II de la « définitive edition » publiée chez Pearson, Addison, Wesley. J’ai pour ma part écrit un livre sur l’analyse tensorielle des réseaux appliquée à la CEM, chez Hermes- Sciences. Il s’agit d’un ouvrage très spécialisé pour ce métier, qui aborde l’analyse tensorielle des réseaux en général mais donne des applications nombreuses pour l’électromagnétisme et la CEM appliqués. Je mets en ligne de nombreux articles sur le sujet sur une page personnelle : http://olivier.maurice.pagesperso-orange.fr/index.html

Creative Commons Aucune (Tous droits réservés) Aucune (Tous droits réservés)
contenu protégé  Document accessible sous conditions - vous devez vous connecter ou vous enregistrer pour accéder à ou acquérir ce document.
- Accès libre pour les ayants-droit

Les réseaux d’énergie électrique dans les navires de surface Troisième partie : Exemples de schémas et perspectives d’avenir. Alain BONDU(1) et Paul LETELLIER(2) (1) Ingénieur Conseil Ancien ingénieur systèmes JEUMONT ELECTRIC alain.bondu@numericable.fr (2) JEUMONT ELECTRIC 367 , rue de l’industrie, B.P. 20109 59572 JEUMONT CEDEX paul.letellier@jeumontelectric.com Résumé : Cet article est le dernier d'une série destinée à présenter les spécificités des réseaux embar- qués à bord des navires de surface, qu'ils soient civils ou à vocation militaire. L'accent est mis sur le navire à propulsion électrique intégrée, dont le réseau doit subir l'importante source de pollution que sont les convertisseurs de propulsion. Dans le premier article, l'auteur avait passé en revue les contraintes, notamment environnementales, qui s'appliquaient au réseau et à ses composants, et avait commencé l'examen de ces derniers : généra- teurs, transformateurs et disjoncteurs. Le second étudiait les autres composants : convertisseurs, filtres et moteurs. Nous terminons ici avec quelques considérations sur les régimes de neutre, des exemples de réseaux de navires et quelques perspectives d’avenir. 4. Les régimes de neutre Un mot sur ce sujet avant de passer à l’examen d’exemples de réseaux. Inutile en effet d’insister sur l’importance de cette option, tant pour la sécurité des matériels que pour celle des personnes ou pour la con- tinuité du service. De plus l’environnement, qui est celui d’une coque métallique en milieu marin, est par- mi les plus conducteurs qui soient1 . Cet impératif de continuité du service fait que tous les régimes qui impliquent un déclenchement au pre- mier défaut, donc neutre à la terre2 (TT ou TN) sont exclus. Outre les interruptions de service, les risques sur le matériel en cas de défaut sont plus élevés, ce qui est également inacceptable pour du matériel embarqué. Restent les régimes à neutre isolés et les régimes à neutre fortement impédant. Et les réponses ne seront pas identiques suivant que l’on sera en basse ou en haute tension 1 à l’exception de certains dragueurs de mines, qui peuvent avoir des coques en matériaux composites. 2 Le terme de « terre », généralement utilisé, paraîtra sans doute un peu surprenant. On le gardera néanmoins car le terme de « masse », qui serait ici mieux venu, a une signification électrique et électrotechnique différente. a) En basse tension La solution classique en BT, pour ne pas dire uni- verselle, est celle du neutre isolé. On sait qu’elle impli- que deux exigences : - Une surveillance de l’isolement en continu, par relais différentiel ou de contrôle d’isolement, ce qui ne pose aucun problème technique, - Une surisolation de l’ensemble du circuit dans le rapport 3 . C’est ainsi qu’un équipement 230V sera isolé 400V … Mais comme en pratique c’est l’essai diélectrique à 2U+1000V qui dimensionne l’isolant, et que donc l’équipement sera essayé à 1800V au lieu de 1460, l’isolation ne sera surdi- mensionnée que de 23% (un calcul analogue pour du 400 V conduirait à 33%), ce qui reste très ac- ceptable en regard des avantages de la solution3 . b) En haute tension La tension du réseau HT, qui sera généralement choisie la plus basse possible compte tenu des autres 3 Une discrétisation due, par exemple, aux normes du fabricant ou à des couches d’isolant peut fausser ces pourcentages, en général dans le sens d’une réduction de la surisolation réelle. impératifs, pouvoir de coupure des disjoncteurs no- tamment, ne sera jamais supérieure à 11 ou à la rigueur 13,8kV. Reste qu’à ces niveaux, l’isolation serait prati- quement doublée. C’est parfois accepté pour des ten- sions de service relativement basses (3,3kV par exem- ple), mais plus généralement le concepteur s’orientera vers une solution du type neutre impédant. L’impédance de mise à la terre sera dimensionnée pour limiter le courant de défaut à quelques ampères et, bien entendu, une surveillance d’isolation par surveil- lance du courant de terre sera mise en place. Cette solution, qui présente l’avantage, décisif en HT, de ne pas nécessiter de surisolation, a par rapport au neutre isolé les inconvénients suivants : - Continuité de service un peu moins bien assu- rée, - Nécessité de prévoir différentes possibilités de mise à la terre en fonction des configurations réseaux (nombre de générateurs en service…), de façon à ne garder en toutes circonstances qu’une mise à la terre et une seule. Toutes ces considérations sont très voisines de cel- les que l’on rencontre dans de nombreux milieux industriels. 5. Exemples de réseaux a) Navire de surface avec moteurs à courant continu Ce type de réseau, obsolète sur des installations neuves, équipe encore de nombreux navires en service. Il a de plus servi d’exemple dans le premier article de cette série4 . Comme on se souvient, il s’agissait d’un navire de surveillan- ce côtière à usages multiples de 950 tonnes de déplacement et équipé de deux propulseurs en Z de 1 MW. Pour ce niveau de puissance, on utilise un tableau de distribution électrique principal en basse tension 600V triphasé 60 Hz. Chaque propulseur « en Z » est entraîné par un moteur à courant continu de 1150 kW à 750 tr/mn, alimenté via un redresseur réversi- ble à thyristors. (Aujourd’hui, on opterait pour un moteur asynchrone alimenté par un redresseur- onduleur source de tension) 4 Voir références complètes dans la bibliographie, en fin d’article, § 8. La centrale d’énergie se compose de 4 groupes Die- sel- alternateurs de 700 kW à 1800 tr/mn. Le réseau de service bord est ici alimenté par un groupe tournant 60Hz- 60 Hz de 270 kW permettant un découplage parfait entre le jeu de barres propulsion très pollué par les harmoniques de courants générés par les thyristors de propulsion et le réseau de bord en 460V 60 Hz. Concernant la qualité de la tension du réseau électrique, notons qu’un taux de distorsion harmonique de l’ordre de 5 à 10¨% constitue souvent un objectif acceptable et ce niveau peut être atteint assez aisément par l’installation de transformateurs entre les convertis- seurs de propulsion et le tableau principal. b) Propulsion utilisant des redresseur- onduleurs à thyristors Ce schéma en Figure 1 ci-dessous, très répandu en propulsion électrique, synthétise l’installation électri- que d’un grand navire de croisière propulsé par deux lignes d’arbre de 14 MW chacune. Cette installation comprend principalement : - 6 groupes diesel alternateurs de 9 MW à 514 tr/mn constituant une centrale unique pour la production d’énergie du navire et procurant ainsi une grande facilité de fractionnement de la puissance - Un tableau principal moyenne tension (HTA) de 6,6 kV 60 Hz. La HTA est systématiquement utili- sée au dessus de 7 MVA installés. Figure 1 : Synoptique système de propulsion avec moteurs synchrones et redresseur- onduleur thyristors - Deux moteurs synchrones de propulsion, à double enroulement étoile décalé de 30° électrique, de 14 MW à 140 tr/mn, entraînant chacun une hélice à pas fixe. Chaque enroulement étoile est alimenté au travers d’un redresseur- commutateur de cou- rant à thyristors (commutation naturelle) couplé au réseau par l’intermédiaire d’un transformateur adaptateur de rapport 6,6 kV/3,3 kV. L’utilisation d’un transformateur- abaisseur permet notamment d’atteindre un optimum économique pour le convertisseur (nombre de composants en série par bras) De plus, ce transformateur accroît la tolérance aux défauts et joue un rôle fondamental dans la compa- tibilité électromagnétique. (voir le premier article de la série) Rappelons que le commutateur de courant à thyris- tors ne peut être associé qu’à des machines synchrones capables de fournir l’énergie réactive sans laquelle un convertisseur à commutation naturelle ne peut fonc- tionner. Plus précisément, l’onduleur ne peut fonctionner que si, lorsque le courant passe par zéro dans un thyris- tor, celui-ci est polarisé en inverse et peut donc s’éteindre. C’est possible avec un moteur synchrone, pas avec un moteur asynchrone. Ce principe est rappelé sur le schéma de la Figure 2 ci-dessous5 . Figure 2 : Principe du redresseur- onduleur et de la machine synchrone. On a, par souci de simplification, représenté sur la Figure 2 un onduleur hexaphasé. En fait, la configura- tion double étoile parallèle de la Figure 1 présente des avantages déterminants : - réduction importante des pulsations de couple mo- teur (certaines applications silencieuses conduisent d’ailleurs à l’exclusion de la configuration simple étoi- le) 5 Ajoutons que ce moteur doit être à rotor bobiné et non à aimants perma- nents, du moins dans les conditions économiques actuelles. Dans le cas contraire, ce principe, tout à fait envisageable sur le papier, conduirait à un surdimensionnement des aimants et à un coût prohibitif. - réduction des courants harmoniques injectés dans le réseau grâce à la différence de couplage, étoile d’une part et triangle d’autre part, des enroulements secondai- res des transformateurs. - réduction des pertes supplémentaires créées par les harmoniques dans les machines tournantes - introduction d’une redondance naturelle, en cas d’indisponibilité d’un convertisseur étoile, permettant d’assurer une certaine continuité de service de la pro- pulsion. 6 Remarquons le système d’excitation du moteur synchrone sans bagues ni balais via une génératrice asynchrone et redresseur tournant contrôlée par un gradateur ( Figure 3). De très nombreux types de navire ont été équipés de ce type de propulsion qui présente une grande fiabi- lité, propre aux thyristors, et une dynamique relative- ment lente mais amplement suffisante pour les applica- tions de propulsion marine (de l’ordre de 40 Cn/s) On peut citer les navires de croisière, les navires de transport de produits dangereux, des méthaniers, des navires de soutien militaires et pour l’industrie offsho- re. Figure 3 : Détail du système redresseur- onduleur Outre l’exemple classique des navires à passagers, la Figure 4 présente un bâtiment militaire récent équi- pé d’un réseau assez proche de celui de la Figure 1. Il s’agit du BPC Mistral. Sa propulsion est assurée par deux redresseurs-onduleurs alimentant deux moteurs synchrones de 7 MW à 150 t/mn, bobinés en doubles étoiles décalées de 30° électriques ; la centrale d’énergie comporte, comme groupe principaux, quatre groupes diesel-alternateur de 7800kVA à 720 t/mn. Le réseau principal est à 6,6kV 60 Hz. Figure 4 : Le BPC « Mistral » (photo Marine Nationale). Ce genre de schéma a également été utilisé avec des moteurs synchrones rapides associés à un réducteur de vitesse, jusqu’à des puissances de 10 MW à 1200 tr/mn (navires chimiquiers de Stolt- Nielsen) ou de 14 MW à 720 tr/mn (méthanier équipé de 2 moteurs de 14 MW entraînant une ligne d’arbre unique via un réducteur) Un inconvénient majeur de ce schéma de propul- sion est la forte consommation d’énergie réactive appe- lée sur la centrale de bord lors du réglage de la vitesse du navire. c) Propulsion utilisant des onduleurs source de tension à IGBT Ce système gagne du terrain et tend à remplacer progressivement les systèmes à base de redresseur- commutateur de courant à thyristors exposés ci- dessus. Des chaînes de propulsion par moteur asynchrone et onduleur VSI à hauteur de 25 MW par ligne d’arbre ont ainsi vu le jour. La banalisation des convertisseurs de puissance à IGBT (structures dites multi- niveaux) et les possibili- tés d’association en parallèle de modules convertis- seurs de puissance unitaire raisonnable (module de 7 MVA sous 3,3 kV) ont permis d’accéder à des niveaux de puissance importants couvrant l’ensemble du spec- tre des puissances requises en propulsion marine. Le coût d’acquisition relativement faible du moteur d’induction pousse également vers cette solution, y compris pour des moteurs à vitesse lentes en attaque directe de l’hélice. A partir d’un réseau à courant alternatif, le conver- tisseur d’alimentation du moteur de propulsion com- prend, côté réseau, soit un pont à diodes (redresseur passif) soit un pont à IGBT (redresseur actif ou « Ac- tive Front End ») et, côté moteur, un onduleur à IBGT. Ce type d’alimentation convient indifféremment (Voir Article Convertisseurs et composants associés) : - Aux moteurs asynchrones, solution désormais la plus répandue - Aux moteurs synchrones à aimants permanents pour les entraînements directs en présence de contraintes de compacité ou de discrétion vibratoi- re sévères. - Aux moteurs synchrones conventionnels. Le schéma électrique du navire est parfaitement équivalent à celui des systèmes redresseur- commutateur de courant. Dans le schéma Figure 5, utilisable pour une pro- pulsion par moteur asynchrone entre 3 et 10 MW par ligne d’arbre, la présence de transformateurs en amont des convertisseurs assure l’isolement galvanique et minimise la pollution harmonique sur le réseau en créant une réaction de 24 impulsions en cas de fonc- tionnement sur 2 moteurs et de 12 impulsions en cas de fonctionnement sur un moteur unique. Dans le cas des redresseurs à diodes, le freinage dynamique de la ligne d’arbre s’effectuera dans des résistances de freinage à connecter au bus continu des convertisseurs. +7.5° -22.5° +22.5° -7.5° Starboard side propulsion system Port side propulsion system 6.6KV network 6600V / 2x1200V 6600V / 2x1200V M 4 Y Port mot M 4 Y STB mot 6 6 6 6 Figure 5 : Schéma de propulsion avec redresseur à diodes côté réseau Comme dans la solution redresseur- onduleur à thy- ristors, une structure double étoile est également pro- posée pour des raisons de redondance et de modularité des convertisseurs. Cependant, l’alimentation de type source de tension va imposer des contraintes de con- ception au niveau du bobinage afin de minimiser le couplage magnétique entre étoiles et de réduire ainsi l’amplitude des courants harmoniques stator. On con- conseille généralement de maintenir les enroulements étoile en phase afin d’annuler les courants de circula- tion, surtout dans le cas d’une commande MLI (réfé- rences tension et porteuses en phase). L’utilisation de convertisseurs avec «Active Front End » (redresseur à IGBT côté réseau) facilite la dépol- lution harmonique du réseau et autorise, éventuelle- ment, le renvoi de l’énergie de freinage ligne d’arbre sur ce réseau. Dans la Figure 6, la segmentation de puissance est présente à la fois au niveau bobinage moteur (4 étoiles en phase) et module convertisseur (un module par étoile), ce qui accroît la redondance globale et permet l’utilisation de convertisseurs unitaires de puissance réduite et donc plus performants en qualité de forme d’onde de courant. Ce schéma peut convenir à une gamme de puissan- ce très étendue. Des inductances de découplage sont prévues en amont des modules convertisseurs pour permettre leur marche en parallèle et les transforma- teurs, à simple secondaire, autorisent l’optimisation économique des variateurs, en plus des multiples ap- ports déjà mentionnés. Figure 6 : Propulsion avec redresseur actif côté réseau Nous n’avons présenté ici que les associations ma- chine –convertisseurs de tension du type triphasé ou multi-triphasé. D’autres schémas sont également utili- sés avec des moteurs asynchrones ou synchrones à aimant à grand nombre de phases indépendantes ali- mentées séparément par des ponts en H à IGBT. L’objectif réside alors dans la recherche d’une très grande qualité de la conversion électromagnétique du couple, tout en accroissant la tolérance aux défauts. d) Propulsion hybride mécanique- électrique Afin de combiner les apports de la propulsion élec- trique à la simplicité d’une propulsion mécanique conventionnelle, de nombreux développements ont vu le jour, donnant lieu à un grand éventail d’architectures propulsives7 . Celles- ci mettent en jeu des moteurs électriques lents montés directement sur la ligne d’arbre d’hélice ou rapides montés sur une entrée d’un coupleur- réducteur et en parallèle avec un moteur thermique (moteur Diesel ou Turbine à Gaz) Figure 7 : Architecture hybride avec moteur électrique rapide Ces architectures hybrides sont particulièrement in- téressantes pour la propulsion de navires soumis à des régimes de marche très variés. Cette disposition permet également de diminuer les émissions nocives à l’approche des côtes (notamment dans le cas d’une alimentation à partir d’un stockage d’énergie type bat- terie ou supercondensateur) et d’accroître la sûreté de fonctionnement des grands navires marchands par la présence d’un système de propulsion auxiliaire de secours. 6.6KV/60Hz network 440V distr network Port side propulsion transformer set Starboard side propulsion transformer set 6600V / 690V 2500KVA 9% EPM1 EPM2 6600V / 690V Line reactor cubicle Starboard side propulsion converter Port side propulsion converter PWM filter 33 33 33 33 STB Distr TR Port Distr TR 33 33 33 33 ADiesel ADiesel ADiesel ADiesel M 4 Y M 4 Y Le fonctionnement de l’ensemble est le suivant : - Aux basses et moyennes allures du navire, mise en œuvre de la seule propulsion électrique (marche économique ou silencieuse) - Aux fortes allures, activation de la machine ther- mique de propulsion. Le moteur électrique peut être maintenu en fonctionnement en parallèle avec cette machine afin de fournir une puissance d’appoint quasi- constante, au plus égale à la puis- sance correspondant à la vitesse de base (la vitesse de base correspond au couple de définition du mo- teur électrique. On parle alors de disposition CO- DLAG ou CODLAD, Combined Diesel Electric And Gas/Diesel) Ce concept permet notamment de ne dimensionner l’ensemble du système énergie- propulsion électrique que pour une faible fraction de la puissance propulsive totale (courbe d’hélice en kN3 : voir premier article, § 7 Voir aussi, sur ce même sujet, le premier article « Les enjeux et les con- traintes », § 2.b.2.2. 2.b.1 ) ce qui réduit la masse totale embarquée de façon significative (groupes électrogènes, tableaux électri- ques et moteurs électriques) La profondeur de la plage de fonctionnement en mode combiné thermique- électrique, à puissance cons- tante du système électrique, est de l’ordre de 1 à 2, ce qui autorise l’utilisation de tout type de machine (asyn- chrone, synchrone bobiné ou à aimants permanents). Dans ce dernier cas, le défluxage de la machine à ai- mants peut être obtenu grâce à la composante directe du courant stator. Dans tous ces équipements propulsifs, qu’ils soient à propulsion entièrement électrique ou à propulsion hybride, l’inversion de sens de rotation de la ligne d’arbre peut être aisément effectuée, jusqu’aux allures élevées, par l’intermédiaire du seul moteur électrique, ce qui autorise des hélices à pas fixe et donc représente un réel atout pour le coût du propulseur, pour la robus- tesse de l’équipement et pour la manœuvrabilité du navire. De nombreux navires bénéficient aujourd’hui de ce type de disposition. Le schéma Figure 8 représente un exemple d’architecture de propulsion hybride composée d’une turbine à gaz (TAG) de 25 MW environ entraînant les deux lignes d’arbre via un réducteur de vitesse et de deux moteurs électriques lents à attaque directe d’une puissance de l’ordre de 3 MW chacun à 90 tr/mn. Ces moteurs peuvent assurer un fonctionnement à puissan- ce constante, en association avec la TAG entre la vites- se de base de 90 tr/mn et 180 tr/mn. Figure 8 : Exemple de propulsion combinée avec TAG et moteurs électriques lents En mode propulsion mécanique seule en route libre, l’option existe d’utiliser le moteur électrique en « générateur attelé », permettant ainsi l’arrêt complet des groupes électrogènes. Ceci suppose bien entendu l’utilisation de convertisseurs MLI réversibles en éner- gie, c'est-à-dire de structure IGBT- IGBT8 (voir Arti- cle convertisseurs et composants associés) 6. Quelques perspectives d’avenir Les axes de développement dans le « navire électri- que » s’orientent vers des domaines technologiques très variés. On peut citer ; - La production efficace de l’énergie (énergies de substitution, piles à combustible, énergies hybri- des) - Le stockage de cette énergie (batteries, super- condensateurs, bobines supraconductrices etc.) - La distribution et la gestion de l’énergie (réseau en courant continu, raccordement à quai des navires, réseaux intelligents) - L’efficacité des propulseurs (« pods », pompe- hélice, intégration mécanique hélice- moteur, tech- nologies à entraînement circonférentiel) - Les architectures propulsives optimisées (système hybride, mise en œuvre de composants supra- conducteurs à Haute Température Critique HTC) Nous limiterons notre exposé à quelques dévelop- pements en cours dans le domaine des machines tour- nantes et des réseaux. a) Les machines électriques L’utilisation de machines électriques contribue for- tement à la diminution de l’impact environnemental des navires, d’une part, par une réduction de la consommation et d’autre part, par la réduction des émissions de toute nature (bruit rayonné dans l’eau, gaz à effet de serre) Nous citerons ici deux voies de développement: - Les machines supra-conductrices HTC qui sont des candidats aux fonctions de propulsion électri- que embarquée du fait de leur forte densité de puissance et de leur rendement présumé - Les propulseurs à entraînement circonférentiel 6.a.1. Les machines supraconductrices Les performances des machines classiques sont li- mitées par les caractéristiques des matériaux magnéti- ques (saturation des circuits), des matériaux conduc- teurs, des matériaux isolants (température) et par l’évacuation des pertes. 8 On pourrait également envisager des convertisseurs composés d’onduleurs MLI-IGBT) et de redresseurs actifs à thyristors, mais dans ce cas le renvoi d’harmoniques et d’énergie réactive sur le réseau poserait de sérieux problèmes. Seuls, les supraconducteurs sont susceptibles d’apporter une réelle rupture technologique avec un bond en avant dans la compacité des machines. Les propriétés physiques de l’état supraconducteur, dans lequel se trouvent certains matériaux à très basse tem- pérature, concernent principalement l’absence de pertes dans un environnement électromagnétique constant jusqu’ à des champs magnétiques et des densités de courant élevés pourvu que la température soit inférieu- re à une certaine valeur critique. Aujourd’hui, des ma- tériaux nouveaux à haute température critique (oxydes de cuivre supraconducteurs HTC, Haute Température Critique, entre 30°K et 70°K, par opposition aux pre- miers matériaux dits BTC, basse température critique aux environs de 4°K, température de l’hélium liquide) et une cryogénie devenue bien plus simple peuvent rendre de nombreuses applications attractives dans le domaine de la propulsion marine et des éoliennes (ma- chines de fort couple) Les machines tournantes concernées sont essentiel- lement les machines synchrones dans lesquelles le supraconducteur est utilisé seulement pour l’enroulement inducteur (utilisant du courant continu). Il est en effet encore très difficile de concevoir un in- duit supraconducteur (enroulement polyphasé parcouru par des courants alternatifs) du fait des pertes en cou- rant alternatif trop élevées, même si cette option reste intéressante. Afin de limiter les pertes fer créées au stator par la valeur élevée de l’induction magnétique dans l’entrefer, on utilise souvent une structure stator dite « à air » dans laquelle la couronne et les dents ferroma- gnétiques dont remplacées par un matériau amagnéti- que et non conducteur. Grâce au fort accroissement du champ inducteur permis par les hautes densités de courant rotor et la diminution de masse de fer utilisée, le couple massique d’une telle machine peut être ainsi de 1,5 à 2 fois supé- rieures à celui d’une machine conventionnelle au-delà d’une certaine taille. Ces technologies on reçu des débuts de validation sous forme de prototypes dédiés à la propulsion élec- trique des navires, notamment aux USA (réalisation d’un moteur de 36 MW à 120 tr/mn par AMSC), au Japon et en Europe. Toutefois, le coût élevé des fils supraconducteurs (fils de première et de seconde génération) et l’absence d’une offre industrielle significative joints à des diffi- cultés techniques (transfert du couple à température ambiante, temps de mise en froid) ne permettent guère d’envisager des applications industrielles à court terme. 6.a.2. Les propulseurs à entraînement cir- conférentiel Rappelons tout d’abord que l’hélice restera pour longtemps encore le propulseur naval privilégié. L’intégration d’une machine synchrone à aimants (voir Article Deuxième partie) à une hélice (terminolo- gie anglo-saxonne « Rim driven ») peut apporter des avantages significatifs en réduction de masse (gain de l’ordre de 30% par rapport à un propulseur conven- tionnel en nacelle et en amélioration du rendement hydrodynamique. Figure 9 : Prototype de propulseur RIM – JEUMONT Electric Dans cette architecture (cf. Figure 9), les parties ac- tives de la machine électrique sont ainsi placées en périphérie d’hélice (rotor à aimants permanents) et dans une fine tuyère (le stator canalise le fluide) Ce concept d’entraînement représente un excellent compromis entre l’architecture naturelle de la machine électrique lente (dont les parties actives se situent sur un grand diamètre) et les exigences d’intégration, et permet l’optimisation de l’utilisation des matériaux de l’ensemble ainsi constitué. L’élaboration d’un modèle de dimensionnement couplé multi- physique (hydrodynamique, électroma- gnétique et thermique) permet alors de concevoir un propulseur procurant soit un rendement global optimal soit une masse rotor minimale. (La vitesse optimale de rotation du système machine- hélice pouvant différer de la vitesse optimale de rotation de l’hélice) b) Les réseaux électriques à courant continu Comme nous l’avons vu au paragraphe précédent, les systèmes usuels de réseaux électriques utilisent le courant électrique triphasé. L’intérêt essentiel de ce mode de distribution repose sur l’utilisation de machi- nes triphasées et sur la souplesse apportée par les trans- formateurs.. Cependant, à bord des navires, la vitesse variable se généralise dans le but d’optimiser soit la production soit l’exploitation. Les variateurs de vitesse sont au- jourd’hui majoritairement de type indirect en tension, comprenant ainsi un convertisseur réseau et un conver- tisseur machine, séparés par un élément de découplage ou liaison continue séparant des entités fonctionnant à des fréquences différentes (cf Article deuxième partie Convertisseurs et composants associés) Il est donc évident qu’une alimentation continue permettrait d’éliminer le convertisseur réseau. Par ailleurs, il con- vient d’évoquer la facilité de stockage de l’énergie en courant continu. A cet égard, la batterie, source d’énergie principale à bord des sous- marins conven- tionnels, a imposé naturellement ce type de réseau sur ces navires (en BT en dessous de 1000V) 6.b.1. Intérêts fonctionnels et économiques L’amélioration des échanges d’énergie entre les dif- férentes motorisations sans pollution des réseaux alter- natifs est une motivation essentielle. Il est ainsi possi- ble, d’une part de réduire considérablement les coûts de dépollution des réseaux et, d’autre part, de prendre en compte le foisonnement de charges dans le dimension- nement du redresseur. Par ailleurs, la fiabilisation des fonctions énergie- propulsion peut être aisément renforcée par l’introduction d’un stockage d’énergie par batterie ou supercondensateur. La réduction de consommation d’énergie réactive présente de plus un avantage important pour le dimen- sionnement de la centrale d’énergie (réduction de la masse des alternateurs du fait d’un facteur de puissance supérieur) et la réduction des coûts de fonctionnement. 6.b.2. Intérêts pour l’architecte naval Les machines électriques tournantes (moteurs et géné- rateurs) n’étant plus contraintes par l’imposition d’une fréquence de fonctionnement fixée à 50 ou 60 Hz peu- vent être optimisées en termes de performances globa- les. Fréquences et vitesses de rotation des machines peuvent être accrues au bénéfice du bilan des masses embarquées. 6.b.3. Système de génération d’énergie en courant continu La solution usuelle consiste à utiliser des alterna- teurs conventionnels simple ou double étoile associés à des redresseurs à diodes, la tension continue étant ré- glée par l’excitation de l’alternateur. La dynamique de contrôle est lente mais suffisante dans beaucoup d’applications (charge batterie) L’utilisation de thyristors permet un contrôle plus rapide de la tension. Dans les applications où l’on recherche une compa- cité élevée, on peut envisager une machine à aimants permanents associée à un redresseur actif à commuta- tion forcée à IGBT assurant le réglage de la tension continue avec contrôle actif du facteur de puissance et une absorption sinusoïdale du courant machine. Réglage de la tension continue par l ’excitation Réglage de la tension de sortie des alternateurs par l ’excitation a)- b)- Figure 10 : Génération d’énergie en courant continu Dans la variante a) de la Figure 11 ci-dessous, toute la puissance transite par le pont IGBT (solution utilisée pour des groupes électrogènes de navire de 1,7 MW à 1800 tr/mn débitant sur un réseau courant continu de 750V) La variante b) montre une autre voie consistant à corriger les imperfections d’un redresseur à diodes par un filtre actif dont le dimensionnement est de l’ordre de 50% de celui du pont de diodes. En conclusion, l’intérêt d’une distribution en cou- rant continu réside donc dans l’allégement des maté- riels et une adaptation naturelle aux dispositifs de stoc- kage de l’énergie. Toutefois, généraliser la distribution en courant continu à bord d’un navire reste difficilement envisa- geable à ce jour, et déterminer, selon le type de navire, par familles de consommateurs de puissance, des sous- réseaux continus peut permettre de réduire les masses et d’organiser des stockages répartis de l’énergie. G ENERATEUR a) GENERATEUR b) Filtre actif . Figure 11 : Génération d’énergie en courant continu avec machine à aimants permanents En effet, de nombreuses difficultés subsistent sur ce type de réseau, telles que : - L’absence d’isolation galvanique entre actionneurs - L’absence d’une offre industrielle sur le marché des organes de protection correspondant à des ten- sions normalisées en courant continu (5kV ou plus en grande puissance) 7. Conclusion Les possibilités offertes par la production et la dis- tribution intégrées de l’énergie électrique à bord con- cernent les principales caractéristiques technico- opéra- tionnelles : - Une ingénierie réduite (dimensions des arbres, meilleur arrangement architectural au bénéfice des charges utiles, possibilité de choisir des hélices à pas fixe… ) - En opérations, souplesse, redondance et efficacité accrue et un impact environnemental réduit dans les différentes phases de fonctionnement (en route libre, en approche des ports et au mouillage) - Pour les navires militaires, une capacité de survie améliorée et une disponibilité de puissance notable favorisant l’adoption de systèmes d’armes avan- cés. Toutefois, ces avantages indiscutables ne doivent pas masquer les problèmes posés par la multiplication des tableaux électriques et des câbles de puissance et leur incidence sur la sécurité du personnel et la forma- tion. La conception d’un navire électrique reste un pro- blème complexe nécessitant la maîtrise d’un grand nombre de points, tels que, entre autres : - - la qualité du courant électrique et la compatibilité électromagnétique - - les régimes transitoires et la tenue aux courants de défaut Par ailleurs, le coût d’acquisition plus élevé de la propulsion électrique rend nécessaire la prise en comp- te de critères spécifiques. On peut citer ainsi : - La puissance installée des auxiliaires : plus celle- ci est élevée, plus il est pertinent de mutualiser les moyens de production d’énergie - Le profil d’utilisation du navire : plus la puissance propulsive est variable, plus il est intéressant de fractionner la production d’énergie (donc, propul- sion électrique ou hybride) - Le type d’architecture navale (positionnement dynamique, propulseurs en nacelle etc.) - La non simultanéité des besoins, entre la puissance maximale de propulsion et les auxiliaires Ainsi, la sensibilité à la propulsion électrique des principaux types de navire sera très variable. C’est ainsi que ce type de propulsion est devenu classique pour un certain nombre de navires (voir première par- tie) Cependant, la forte volonté politique actuelle (« Grenelle de la mer ») de s’orienter vers des navires beaucoup moins polluants et plus sûrs orientera indubi- tablement les architectes navals et les chantiers vers les solutions électriques, et on peut tenir pour certain que, dans un proche avenir, de nouvelles catégories de navi- res y auront recours. 8. Bibliographie Parmi les très nombreuses références citons : - Gérard FILLIAU, Alain BONDU, et Laurent MAZODIER : « Le navire tout électrique ”, Techniques de l’ingénieur, traité “ génie élec- trique », articles D5610 (Propulsion et produc- tion d’énergie), D5615 (état de l’art des com- posants), D5620 (évolutions et systèmes de conduite) et D5625 (bibliographie) - 2000 et 2001 - Alain BONDU : « Les réseaux d’énergie dans les navires de surface » : 1ère partie : « les en- jeux et les contraintes » Revue EEEI N° 48, mars 2007, pp.46 à 53 2ème partie : Les convertisseurs et les compo- sants associés » Revue EEEI N° 55, décembre 2008, pp.43 à 53. - Comptes-rendus des symposiums AES (tous les deux ans)

Creative Commons Aucune (Tous droits réservés) Aucune (Tous droits réservés)
contenu protégé  Document accessible sous conditions - vous devez vous connecter ou vous enregistrer pour accéder à ou acquérir ce document.
- Accès libre pour les ayants-droit

L’ESME Sudria partenaire du CONCORDAT GENELEC 2010 L’ESME Sudria a accueilli en janvier 2001 la troisième édition du Concordat GENELEC, LA manifestation du génie électrique en France, congrès organisé tous les 10 ans conjointement par la DGA, le CNRS, et l’Académie des Technologies, et réunissant tous les acteurs de la recherche dans le domaine du Génie Electrique en France, et qui rassemble tous les 10 ans les institutions, les académies, et les industriels du secteur aussi bien civil que militaire. Une quarantaine d’exposés de grande qualité se sont focalisés autour des thèmes : électrotechnique, systèmes et leur gestion, matériaux, électronique de puissance, électrochimie, réseaux et énergies renouvelables. Ce fut l’occasion de dresser un bilan des dernières évolutions dans le monde du génie électrique et d’imaginer les grandes perspectives pour demain. Ce fut également l’occasion pour l’ESME Sudria, école d’ingénieurs depuis 1905 qui a placé depuis l’origine l’énergie électrique au cœur de son dispositif de formation, de montrer son savoir faire, ses laboratoires, et sa conception pluridisciplinaire de la formation d’ingénieurs amenés à concevoir ou exploiter des systèmes complexes. La maîtrise de l’énergie fait en effet appel à toutes les composantes de l’ingénierie parmi lesquelles ont peut citer de manière non exhaustive l’automatique, le traitement du signal, la microinformatique et les réseaux de télécommunication. A l’ESME Sudria, quatre filières de formations, existent dans le domaine du Génie Electrique : ‐  « Génie Electrique » forme les ingénieurs de recherche et développement qui fourniront au monde industriel les produits innovants de demain. Cette Voie d’Expertise est bâtie autour de la théorie des 3 E : Electrotechnique, Electronique de Puissance, et Electrochimie. La solution au problème du stockage de l’énergie électrique est la clé de l’augmentation de la part de l’éolien et du solaire dans le mix énergétique. ‐  « Systèmes Energétiques », forme des ingénieurs dans les trois domaines indissociables que sont la production, le transport et la distribution de l’énergie. Une large place y est faite aux énergies renouvelables, où le solaire et l’éolien occupent une position de choix, sans oublier la filière nucléaire qui est traitée de manière totalement exhaustive, tant en ce qui concerne le cycle de la production depuis l’extraction de la matière première jusqu’au retraitement des déchets, que de manière historique et prospective. C’est dans cette Voie d’Expertise que la notion de « Développement Soutenable » est traitée de la manière la plus approfondie. ‐  « Mécatronique », traite des méthodes les plus sophistiquées de l’Automatique moderne. Outre les transports d’une manière générale, cette Voie d‘Expertise nourrit en ingénieurs le domaine de la robotique, et celui de la cobotique (robotique collaborative), enjeu majeur dans le domaine industriel et face au vieillissement de la population. ‐  « Responsables d’Affaires en Génie Electrique et Climatique » fournit des ingénieurs au monde des grandes entreprises de construction électrique, incluant aussi bien les infrastructures des secteurs tertiaire, industriel, et de l’éclairage, que ceux du transport ferroviaire en particulier avec le développement des lignes à grande vitesse. C’est dans cette Voie d’Expertise que le cadre bâti durable du futur s’exprime au travers de la notion d’efficience énergétique pour les bâtiments existants, avec la perspective de réduire de moitié leur consommation en énergie à l’horizon 2030, et que les notions de bâtiment à Haute Qualité Environnementale, voire à énergie positive sont traités dans leur ensemble.

Creative Commons Aucune (Tous droits réservés) Aucune (Tous droits réservés)
contenu protégé  Document accessible sous conditions - vous devez vous connecter ou vous enregistrer pour accéder à ou acquérir ce document.
- Accès libre pour les ayants-droit

Conversion d’énergie par effets thermoélectriques : un regard sur les matériaux du passé et du présent Bertrand LENOIR et Anne DAUSCHER Institut Jean Lamour, UMR 7198, Ecole Nationale Supérieure des Mines de Nancy 54042 Nancy Cedex Résumé : Les effets thermoélectriques peuvent être exploités avantageusement pour convertir directement l’énergie électrique en énergie thermique par effet Peltier ou, inversement, par effet Seebeck. Nous dressons ici un état de l’art actuel de la thermoélectricité, notamment au niveau des avancées des performances des matériaux, à la fois dans les systèmes de basses dimensions, les nouveaux matériaux à structure cristalline ouverte et /ou complexe et les matériaux massifs nanocomposites ou nanostructurés. Des progrès remarquables ont été obtenus dans les laboratoires ouvrant de belles perspectives d’applications pour les années à venir. 1. Conversion d’énergie par effets thermoélectriques La thermoélectricité permet de convertir directement de la chaleur en électricité en exploitant l’effet Seebeck et inversement, grâce à l’effet Peltier, de transformer de l’énergie électrique pour produire du froid ou du chaud, comme illustré dans la figure 1. La plus petite structure qui permet cette conversion d’énergie est un couple de deux matériaux semi-conducteurs, l’un de type n et l’autre de type p, reliés entre eux par une connexion métallique. Lorsque la partie supérieure est mise par exemple au contact d’une source chaude, l’on observe l’apparition d’une tension aux bornes du couple qui est proportionnelle à la différence de température appliquée ainsi qu’au pouvoir thermoélectrique  (ou coefficient Seebeck) du couple. On a donc un générateur qui va pouvoir débiter un courant si le circuit est fermé sur une résistance de charge (Fig. 1a). Si par contre l’on connecte le couple à une source de courant extérieure, les porteurs de charge vont se déplacer dans chaque branche selon le sens indiqué à la figure 1b. En quittant la jonction métallique supérieure ils pompent de l’énergie au réseau alors qu’ils en cèdent à la jonction inférieure. Ainsi, la jonction supérieure va se refroidir et la jonction inférieure s’échauffer. En mettant en contact un système extérieur soit avec la partie supérieure soit avec la partie inférieure, on pourra ainsi soit abaisser soit augmenter sa température, respectivement. Un module thermoélectrique résulte de l’assemblage de plusieurs couples unitaires montés électriquement en série et thermiquement en parallèle (Fig. 2). L’isolation électrique est assurée en général par une plaque en céramique. Les modules thermoélectriques sont des dispositifs à l’état solide, sans partie mobile (silence, pas de vibration), ce qui leur confère fiabilité et absence de maintenance. Figure 1 : Thermocouple n et p configuré en mode génération d’énergie (a) et en mode réfrigération (b) Ils sont également compacts (faible taille) et peuvent fonctionner dans n’importe quelle position. D’un point de vue environnemental, ils ne dégagent aucun gaz nocif et peuvent permettre de récupérer une partie des énormes quantités de chaleur perdue (chaleur humaine, gaz d’échappement des véhicules, …) pour la transformer en énergie électrique utile. Figure 2 : Représentation schématique d’un module thermoélectrique Pour avoir des rendements de conversion élevés, il faut identifier des matériaux qui possèdent un fort pouvoir thermoélectrique (), qui soient bons conducteurs de l’électricité (faible résistivité électrique ) et qui présentent une faible conductivité thermique (). Le facteur à optimiser à une température absolue donnée T est le facteur de mérite adimensionnel ZT défini par ZT = 2 T/. L’optimisation du facteur ZT n’est pas une tâche facile car les trois coefficients qui le définissent sont interdépendants via la concentration des porteurs de charge. D’après les théories classiques de l’état solide, le meilleur compromis est obtenu pour des semiconducteurs fortement dopés dont la concentration de porteurs est optimisée et dont la mobilité et la masse effective des porteurs de charge est élevée. Simultanément, le matériau doit présenter une maille cristalline complexe ayant un grand nombre d’atomes et une masse atomique moyenne élevée de manière à ce que la conductivité thermique soit faible. 2. Matériaux conventionnels Sur la base de ces critères, des matériaux ont émergé à partir des années 1950 parmi lesquels on peut retenir les alliages à base de tellurure de bismuth Bi2Te3, les composés à base de tellurure de plomb PbTe et les alliages Si-Ge. Les technologies thermoélectriques actuelles sont toujours encore basées sur ces matériaux. Chacune de ces familles de matériau opère dans une gamme de température différente et relativement limitée (Fig. 3). Ainsi, les alliages à base de Bi2Te3 sont intéressants pour des applications au voisinage de la température ambiante. Au delà de 450 K, ils ne sont plus stables chimiquement et il faut se tourner vers les alliages à base de PbTe. A encore plus haute température, ce sont les alliages Si-Ge qui sont utilisés, ceux-ci pouvant travailler jusqu’à 1300 K sans dégradation notable. Malgré plus de 50 ans d’effort de recherche, le facteur ZT des matériaux étudiés est resté limité à l’unité ce qui conduit à des rendements de conversion modestes de l’ordre de 5-8 %. Pour ces raisons, seules des niches technologiques bénéficient actuellement de la thermoélectricité. En réfrigération, les applications concernent essentiellement le refroidissement de composants électroniques ou électro-optiques et le refroidissement de petits volumes comme les réfrigérateurs de camping ou les glacières médicales. Plus récemment, la technologie Peltier a fait son entrée dans le domaine de l’automobile avec la climatisation de confort/chauffage des sièges de véhicules (société Amerigon aux Etats-Unis). En génération d’électricité, les principales applications concernent l’alimentation électrique (unités de puissance autonome) dans des endroits hostiles à l’homme comme l’alimentation de stations météos ou de relais de communication. La technologie thermoélectrique est aussi exploitée dans le domaine des missions spatiales avec les RTGs (radioisotope thermoelectric generators) qui servent à alimenter les sondes lointaines et ce depuis 1961. Dans ce cas, la source chaude est constituée d’un combustible nucléaire à base de plutonium 238 Pu. Ces RTGs sont extrêmement fiables puisque certains fonctionnent depuis plus de 30 ans sans aucun problème. Figure 3 : Facteur de mérite en fonction de la température pour les semiconducteurs conventionnels de type n et p 3. Nouvelles orientations Au début des années 1990, un regain d’intérêt pour la thermoélectricité a vu le jour aux Etats-Unis et au Japon suite aux problèmes environnementaux liés aux gaz à effet de serre et à la baisse des ressources en énergie fossile. De nouvelles idées et de nouveaux concepts ont été proposés avec pour objectif d’identifier de nouveaux matériaux dont les facteurs de mérite seraient largement supérieurs à l’unité afin de surpasser les performances des matériaux conventionnels. Deux axes de recherche ont été principalement explorés : l’identification de nouveaux matériaux massifs et la nanostructuration par le biais, soit d’une réduction de la dimensionnalité (couches minces, fils et plots quantiques), soit de l’incorporation ou de la précipitation naturelle de nanoparticules (matériaux massifs nanocomposites), soit de la réduction de la taille des grains de la matrice (matériaux massifs nanostructurés). Le premier axe de recherche a porté sur la recherche de matériaux ayant des structures cristallines ouvertes et/ou complexes. Ces travaux font suite à la proposition, en 1995, de Slack de rechercher des matériaux répondant au concept de «Phonon Glass Electron Crystal” (PGEC), matériaux pour lesquels il existerait un découplage entre les propriétés électriques et les propriétés thermiques. L’idée est de découvrir un matériau dans lequel le libre parcours moyen des phonons est faible si bien que sa conductivité thermique serait similaire à celle d’un verre alors que le libre parcours moyen des électrons est élevé de manière à ce que les porteurs de charge possèdent une forte mobilité comme dans les semiconducteurs. Dans cette optique, les matériaux dits à cage ont reçu une attention particulière. Ce sont des matériaux possédant des cavités naturelles dans leur structure dans lesquelles réside un atome, ou dans lesquelles on peut insérer un atome. Dans les deux cas de figure, l’atome dans la cage est faiblement lié à ses proches voisins. Ce faible couplage introduit des mécanismes de diffusion des phonons supplémentaires, particulièrement efficaces pour réduire la conductivité thermique sans pour autant dégrader les propriétés électriques. Parmi les matériaux cages intéressants pour la thermoélectricité, on peut citer les clathrates, semiconducteurs de type n ou p (à base de Ba, Ga et Ge (ou Si), Fig. 4a) ou encore les skutterudites à base de CoSb3 (Fig. 4b), semiconducteurs de type n ou p, qui sont intéressants pour des applications en génération d’électricité entre 400 et 800 K avec des facteurs de mérite ZT maximum de l’ordre de 1,2 – 1,4. a b Figure 4 : Exemples de structures cristallines ouvertes intéressantes en thermoélectricité. a) Clathrate Ba8Ga16Ge30. Les atomes de Ga et Ge (bleu) forment l’ossature de la maille et les atomes de Ba occupent deux types de polyèdres : dodecaèdres pentagonals (violet), tétradecaèdres (orange). b) Skutterudite CoSb3. Les atomes de Co (bleu) sont au centre des octaèdres formés par les atomes de Sb (vert). Les cavités sont ici remplies par des atomes (rouge) pour une meilleure visualisation. De nombreux travaux ont aussi porté sur des matériaux possédant une structure cristalline complexe, notamment les phases de Zintl. Parmi les composés qui présentent des propriétés thermoélectriques attractives, on peut citer les matériaux de type p Zn4Sb3 (Fig. 5a), intéressants au voisinage de 400-600 K (Fig. 5c) et les matériaux à base de Yb14MnSb11 (Fig. 5b), également de type p, ceux-ci présentant des performances deux fois plus importantes que celles du matériau de référence Si-Ge au voisinage de 1000 K (Fig. 5c). a b Figure 5 : Structures cristallines complexes de phases de Zintl. a) -Zn4Sb3, b) Yb14MnSb11 et c) leurs facteurs de mérite ZT comparés à ceux des matériaux conventionnels opérant dans la même gamme de température La réduction de la dimension, initiée d’abord théoriquement dans les années 1990, puis démontrée expérimentalement, est également une voie de recherche extrêmement prometteuse pour augmenter le facteur de mérite adimensionnel ZT. En réduisant la taille des matériaux à des échelles nanométriques sous forme de puits quantiques (2D), de fils quantiques (1D) ou encore de plots quantiques (0D), il est possible d’augmenter le facteur de puissance (défini par 2 / par confinement des porteurs de charge et de réduire la conductivité thermique grâce à la diffusion des phonons aux interfaces. Des résultats sans précédents ont été obtenus dans des super-réseaux de matériaux conventionnels à base de PbTe (Fig. 6a) ou de Bi2Te3 (Fig. 6b) avec des facteurs de mérite ZT compris entre 2 et 3 et ce, grâce à une forte réduction de la conductivité thermique. La préparation de silicium sous forme de fils minces conduit à une réduction de deux ordres de grandeur de sa conductivité thermique, résultant en une amélioration spectaculaire du facteur ZT qui avoisine l’unité à 200 K et 0,6 à 300 K. Figure 6 : Facteur de mérite pour des systèmes à deux dimensions de matériaux conventionnels. a) Superréseau à plots quantiques PbSe0,98Te0,02/PbTe, b) Superréseau Bi2Te3/Sb2Te3 Figure 7 : Effet de la nanostructuration sur le facteur ZT pour des matériaux massifs conventionnels Ces excellents résultats sont à l’origine des travaux actuels sur les matériaux nanostructurés. L’idée est de voir s’il est possible de bénéficier d’une réduction de conductivité thermique comme dans les structures artificielles dans un matériau massif contenant des motifs nanométriques en réduisant par exemple la taille des grains ou en dispersant des nanoparticules au sein de la matrice, en exploitant des procédés d’élaboration compatibles avec une production de masse pour les systèmes 3D (moins onéreux et plus faciles à mettre en œuvre). Ce domaine de recherche est actuellement en pleine évolution et des avancées notables ont déjà été réalisées grâce à la nanostructuration de matériaux conventionnels comme le souligne la figure 7. Les résultats les plus spectaculaires ont cependant été obtenus avec de nouveaux chalcogènes à base de plomb (Fig. 8). Dans ces matériaux, des précipités cohérents nanométriques se forment naturellement au sein de la matrice qui diffusent efficacement les phonons. Les performances obtenues dans ces matériaux sont remarquables et sont les plus élevées que l’on ait jamais observé dans des matériaux massifs. Figure 8 : Evolution du facteur ZT avec la température pour de nouveaux matériaux chalcogènes (LAST-18 : AgPbmSbTe2+m, LASTT : AgPbm SnSbTe2+m, PLAT-20 : KPbmSbTe2+m, SALT-20 : NaPbmSbTe2+m). L’image haute résolution de la microstructure montre l’existence de phases nanométriques riches en AgSb et semi-cohérente avec la matrice qui seraient responsables de la diminution conséquente de la conductivité thermique. La majorité des avancées qui ont été observées dans les matériaux nanostructurés résulte de l’effet bénéfique des interfaces, celles-ci permettant de réduire significativement la conductivité thermique. Elles peuvent aussi, dans certaines conditions, augmenter le pouvoir thermoélectrique par filtrage d’énergie des porteurs de charge ou par effet de taille quantique. Des améliorations en terme de ZT ne sont possibles dans les matériaux nanostructurés que si la diffusion des phonons aux interfaces est plus importante que celle des électrons. La nature de l’interface (cohérente ou incohérente), sa composition et sa morphologie jouent un rôle sur la diffusion des phonons et des électrons mais le détail des mécanismes d’interaction n’est encore compris que de manière qualitative. 4. Conclusion Des progrès significatifs en terme de facteur ZT (60 – 200% d’amélioration) ont été réalisés ces quinze dernières années avec la découverte de nouveaux matériaux thermoélectriques, comme l’atteste la figure 9. La plupart des matériaux avancés ne sont encore que des matériaux de laboratoire, avec un potentiel de conversion de 12 – 20 %. Le challenge réside à présent dans les moyens d’intégrer ces nouveaux matériaux dans des modules thermoélectriques pour élargir le champ des applications actuelles. La technologie thermoélectrique peut jouer un rôle dans la climatisation (automobile, bâtiment,…) mais aussi dans la génération d’électricité en permettant la valorisation des énormes quantités de chaleur perdue perdues quotidiennement dans notre environnement. Des efforts de recherche et de développement importants sont, par exemple, déployés pour tenter d’intégrer des générateurs thermoélectriques sur la ligne du pot d’échappement des voitures ou des camions avec pour objectif de diminuer la consommation de carburant de l’ordre de 10 %. Figure 9 : Evolution du facteur ZT durant les 60 dernières années 5. Articles de référence en langue française [1] "Thermoélectricité : des principes aux applications ", B. Lenoir, J.-P. Michenaud, A. Dauscher, dans Techniques de l’Ingénieur, Traité Constantes Physico-chimiques, K-730-1-19 (2010) [2] "Introduction à la thermoélectricité", B. Lenoir, J.-P. Michenaud, A. Dauscher, dans " Conversion d’énergie par effets thermoélectriques : théorie, matériaux et applications", Editeurs : S. Hébert, B. Lenoir, C. Simon, Editions INPL, ISBN 978-2- 8147-0000-0, 3-13 (2009)

Creative Commons Aucune (Tous droits réservés) Aucune (Tous droits réservés)
contenu protégé  Document accessible sous conditions - vous devez vous connecter ou vous enregistrer pour accéder à ou acquérir ce document.
- Accès libre pour les ayants-droit

Les enjeux des composants de puissance SiC Grégory GROSSET IBS ZI Peynier/Rousset Rue gaston Imbert prolongée 13790 Peynier www.ion-beam-services.com Résumé : Le carbure de silicium (SiC) est un semi-conducteur à large bande d’énergie interdite qui présente des propriétés physiques et électriques supérieures à celles du silicium pour les composants de puissances. L’objectif de l’utilisation de ces nouveaux composants est l’amélioration des performances et une réduction de l’encombrement des systèmes Quelles sont les applications des composants hautes tensions en SiC ? Quelles sont les secteurs visés par ces applications ? 1. IBS : Qui sommes nous ? Aujourd’hui IBS est le principal fournisseur Européen de l’étape de dopage des composants SiC. IBS a développé dans le cadre du programme Européen ESCAPEE un outil de simulation spécifique pour le dopage du SiC par implantation et a optimisé le procédé de fabrication associé. IBS dispose d’une ligne de fabrication en salle blanche qui lui permet de fabriquer des composants complets sur SiC. Dans le cadre de contrat DGA, en collaboration avec le laboratoire CEGELY (maintenant AMPERE) et l’ISL, IBS a réalisé la fabrication de diode PiN de 5kV et de thyristor gravé et Planar de 3kV. Dans le cadre du Projet Européen ESCAPEE, elle a participé en collaboration avec le CNM à la fabrication de diodes Schottky et de MOSFET de 1.2 et 3.3 kV. IBS en collaboration avec le Laboratoire TECSEN de l’université de Marseille sont en train de mettre en route un four de recuit haute température compatible avec des substrats SiC de 100 mm (unique en Europe) IBS est déjà présent sur le marché des composants de puissance haute tension en Silicium pour applications de niches réalisation d’un MOS 2500V, (record mondial en 2000), d’un transistor bipolaire 800V à faible chute de tension, d’un IGBT 3kV, de diodes 4kV) 2. Pourquoi le SiC ? Un peu d’histoire… : Les premières mentions du carbure de silicium (SiC) remontent à 1824, cette découverte est attribuée à Berzelius. Sur Terre, ce matériau n’existe pas sous forme naturelle, la plupart des échantillons naturels sont d’origine extra-terrestre, apportés par des météorites. La première synthèse de cristaux SiC a été réalisée par Acheson en 1892. Les principales applications de nos jours sont encore dans les machines outils de découpe qui mettent en avant les propriétés mécaniques du SiC. Sous sa forme mono-cristalline, le SiC est un semi-conducteur à large bande interdite. La société américaine CREE, aujourd’hui leader mondial de la fourniture de substrats de SiC monocristallin, a vu le jour en 1987. La plupart des échantillons utilisés dans la recherche mondiale sur le SiC proviennent de cette dernière. Plus récemment, de nouveaux fabricants sont apparus comme SiCrystal. 3. Les enjeux des composants de puissance SiC Les composants de puissance constituent un élément clé dans la chaine de conversion de puissance : • Ils permettent de contrôler avec précision le couple intensité-tension pour les systèmes de génération, stockage, gestion d’énergie électrique, • Ils s’intègrent dans une chaîne comportant des moteurs et/ou alternateurs, du stockage d’énergie et du contrôle-commande destiné à réguler l’ensemble • Ils sont caractérisés par leur tenue en tension, en courant, en température et par les pertes qu’ils engendrent. Les applications des composants de puissance se découpent de la manière suivante : • Les composants pour applications basses tensions (essentiellement stockage et adaptation des énergies renouvelables) ; • Les composants pour applications hautes tensions et hauts températures. Les applications concernées sont l’aérospatiale, l’aéronautique civile, la Défense (aéronautique et propulsion navale), le transport ferroviaire, les réseaux de distribution électrique, l’automobile, la domotique, l’exploitation pétrolière, la propulsion nucléaire. Dans le cas des applications hautes tensions et hautes températures, l’entrée du SiC (carbure de silicium monocristallin) sur le marché des composants de puissance constitue une rupture technologique dont la pré-industrialisation est déjà en cours. En effet, certains types de composants qui ne pouvaient être envisagés avec le silicium deviennent réalisables. De sérieux verrous technologiques liés au SiC sont cependant encore à lever afin de pouvoir fonctionner dans des conditions opérationnelles exigeantes. Les propriétés suivantes sont exigées: • Tenue à de forts rapports di/dt, protections périphériques et passivation ; • Tenue aux hautes températures (de 200 à 300°C sur le court/moyen terme, puis de 400 à 600°C) ; • Tenue aux hautes tensions (1.2, 10, 20 puis 30 kV. Actuellement, aucun composant SiC 6.5kV n’est annoncé en commercialisation). Forte de ces propriétés, la technologie SiC apportera des gains de performance significatifs surclassant les différentes familles de produits actuellement commercialisées. Pour des raisons stratégiques, de nombreux industriels français sont donc fortement intéressés par un accès à ce type de composants. 4. Etat de l’art sur le SiC Depuis quelques années (2001) les composants de puissance en carbure de silicium (SiC) ont commencé à être commercialisés. En particulier les diodes Schottky en SiC correspondent aujourd'hui à un marché significatif. De plus des transistors JFET de puissance en SiC sont disponibles sous forme d'échantillons industriels. Ces deux derniers composants permettent de concevoir la plupart des architectures de convertisseurs de puissance jusqu’à 2-3 kV. Il faut toutefois souligner que 2 catégories d’applications vont tirer avantage de l'utilisation de composants SiC : • Une première catégorie d'applications correspond à l'amélioration des performances, notamment en termes d'efficacité énergétique, voire de réduction de la masse et du volume des convertisseurs des systèmes embarqués. • La seconde catégorie correspond aux applications pour lesquelles les composants en silicium ne sont pas utilisables : les applications hautes températures ou à hautes tensions. Malheureusement, l’utilisation des composants en SiC ne consiste pas en une simple substitution de composant en silicium par des composants en SiC. Une conception nouvelle des convertisseurs utilisant des composants en carbure de silicium s'avère nécessaire. Les propriétés physiques des composants en SiC en sont à l’origine. Dans la suite de ce document, nous nous intéresserons à la comparaison des propriétés des composants en SiC par rapport aux composants en silicium. Les 3 principaux polytypes de SiC ainsi que le GaN sont mentionnés dans les figures. Tous ces matériaux sont des semi-conducteurs à grand gap, même si aujourd'hui deux seulement émergent : le SiC-4H et le GaN. Ce dernier semble être une bonne alternative au SiC-4H dans le domaine de tension compris entre 300 V et 600 V. Figure 1 : Comparaison des propriétés électriques des différents matériaux 5. Propriétés physiques du SiC : • Pertes en conduction : Un avantage décisif des composants en carbure de silicium est la réduction des pertes à l'état passant. La figure 2 montre la résistance spécifique à l'état passant en fonction de la tenue en tension. Figure 2 : Résistance spécifique à l'état passant en fonction de la tenue en tension pour les principaux matériaux à grand gap En effet, la tenue en tension est déterminée par l'épaisseur et le dopage de la couche faiblement dopée (souvent épitaxiale). C'est une figure très classiqueErreur ! Source du renvoi introuvable.. Pour une jonction PN plane infinie et un semi- conducteur donné, le minimum théorique de résistance correspond aux lignes droites de la Erreur ! Source du renvoi introuvable.. Nous voyons clairement une forte baisse de la résistance à l'état passant entre le silicium et le carbure de silicium (SiC-4H) d'environ un facteur 30. L’état de l’art actuel du refroidissement des puces par conduction thermique sans fluide correspond à une densité de puissance de 300 W/cm². Il est clair que, pour maintenir une température de jonction compatible avec une fiabilité acceptable et une densité de courant maximale de 150 A/cm², il ne faut pas dépasser une chute de tension à l’état passant de 2 V, soit une résistance d’environ 15 mohms.cm2, ce qui correspond à une tenue en tension maximale d’environ 200 V pour le silicium et 2-3kV pour le SiC. Cela montre que si l’on veut exploiter pleinement les potentialités du SiC pour la réalisation de composants unipolaires (JFET ou MOSFET) capables de fonctionner à haute tension, il va être nécessaire d'améliorer la performance thermique du packaging au-delà de 300 W/cm². • Température maximale Lorsque la température dans le composant augmente, la concentration intrinsèque qui croit avec la température peut dépasser le dopage de la couche faiblement dopée qui assure la tenue en tension. Auquel cas le composant a perdu sa capacité à bloquer la tension et celui-ci se comporte comme un fusible. C'est l'emballement thermique. La figure 3 montre la température maximale avant emballement pour les différents semi- conducteurs à grand gap. Elle montre qu’alors que les composants commerciaux en silicium sont très proches de cette limite, les composants en SiC, même à 300°C possèdent encore une marge significative. Ce problème d’emballement thermique constitue une limite supplémentaire pour les composants haute tension en silicium, avec une température maximale opérationnelle qui se situe aux alentours de 125°C. La figure 3 permet d’apprécier qu’un gain significatif est réalisable au niveau des composants de puissance en carbure de silicium pour les applications à haute température et à haute tension. Bien évidemment, le packaging, c'est à dire l'environnement du composant de puissance pour l'intégrer dans un module de puissance devra lui aussi être modifié, pour améliorer ces performances en termes de température de tension de fonctionnement. Figure 3 : température maximale des différents semi- conducteurs en fonction de la tenue en tension. Les points correspondent aux composants commerciaux en silicium, à l’exception de celui qui se rapporte au JFET-SiC Figure4: Réduction de la densité de défaut sur les substrats vendus par CREE 6. État de l'art sur les composants de puissance en SiC Une évolution majeure depuis le développement des composants de puissance en SiC a été la réduction de la densité de défaut-tueur, principalement des micropores (figure 4). Cela explique pourquoi le calibre en courant des composants a brusquement augmenté ces dernières années. Aujourd'hui, hormis les composants des filières industrielles, de nombreuses études sur des démonstrateurs sont en cours dans les laboratoires de recherche. Concernant les diodes Schottky SiC, elles sont vendues principalement par CREE et INFINEON en calibre 300, 600 V de 1 A à 20 A et aussi en 1200 V avec des courants plus faibles. Des diodes bipolaires vont au-delà en tension. La figure 5 donne un aperçu des principaux travaux dans le domaine. Pour les composants unipolaires, les JFET et les MOSFET sont des composants très développés. Le JFET à l'inconvénient d'être normalement passant. Il nécessite donc le développement de circuits drivers spéciaux et de la prise en compte de la sécurité, notamment lors des phases de démarrage. Toutefois sa technologie est plus simple et sa commercialisation est annoncée par INFINEON en 2009 pour des calibres jusqu'à 1200 V et 50 A. Pour le transistor MOS, les difficultés les difficultés liées à la stabilité de l'oxyde de grille ont fait l'objet de très nombreuses études et de nombreux démonstrateurs ont des niveaux de fiabilité très élevés surtout pour des températures inférieures à 150°C (CREE, SiCED, TOYOTA ...). Toutefois à ce jour aucune annonce de commercialisation n'a été faite, sans doute à cause de rendements de fabrication encore insuffisants. Les progrès constants sur la stabilité de l'oxyde et le nombre d'études en cours à ce jour laissent penser que ce problème disparaîtra à terme (5 à 10 ans). Figure5: Records des démonstrateurs de diode en SiC. Source Université Purdue. Figure 6 : Records des principaux démonstrateurs d'interrupteurs unipolaires (JFET et MOSFET) et bipolaires (BJT, GTO et IGBT) Pour les démonstrateurs les records sont donnés à la figure.7 La faisabilité des composants 10 kV est largement établie, mais l'utilisation pratique est surtout liée aux capacités de refroidissement du packaging. Pour les composants bipolaires la limite en tension (15 kV), et en courant (100 A) est plus élevée. Un IGBT 13 kV, 10 A ayant 8 V de chute de tension à l'état passant a été présenté par CREE et le CPES, à la dernière conférence ICSCRM'07. La principale difficulté des composants bipolaires est que la chute de tension à l'état passant se dégrade assez vite (quelques jours). Ce problème est lié à des défauts d'empilement (Stacking faults) qui font l'objet d'un très grand nombre d'études. Clairement la qualité du matériau de base est en jeu. Les progrès constant dans ce domaine et le nombre d'études en cours à ce jour laissent penser que ce problème disparaîtra à terme (5 à 10 ans). Aujourd'hui un très grand nombre d'études ont lieu dans le monde pour des tensions assez faibles 1200 V. La commercialisation est assez proche. En revanche pour des tensions supérieures à 1200 V peu de travaux sont en cours et notamment pour les composants bipolaires. 7. Projets SiC en cours où nous retrouvons IBS comme un des acteurs principaux SiC-HT² (contrat DGE) : (Liste des partenaires du projet : HISPANO-SUIZA, ALSTOM-Transport, SCHNEIDER-ELECTRIC, EUROCOPTER, IBS, HCM, AMPERE, ICMCB, IMS, INRETS, SATIE, ISL, LAPLACE) SiC-HT² a pour objectif d’étudier et de développer les différentes étapes nécessaires à la fabrication d'un composant SiC de puissance hautes tensions / hautes températures, jusqu'à son encapsulation. Pour cela, la conception du composant ainsi que le procédé d’industrialisation seront étudiés dans le cadre de ce projet. Figure 7: Liste des démonstrateurs de SiC-HT² MADASIC (Marché DGA) : (Liste des partenaires du projet : AMPERE, IBS, CIRTEM, LAPLACE, ECA-EN) Etude d’un dispositif électronique de convertisseurs à base de composants de type JFET en carbure de silicium à haute tension (3.5kV) associé à un moteur de conception non conventionnelle de 300 kW TRACE (RAPID DGA) : (Liste des partenaires du projet : IBS, AMPERE) Dans le projet TRACE (Thyristor RApide pour Conversion d’Energie) IBS et le laboratoire AMPERE réaliseront l’étude et la fabrication d’un thyristor de puissance et de sa diode associée pour une tenue en tension de 10 kV et un fort di/dt.

Creative Commons Aucune (Tous droits réservés) Aucune (Tous droits réservés)
contenu protégé  Document accessible sous conditions - vous devez vous connecter ou vous enregistrer pour accéder à ou acquérir ce document.
- Accès libre pour les ayants-droit

La synthèse de films de diamant pour des applications en électronique de puissance Alix GICQUEL, Jocelyn ACHARD, François SILVA, Ovidiu BRINZA, Alexandre TALLAIRE, Khaled HASSOUNI Laboratoire des Sciences des Procédés et des Matériaux, 99 avenue JB Clément 93430 Villetaneuse Résumé : La croissance de films de diamant monocristallin de qualité électronique et d’épaisseur importante (quelques centaines de micromètres) reste un enjeu important particulièrement pour le domaine de l’électronique de puissance. Nous décrivons dans cet article les différents verrous à dépasser pour atteindre cet objectif. Nous présentons le procédé de dépôt chimique en phase vapeur activité par plasma micro-onde généré en cavité qui, à l’heure actuelle, est le seul réunissant les capacités de créer de manière efficace les espèces précurseurs de la croissance du diamant et le critère de grande pureté exigé pour les applications en électronique de puissance. La croissance de diamant monocristallin imposant l’utilisation d’un substrat de diamant monocristallin, son influence sur la qualité finale de la croissance, particulièrement pour des cristaux de quelques centaines de micromètres est décrite. Les prétraitements nécessaires et leurs effets sont présentés. Enfin nous explicitons l’influence des paramètres de dépôt tels que température du substrat, concentration de méthane et densité de puissance micro-onde sur les paramètres locaux du plasma tels que température du gaz, densité d’hydrogène atomique et des radicaux CH3, et la conséquence en termes de morphologie et qualité des films ainsi que vitesse de croissance. 1. Introduction Le diamant allie un grand nombre de propriétés hors du commun qui le rend attractif pour de nombreuses applications. On trouve par exemple l’extrême dureté qui, associée à une conductivité thermique de 20 W.cm-1 .K-1 et une température de travail pouvant aller jusqu’à 700°C en l’absence d’oxygène, permet son utilisation en mécanique pour découper ou polir des matériaux durs non ferreux. Sur le plan optique, le diamant est transparent jusqu’à l’UV profond ce qui permet d’envisager son utilisation pour la réalisation de fenêtres optiques pour les lasers jusqu’à cette gamme de longueurs d’onde. En outre sa grande inertie chimique rend possible son utilisation dans des milieux très agressifs (acides, oxydants, …) et le diamant est parfaitement compatible avec le tissu humain. Ces applications optiques et thermiques ne nécessitent pas un matériau d’une qualité cristalline exceptionnelle et d’ores et déjà, des films de diamant à la fois dans leur forme monocristalline ou poly- cristalline sont disponibles commercialement pour ces utilisations. Toutefois, c’est sur le plan de l’électronique que le diamant présente le potentiel le plus important [1]. Celui-ci est en effet un matériau semi-conducteur à large bande interdite (5.5 eV) qui possède un champ de rupture théorique pouvant atteindre 10 MV.cm-1 , et donc au moins 10 fois supérieur à celui du silicium. Il se caractérise aussi par une faible constante diélectrique et des mobilités d’électrons et de trous atteignant respectivement 4500 et 3800 cm2 .V-1 .s-1 à température ambiante [2]. Néanmoins cette utilisation requière une pureté et une qualité cristalline qui sont loin d’être aisées à atteindre et qui, de toute évidence, ne sont envisageables que par l’utilisation d’une technique de dépôt chimique en phase vapeur (CVD) et sur des films de diamant monocristallin de très haute qualité intrinsèque. On peut globalement distinguer deux approches pour la conception de composants pour l’électronique. Les films de diamant peuvent tout d’abord être utilisés dans une structure coplanaire. Ceci requiert certes une haute qualité mais seulement sur quelques micromètres carré. Parmi eux, les MESFET sont des dispositifs prometteurs pour les hautes fréquences et hautes températures. Ils mettent en jeu une conduction de surface par un canal généré lorsque la surface du diamant est hydrogénée et exposée à l’air [3], ou bien par un canal de conduction créé par un dopage localisé par le bore dit « delta doping »[4]. Enfin les détecteurs UV constituent un autre champ d’application pour lequel les films de diamant de faibles épaisseurs est particulièrement approprié [5]. La deuxième approche consiste à utiliser le diamant en le sollicitant dans le volume. De tels dispositifs devraient permettent l’obtention de tenues en tension inégalées et d’ouvrir le champ d’application du diamant à l’électronique de puissance. On citera par exemple les diodes Schottky de puissance en diamant permettant d’atteindre des tensions de travail très élevées [6] et les commutateurs de puissance commandés sur lesquels nous travaillons depuis plusieurs années. Ceux-ci sont constitués d’une structure de type MIM (metal-insulator-metal), à savoir un film de diamant intrinsèque de quelques centaines de micromètres pris en sandwich entre deux contacts ohmiques [7]. Outre la difficulté de réaliser de tels contacts, cette application requiert également une très haute qualité (pureté, cristallinité) de matériau monocristallin et les films devront présenter de plus, des épaisseurs de plusieurs centaines de micromètres. Des vitesses de croissance élevées doivent alors être atteintes pour une viabilité économique. La synthèse de diamant monocristallin épais et de très haute qualité cristalline et de haute pureté constitue donc un défi majeur. Dans cet article, nous nous intéressons à chacun des paramètres clés pour la croissance, aussi bien les paramètres locaux du plasma que ceux intrinsèques au substrat de départ, en général un diamant issu d’une croissance par haute pression haute température, dont la face cristallographique doit être choisie et dont les défauts doivent être idéalement supprimés. L’influence des paramètres de croissance, température du substrat, concentration de méthane et densité de puissance micro-onde (DPMO) qui constituent les paramètres d’entrée de nos réacteurs sur les paramètres locaux clefs notamment la température du gaz est décrite. La DPMO est la puissance micro-onde rapportée au volume du plasma (de façon grossière une boule de plasma de 4 à 5 cm de diamètre correspondant à un volume de 30 à 60 cm3 ), ce dernier étant ajusté grâce à la pression imposée dans l’enceinte. La DPMO permet, en couplant de façon appropriée la puissance micro-onde injectée et la pression, de maintenir un volume de plasma constant alors que la puissance micro-onde est augmentée. Nous montrons en particulier qu’optimiser le procédé revient en majeure partie à accroître le plus possible la DPMO de sorte à augmenter la température du gaz qui contrôle la densité d’atomes d’hydrogène dans le plasma. Le but est d’accroître la densité d’atomes d’hydrogène à la surface dont le transport à partir du plasma s’effectue par diffusion et d’être en capacité simultanément de créer en forte densité de radicaux CH3 tout près de la surface du diamant en croissance. 2. Procédé d’élaboration Les cristaux de diamant de haute qualité cristalline et pureté sont obtenus par plasma micro-onde à partir de précurseurs gazeux constitués essentiellement de carbone et d’hydrogène, en général un mélange H2- CH4 riche en hydrogène (> 90 %). L’hydrogène atomique joue un rôle majeur [8,9] pour la croissance de diamant. Cette espèce est en effet connue pour stabiliser la surface du diamant en croissance en saturant ses liaisons pendantes et elle permet également de graver préférentiellement les phases non-diamant qui pourraient se déposer durant la croissance. Enfin, l’hydrogène atomique est responsable de la création en surface de sites actifs et, en phase gazeuse, de la formation des radicaux CH3, espèces de croissance, qui s’adsorbent sur les sites actifs précédemment évoqués. Ainsi, pour favoriser à la fois la vitesse de croissance et la qualité du diamant, est-il nécessaire d’augmenter au maximum la densité de la densité de H. Or, les travaux menés au sein du LSPM (ex-LIMHP) depuis maintenant 20 ans, ont clairement montré que la création d’hydrogène atomique s’effectue par dissociation thermique de l’hydrogène moléculaire à partir d’une température de gaz de 2800 K [10,11]. De telles températures peuvent être atteintes en utilisant une activation de la phase gazeuse par plasma micro-onde et en couplant de fortes puissances dans le plasma. Des vitesses de dépôt supérieures à plusieurs dizaines microns par heure ont ainsi pu être obtenues. Des plasmas thermiques ou des plasmas « arc jet » peuvent aussi permettre de dissocier fortement l’hydrogène moléculaire, cependant ces procédés fonctionnent à haute vitesse de gaz et le contrôle de la pureté s’en trouve très fortement diminuée, ce qui n’est pas compatible avec la pureté du diamant nécessaire pour des applications électroniques. Le radical méthyle CH3 est l’espèce responsable de l’incorporation de carbone dans le réseau diamant. Sa production est gouvernée par la réaction chimique CH4 + H CH3 + H2. L’obtention de hautes teneurs en CH3 ne sera donc atteinte que si la dissociation de l’hydrogène, qui est obtenue à haute température, est suffisamment importante. Toutefois, une température de gaz trop élevée (> 2200 K) entraîne la conversion de ces radicaux en d’autres précurseurs carbonés [12,13] car il existe une gamme de température optimale pour la formation de ces espèces, qui est de 1400 à 2200 K, avec un optimum à 1650 K. La dynamique de production des espèces nécessaires à la croissance de diamant doit être parfaitement comprise et dominée pour optimiser le procédé. Ainsi, la production des atomes d’hydrogène s’effectue dans le cœur de la décharge, là où la température du gaz est maximale (Figure 1). A l’interface plasma/surface, en raison du transfert de chaleur du plasma vers la surface, la température du gaz diminue fortement comme ceci est montré sur la figure 1a. De même la densité en hydrogène atomique diminue fortement, faisant apparaître une couche limite diffusionnelle (Fig. 1a). Les atomes d’hydrogène n’atteignent la surface que grâce au processus de diffusion qui les transporte [14,15]. A l’interface plasma/surface, la température du gaz atteint néanmoins les valeurs compatibles avec la formation des radicaux méthyles alors même que la densité d’hydrogène atomique reste importante. Il est résulte un maximum dans la densité en méthyle à quelques millimètres de la surface (voir pic en z = 0, figure 1b). 0 2 4 6 8 10 12 14 0.0 0.1 0.2 0.3 0.4 0.5 Temperaturedegaz[K] xH FractionmolairedeH Position axiale [cm] 500 1000 1500 2000 2500 3000 3500 Tg Substrat Figure 1a : Profil axial de la température du gaz et de la densité de H. Puissance 4000 W; pression 270 hPa (4 % CH4, temp. du substrat (Ts) : 1100 K). 0 2 4 6 8 10 12 14 0 1x10 14 2x10 14 3x10 14 4x10 14 25 mbar - 600 W 50 mbar - 1000 W 100 mbar - 2000 W 200 mbar - 3000 W 270 mbar - 4000 W DensitédeCH3 [cm -3 ] Position axiale [cm] Substrat Figure 1b: Profil axial de la densité de CH3 pour différentes pressions et puissances (4 % CH4, Ts=1100K). La densité d’hydrogène atomique, tout comme celle de radicaux méthyles à la surface du diamant, est totalement contrôlée par le gradient de température du gaz entre le cœur du plasma et à l’interface plasma / surface de diamant généralement maintenue à 850°C. Plus le gradient de température est abrupt, plus la densité d’hydrogène atomique à la surface est grande et plus le maximum de CH3 à l’interface plasma/surface est grand et plus ce maximum a lieu près du diamant en croissance. En effet, la température de gaz la plus appropriée à la production de CH3 (1650 K) est d’autant plus proche de la surface que le gradient de température est grand. Au regard de ces considérations, il est clair que, dans un procédé de dépôt de diamant assisté par plasma micro-onde, tout doit être fait pour augmenter au maximum la DPMO. En effet, en raison de l’augmentation de la température de gaz, la production d’hydrogène atomique au cœur de la décharge est maximisée, tout comme la production de CH3 au voisinage de la zone de dépôt. Comme expliqué plus haut, la zone de production de CH3 sera de plus d’autant plus proche de la surface augmentant ainsi le la densité des espèces clefs pour la croissance et donc la cinétique de croissance. Avec cette procédure, des vitesses de dépôt allant jusqu’à 70 µm/h ont ainsi pu être atteintes. L’injection de fortes puissances micro-onde est une condition nécessaire, néanmoins cette condition n’est pas suffisante pour plusieurs raisons. Tout d’abord, à forte puissance se font sentir des problèmes thermiques dus au chauffage par effet Joule des différentes pièces du système micro-onde ainsi que du réacteur. Ces problèmes sont difficiles à maîtriser et nous avons déposé un brevet pour mener le procédé en régime impulsionnel plutôt que continu pour diminuer la température des composants du réacteur [16]. Enfin, la croissance homoépitaxiale nécessite l’utilisation d’un substrat monocristallin qui contribue lui-même, comme on va le voir dans les deux prochains paragraphes, à la qualité finale du film déposé. 3. Influence du substrat Le substrat de diamant est ainsi également un élément essentiel pour la croissance homoépitaxiale de diamant CVD de haute qualité. Il constitue à lui seul un paramètre de dépôt sur lequel un travail important doit être mené. Ainsi, l’orientation cristallographique et la présence de défauts dans le substrat sur la croissance cristalline du diamant ont une influence considérable sur les caractéristiques des films déposés. Différents traitements de surface du substrat visant à s’affranchir de la répercussion de ces défauts ont été définis. L’influence de l’orientation cristalline du substrat (principalement les orientations de bas indices de Miller que sont les directions <100>, <110> et <111>) a été étudiée par de nombreux auteurs dans le courant des années 1990 [17-19]. Des expériences menées sur différentes orientations de substrat ont permis de montrer que la cinétique de croissance des plans (110) est généralement la plus rapide devant celle des plans (100) et (111) [20]. La théorie développée par Hartman [21] reposant sur l’existence de chaînes de liaisons périodiques (appelées PBC) sur les surfaces cristallines permet d’expliquer la vitesse de croissance particulièrement élevée de ces plans (110). En effet, les différentes surfaces cristallines peuvent être répertoriées en trois catégories suivant le nombre de PBC interconnectées: les faces F (Flat), les faces S (Stepped) et K (Kinked). Les faces F requièrent une énergie positive pour la création d’une marche atomique en surface et ce phénomène est donc subordonné à un processus de nucléation 2D qui rend la cinétique de croissance lente sur ces faces. Les faces S croissent par addition d’atomes de façon unidirectionnelle (nucléation 1D), le long de la direction des PBC (i.e. <110>). La vitesse de croissance est donc plus rapide que celle des faces F mais ces faces sont généralement striées. Les faces K ne présentent pas de barrière de nucléation, et la croissance s’effectue par incorporation aléatoire d’unités de croissance. Ce sont les faces les plus rapides. On peut donc classer les vitesses de croissance des différents types de faces de la façon suivante : VK>>VS>VF. La surface d’un cristal en croissance est toujours bordée par les faces stables de croissance les plus lentes c'est-à-dire les faces F. Pour le réseau cristallin du diamant, les faces (111) sont de type F, les faces de type (hhk) sont de type S, et toutes les autres faces, y compris les faces (100), sont de type K. La présence des faces (111) omniprésente dans les diamants naturels confirme la nature F des faces (111) [22]. Cependant, dans le cas du diamant CVD les faces (100) parfaitement stables sont très fréquemment rencontrées prenant ainsi en défaut la théorie PBC. Giling et van Enckevort [23] ont montré que la reconstruction de surface de type (2x1) H, opérant à la surface des plans faces (100) du diamant en présence d’hydrogène atomique avait pour effet de conférer un caractère F à ces faces et de ce fait une croissance lente. La vitesse de croissance élevée des plans (110) s’explique par leur caractère S et sont de fait rarement rencontrées à la surface de cristaux de diamant synthétisé par CVD. Cependant, cette orientation de substrat ne constitue pas un choix judicieux si l’on souhaite obtenir des films épitaxiés de grande surface, car en raison de la haute vitesse de croissance, la surface de cette face tend à se réduire au profit des faces les plus lentes. Les faces (111) bien qu’étant de type F présentent de nombreux inconvénients sur le plan de la croissance. Tout d’abord en raison de leur configuration atomique en surface, la génération de défauts au cours de la croissance, comme le maclage ou l’incorporation de phases graphitiques sont des événements hautement probables. Par ailleurs les plans (111) présentent une probabilité d’incorporation des impuretés comme l’azote beaucoup plus élevée [24] que les plans (100). Ainsi, l’orientation (100) est de loin la plus adaptée pour produire des films épitaxiés de très haute qualité. La croissance de ces faces est stable et l’apparition de défauts structuraux peut être contrôlée en utilisant les conditions de croissance adéquates (haute puissance micro-onde) et, comme nous le verrons plus loin, en effectuant un traitement de surface adapté. Les meilleures propriétés électroniques reportées à ce jour ont été obtenues à partir de films épitaxiés sur des substrats (100) [2,25]. Même dans le cas des faces (100), les défauts comme les dislocations, présents dans le substrat, peuvent se propager dans le film épitaxié et avoir des répercussions sur les propriétés du matériau [26-28]. Bien qu’il soit possible, comme nous allons en discuter plus loin, de réduire fortement ce taux de défauts en surface par l’utilisation de traitements de surface, une certaine partie de ces dislocations, provenant du cœur même du substrat, ne peut être éradiquée. Il convient donc de sélectionner les substrats les moins défectueux possibles. Les diamants naturels IIa, bien que très purs, contiennent une densité de dislocations importante en raison des violentes sollicitations mécaniques auxquelles ils ont été soumis au cours de leur formation et de leur long séjour de remontée dans les cheminées volcaniques. Par ailleurs, ce type de substrat est soumis à une forte variabilité de ses caractéristiques occasionnant ainsi des problèmes de reproductibilité d’expérience. Les diamants synthétiques de types Ib, bien que caractérisés par un taux d’azote relativement important (de 10 à 1000 ppm), contiennent beaucoup moins de défauts cristallins [29] et leurs caractéristiques sont beaucoup plus reproductibles. Il n’y a de plus aucune répercussion du taux d’azote des films épitaxiés sur ce type de substrat [30]. Enfin, ces substrats sont accessibles à un prix raisonnable et constituent un choix judicieux pour la réalisation de film de diamant épitaxiés de haute pureté. 4. Influence du traitement de surface Comme nous l’avons expliqué, même dans le cas de la croissance de la face (100) la plus favorable, la présence de défauts ou d’impuretés inhérente au substrat peut avoir des conséquences importantes sur la croissance et les caractéristiques des films. Les substrats commerciaux sont taillés et polis à partir de cristaux élaborés sous haute pression et haute température. Ces substrats présentent plusieurs secteurs de croissance qui proviennent de la croissance de leur cristal-parent comme ceci est montré sur la Figure 2. Or l’incorporation de défauts et d’impuretés dépend fortement de l’orientation cristalline et il en résulte de fortes inhomogénéités pouvant conduire à des contraintes internes importantes. Il est donc nécessaire de sélectionner des substrats majoritairement constitués d’un secteur unique de croissance, et de choisir la face (100) la plus éloignée du germe initial car c’est, par construction, la face la plus susceptible de ne présenter qu’un seul secteur. Cristal HPHT Substrat HPHTDécoupe <100> <110><111> <113> Figure 2 : Illustration des différents secteurs de croissance (<100>, <111>, <113> and <110>, cf ligne du bas) présents dans un cristal HPHT (image en haut à gauche). Les dislocations présentes dans le substrat constituent une source de défauts très problématique. Il convient cependant de considérer deux différentes populations de dislocations : celles générées en surface par l’étape de polissage comme l’ont parfaitement montré les études de cathodoluminescence des références [31] et [32], et celles initialement présentes dans le cristal. En ce qui concerne la première catégorie, des travaux récents ont montré qu’elle pouvait être éradiquée par une gravure plasma adéquate avant croissance ce qui a pour conséquence d’améliorer considérablement la qualité des films épitaxiés et les propriétés électroniques. Cependant, bien que ce traitement soit efficace pour supprimer les dislocations induites par polissage, elle n’a aucune action sur les dislocations de cœur initialement présentes dans le cristal comme l’ont montré les études de Teraji et al. [32]. Ces dernières se propagent au cours de la croissance et émergent à la surface du film. La passivation de ces dislocations reste une étape clé si l’on cherche à obtenir un matériau de qualité électronique, comme ceci a été le cas dans le passé, pour le silicium monocristallin. Dans le cas spécifique de la croissance de films épais (supérieur à 100 µm), une attention toute particulière doit donc être portée à la gestion des contraintes apparaissant au cours de la croissance, et l’utilisation d’un prétraitement par plasma H2/O2 du substrat s’avère indispensable. Ce dernier permet de préparer non seulement la face supérieure du cristal mais également les faces latérales comme l’illustre la figure 3. En effet alors qu’avant le traitement les faces latérales apparaissent noires et peu luminescentes sous le faisceau d’électrons du microscope, à l’issue du traitement il est possible de distinguer clairement les secteurs de croissance. Ceci témoigne d’une amélioration substantielle de la qualité de surface du substrat. (a) (b) Figure 3 : Images obtenues par microscopie électronique à balayage d’un substrat de diamant (a) avant prétraitement H2/O2 et (b) après prétraitement H2/O2. Aucune croissance de diamant CVD n’a été effectuée. Ainsi, au cours de la croissance, le cristal de diamant peut se développer de manière plus homogène dans toutes les directions limitant ainsi fortement l’apparition de contraintes. Cet aspect est mis clairement en évidence sur la figure 4 où la morphologie d’un film de diamant de plusieurs centaines de micromètres, ayant subi un traitement par plasma H2/O2 ou non, est présentée. On constate que sur le substrat non prétraité, les coins de l’échantillon se fracturent (voir Figure 4b). Dans le cas où le substrat a été prétraité, la face supérieure du cristal (100) est parfaitement lisse et sa surface a augmenté de façon importante. (a) (b) Figure 4 : Morphologie d’un film de diamant obtenu (a) après prétraitement H2/O2 et (b) sans prétraitement H2/O2. Fracture des quatre coins en (b) dues aux contraintes. 5. Influence des paramètres de dépôt Si l’on souhaite utiliser le diamant dans le cadre de différentes applications, qu’elles se situent dans le domaine de l’électronique ou non, une attention particulière doit être portée au coût de production de ce matériau. Ainsi, un des objectifs de notre laboratoire est de déterminer les paramètres de dépôt, à savoir la concentration de méthane dans la phase gazeuse, la température de surface et la densité de puissance micro-onde et qui permettent d’atteindre une vitesse de croissance maximale tout en conservant une grande qualité du matériau et en particulier une bonne morphologie de surface. 5.1. Influence de la concentration de méthane Ce paramètre définit la quantité de précurseurs carbonés présents dans la phase gazeuse et il aisé de comprendre que, toutes choses égales par ailleurs, plus cette concentration sera élevée, plus la vitesse de croissance le sera comme l’illustre la Figure 5. Ainsi, à 7% de méthane, des vitesses de croissance allant jusqu’à 16 µm.h-1 sont obtenues pour une pression de 200 hPa et une puissance de 3 kW, contre 5,5 µm.h-1 à 4 % de méthane. D’un point de vue morphologie de surface, aucune différence notable n’apparaît et il est par conséquent tentant d’augmenter encore le pourcentage de méthane. Néanmoins, si ce paramètre dépasse 8%, des suies apparaissent dans le plasma conduisant à une forte instabilité de la décharge et limitant la durée des dépôts à quelques minutes. 0 2 4 6 8 10 0 4 8 12 16 20 T=1150 K Pression=200 mbars Puissance=3 kW Vitessedecroissance(µm/h) CH4 en phase gazeuse (%) Figure 5 : Vitesse de croissance d’un film de diamant en fonction de la concentration de CH4 en phase gazeuse. 5.2. Influence de la température du substrat La température du substrat influence fortement les cinétiques de dépôt et par conséquent les vitesses de croissance. Néanmoins à trop haute température (> 1200 K), la morphologie finale du film est détériorée comme l’illustre la figure 6. En effet, à forte température, la mobilité de surface des espèces augmente et chaque défaut ponctuel présent à la surface constitue une source ponctuelle de marches qui va conduire à la formation de larges pyramides à base carrée (cf figure 6a) au sommet desquelles le maclage est fort probable. (a) (b) Figure 6 : Morphologie de surface d’un film de diamant après croissance. Conditions : 4% de CH4, puissance=3 kW ; pression =200 hPa (a) Ts=1300 K ; (b)TS = 1150 K . Ainsi, malgré l’utilisation d’un prétraitement, l’éradication des défauts est incomplète et, dans l’optique de croissance de films épais, il est préférable de rester dans des conditions de croissance mettant en jeu une température de dépôt inférieure à 900°C. 5.3. Influence du couple pression / puissance On a vu dans le §2 que lorsque DPMO (générée par une variation de pression et puissance simultanément) est augmentée, la température de gaz du plasma augmente fortement conduisant ainsi à une plus forte concentration d’hydrogène atomique et par conséquent de CH3 au voisinage de la surface du substrat. Comme cela est montré sur la figure 7, la vitesse de croissance augmente avec ce paramètre. Rappelons que l’augmentation de la DPMO s’effectue par une augmentation simultanée de la puissance et de la pression. 140 160 180 200 220 240 260 280 300 3 4 5 6 7 8 9 2,5 kW 4 kW Vitessedecroissance(µm/h) Pression (hPa) T=1150°C 4% de CH4 3 kW Figure 7 : Vitesse de croissance d’un film de diamant en fonction de la pression pour différentes puissances et donc de la DPMO. Elle peut être multipliée par un facteur 3 quand le couple pression/puissance passe de 150 hPa/2,5 kW à 270 hPa /4 kW (doublement de la DPMO), ces couples de valeurs permettant de maintenir un volume de plasma de 30 cm3 (sphère de 4 cm de diamètre). Au vue de ces résultats, la tentation est grande d’augmenter encore la DPMO Néanmoins, au-delà d’une certaine limite, la gestion des échanges thermiques, tant au niveau de la cavité micro-onde que du porte échantillon, devient problématique et un fort échauffement conduit malheureusement à la présence d’impuretés résiduelles, en particulier l’azote (voire le silicium provenant des fenêtres en quartz), au sein du matériau. Pour augmenter la puissance couplée au plasma, cela impose soit d’utiliser des plasmas impulsionnels, soit encore de développer de nouvelles cavités plus performantes, ce sur quoi le LSPM travaille toujours activement. 6. Conclusion Dans ce papier, nous avons montré que la croissance de films de diamant monocristallin épais doit être envisagée de façon très rationnelle. En effet, tout d’abord, le procédé utilisé doit être en mesure de générer efficacement de fortes densités d’hydrogène atomique. Il est donc nécessaire de développer des réacteurs capables d’atteindre des températures de gaz suffisantes pour dissocier thermiquement l’hydrogène moléculaire et ceci dans une atmosphère extrêmement pure, notamment exempte d’azote. A l’heure actuelle, les réacteurs de dépôt assistés par plasma micro-onde fonctionnant en cavité sont pratiquement les seuls réacteurs réunissant ces conditions. Toutefois, la puissance micro-onde injectée doit être importante et une attention particulière doit être portée à la gestion des échanges thermiques tant au niveau de la cavité micro-onde que du porte-échantillon. Par ailleurs, même si le procédé de dépôt est bien adapté, la qualité et l’orientation du substrat utilisé pour initier la croissance homoépitaxiale influent fortement sur la qualité finale des films. En particulier, la présence inévitable de défauts sur le substrat liés à son découpage et à son polissage a des répercussions importantes en terme de morphologie. Un pré- traitement adapté par plasma H2O2 permet de limiter fortement leur influence. Enfin, l’influence des différents paramètres de dépôt a été étudiée, l’objectif étant de déterminer les points de fonctionnement permettant d’assurer une vitesse de croissance la plus élevée possible tout en conservant une bonne morphologie de surface. Ainsi, il a été montré qu’une augmentation de la concentration de méthane jusqu’à 7 % permettait d’obtenir des vitesses de dépôt allant jusqu’à 16 µm/h sans détérioration de la morphologie de surface. Une augmentation de la densité de puissance conduit au même résultat, en raison de la production plus importante d’hydrogène atomique et de radicaux méthyles. Enfin, une augmentation de la température du substrat se traduit par une augmentation de la mobilité superficielle favorable à une augmentation de la vitesse de croissance. Néanmoins, si l’on veut conserver une morphologie de surface de bonne qualité, il est important de maintenir une température inférieure à 900 °C. En conclusion, il existe encore des marges pour améliorer les résultats obtenus à l’heure actuelle. Tout d’abord du point de vue du procédé. En effet, il est maintenant clairement établi que plus la DPMO est importante, plus les conditions de croissance sont optimales. Ainsi, en apportant un soin tout particulier à la gestion des échanges thermiques et au couplage micro-onde, les réacteurs de dépôt devraient pouvoir encore évoluer et conduire à des vitesses de dépôt encore plus élevées, qui ne devraient cependant pas dépasser une centaine de micromètres par heure [14,15]. Un verrou majeur reste encore à dépasser : obtenir le substrat initial idéal ! On ne maîtrise en effet que très partiellement la qualité des substrats. Certes les pré- traitements développés permettent d’obtenir des films homoépitaxiés de qualité acceptable mais ils ne sont pas encore suffisants pour s’affranchir totalement des défauts de cœur du substrat. Un travail conséquent reste encore à faire sur cet aspect dans les prochaines années. Enfin, outre la qualité des substrats, leur taille réduite reste également à augmenter, elle est en effet limitative pour le développement à grande échelle d’applications électroniques. Aussi, un effort particulier doit être entrepris pour augmenter la taille des substrats et ce travail est actuellement l’enjeu d’un programme de recherche important. Références : [1] L. S. Pan, D. R. Kania, Diamond: electronic properties and applications, Kluwer Academic, Boston/Dordrecht/London, (1995). [2] J. Isberg, J. Hammersberg, E. Johansson, T. Wikstrom, D. J. Twitchen, A. J. Whitehead, S. E. Coe, G. A. Scarsbrook, Science 297 (2002) 1670. [3] A. Aleksov, A. Denisenko, M. Kunze, A. Vescan, A. Bergmaier, G. Dollinger, W. Ebert, E. Kohn, Semiconductor Science and Technology 18 (2003) S59. [4] E. Kohn, W. Ebert, In: B. Dischler and C. Wild (Eds), Low-pressure synthetic diamond: manufacturing and applications, Springer, 1998, p 331. [5] A. Mainwood, Semiconductor Science and Technology 15 (2000) R55. [6] J. E. Butler, M. W. Geis, K. E. Krohn, J. Lawless, S. Deneault, T. M. Lyszczarz, D. Flechtner, R. Wright, Semiconductor Science and Technology 18 (2003) S67. [7] J. Achard, F. Silva, H. Schneider, R. S. Sussmann, A. Tallaire, A. Gicquel, M. C. Castex, Diam. Relat. Mat. 13 (2004) 876. [8] T. R. Anthony, Vacuum 41 (1990) 1356. [9] J. E. Butler, R. L. Woodin, Philosophical Transactions of the Royal Society of London Series a-Mathematical Physical and Engineering Sciences 342 (1993) 209. [10] A. Gicquel, M. Chenevier, K. Hassouni, A. Tserepi, M. Dubus, J. Appl. Phys. 83 (1998) 7504. [11] K. Hassouni, T. A. Grotjohn, A. Gicquel, J. Appl. Phys. 86 (1999) 134. [12] A. Gicquel, M. Chenevier, Y. Breton, M. Petiau, J. P. Booth, K. Hassouni, Journal de physique III 6 (1996) 1167. [13] K. Hassouni, O. Leroy, S. Farhat, A. Gicquel, Plasma Chemistry and Plasma Processing 18 (1998) 325. [14] A. Gicquel, N. Derkaoui, C. Rond, B. Benedic, G. Cicala, D. Moneger, K. Hassouni, Chemical Physics To be published (2011). [15] A. Gicquel, F. Silva , C. Rond, N. Derkaoui, O. Brinza, J. Achard, G. Lombardi, A. Tallaire, A. Michau, K. Hassouni, Comprehensive hard materials To be published (2011). [16] A. Gicquel, F. Silva, X. Duten, K. Hassouni, G. Lombardi, A. Rousseau, Patent WO PCT/EP03/07142 (2006). [17] C. Findeling-Dufour, A. Vignes, A. Gicquel, Diam. Relat. Mat. 4 (1995) 429. [18] G. Janssen, J. J. Schermer, W. J. P. van- Enckevort, L. J. Giling, J. Cryst. Growth 125 (1992) 42. [19] W. J. P. van Enckevort, G. Janssen, L. J. Giling, J. Cryst. Growth 113 (1991) 295. [20] L. F. Sutcu, C. J. Chu, M. S. Thompson, R. H. Hauge, J. L. Margrave, M. P. D'Evelyn, J. Appl. Phys. 71 (1992) 5930. [21] P. Hartman, In: W. Bardsley, D. T. J. Hurle and J. B. Mullin (Eds), Crystal Growth - an introduction, North-Holland/American Elsevier, Amsterdam, 1973, p 367. [22] R. C. Burns, G. J. Davis, In: J. E. Field (Ed.) The properties of natural and synthetic diamond, Academic Press, London, 1992, p 395. [23] L. J. Giling, W. J. P. Van Enckevort, Surface Science 161 (1985) 567. [24] R. Samlenski, J. Schmalzlin, R. Brenn, C. Wild, W. Muller-Sebert, P. Koidl, Diam. Relat. Mat. 4 (1995) 503. [25] A. De Sio, J. Achard, A. Tallaire, R. S. Sussmann, A. T. Collins, F. Silva, E. Pace, Appl. Phys. Lett. 86 (2005) 213504. [26] A. Tallaire, J. Achard, F. Silva, R. S. Sussmann, A. Gicquel, E. Rzepka, Phys. Stat. Sol. (a) 201 (2004) 2419. [27] C. Tavares, S. Koizumi, H. Kanda, Phys. Stat. Sol. (a) 202 (2005) 2129. [28] T. Teraji, S. Mitani, T. Ito, Phys. Stat. Sol. (a) 198 (2003) 395. [29] H. Sumiya, N. Toda, Y. Nishibayashi, S. Satoh, J. Cryst. Growth 178 (1997) 485. [30] A. Tallaire, A. T. Collins, D. Charles, J. Achard, R. Sussmann, A. Gicquel, M. E. Newton, A. M. Edmonds, R. J. Cruddace, Diam. Relat. Mat. 15 (2006) 1700. [31] C. Tavares, S. Koizumi, H. Kanda, Phys. Stat. Sol. (a) 202 (2005) 2129. [32] T. Teraji, M. Hamada, H. Wada, M. Yamamoto, K. Arima, T. Ito, Diam. Relat. Mat. 14 (2005) 255.

Creative Commons Aucune (Tous droits réservés) Aucune (Tous droits réservés)
contenu protégé  Document accessible sous conditions - vous devez vous connecter ou vous enregistrer pour accéder à ou acquérir ce document.
- Accès libre pour les ayants-droit

Nanostructuration des carbones activés et supercondensateurs carbone / carbone de haute densité d’énergie Pierre-Louis TABERNA, Patrice SIMON Université Paul Sabatier / Institut Carnot CIRIMAT UMR 5085, 118 route de Narbonne, Bat2R1, 31062 Toulouse Cedex 9 Résumé : Les recherches actuelles sont tournées vers l’augmentation de l’énergie spécifique des supercondensateurs leur permettant de fournir des impulsions dont la durée atteint plusieurs dizaines de secondes. La nanostructuration de l’interface électrode / électrolyte permet d’augmenter considérablement la quantité de charges stockées grâce à une désolvatation partielle des ions de l’électrolyte. La réalisation de films minces de carbone nanostructuré permet d’aller encore plus loin en atteignant une densité d’énergie quatre fois supérieure à celle des électrodes traditionnelles ; la miniaturisation d’électrodes pour l’obtention de micro-supercondensateurs devient une réalité.               1. Introduction : historique et intérêt des supercondensateurs Historique Depuis le tout premier condensateur - bouteille de Leyde, 1745 - de nombreux progrès ont été réalisés tant au niveau fondamental que technologique. L’évolution de la capacité unitaire illustre parfaitement à quel point ces avancés ont été importantes, les premiers condensateurs se mesuraient en nF - 10-9 F ; les condensateurs actuel se mesurent en kF - 103 F. Soit une augmentation de 1012 , ce qui est considérable ! Ces condensateurs sont plus généralement connus sous le terme de supercondensateurs. Intérêt Les supercondensateurs présentent plusieurs avantages : une puissance spécifique élevée (>5 kW/kg) ainsi qu’une cyclabilité de plusieurs millions de cycles, ce qui est sans comparaison avec les accumulateurs actuels. Autre avantage, et non des moindres, est la symétrie entre la charge et la décharge ; il est possible de délivré des courants à des régimes de plusieurs centaines de C (1C correspond à une décharge totale en 1 heure) avec des régimes de charges équivalents(1) . Ce point est important car même les accumulateurs dits de puissance ne sont pas en mesure d’absorber des régimes de charge aussi élevés qu’en décharge. Les supercondensateurs sont donc des systèmes de stockage de l’énergie parfaitement adaptés à des applications de type impulsionnelles. En revanche, les qualités indéniables de ces supercondensateurs sont à pondérés par leur faible énergie spécifique. Bien que possédant une énergie spécifique (>5 Wh/kg) bien supérieure aux condensateurs classiques, celle-ci reste encore insuffisante pour des applications nécessitant une source d’énergie importante pour des temps de plusieurs dizaines de secondes(1) . 2. Applications et objectifs Actuellement, les supercondensateurs sont largement répandus dans de nombreuses applications d’électronique de puissance telles que les fonctions de sauvegarde dans des appareils de type lecteurs de DVD ou encore en assistance de flash pour les appareils photo de plus en plus présents dans les téléphones mobiles. Dans un contexte d’électrification en constante augmentation les supercondensateurs sont des acteurs importants. Ils sont de plus en plus sollicités pour des applications dans le transport ou encore dès qu’il est nécessaire de faire de la récupération d’énergie. Néanmoins, une diffusion plus large de ce type de source de stockage de l’énergie dans le domaine du transport - véhicule hybride, tramway(2) - nécessiteraient des durées d’utilisation en charge ou en décharge de l’ordre de la dizaine de secondes et au-delà. Cela explique pourquoi les axes de recherche développés aujourd’hui sont majoritairement orientés vers l’augmentation de la densité d’énergie des supercondensateurs. Différentes stratégies peuvent être envisagées pour atteindre cet objectif : - La fonctionnalisation des carbones par des groupes fonctionnels offrant la possibilité de réactions d’oxydoréduction de surface ; - L’hybridation au niveau système : une électrode de supercondensateur en carbone est associée à une électrode de type faradique (électrode d’accumulateur ou pseudo-capacitive) ; différentes combinaisons sont envisageables(3,4) ; - La nano-structuration des interfaces carbone activé / électrolyte. Les deux premiers exemples ont comme point commun de faire intervenir des composés électrochimiquement actifs. Ceux ci interviennent dans des réactions d’oxydo-réduction mettant en jeu comme pour les électrodes d’accumulateurs une grande quantité d’électricité par unité de matière. ils permettent d’augmenter significativement l’énergie spécifique de ce type de supercondensateurs(1) . Ceci peut être réalisé soit en greffant des groupes électrochimiques à la surface de carbones soit encore en combinant une électrode capacitive avec une électrode faradique. L’inconvénient majeur de ce type de stratégie est une diminution conséquente de la cyclabilité. Même si les possibilités d’augmentation de capacité peuvent paraître limitée, le troisième axe de recherche proposé offre l’avantage de conserver le système carbone/carbone symétrique, ce qui permet de maintenir des durées de vie en cycle très élevées (> 106 cycles), combinée à une vitesse de recharge aussi rapide que la décharge et pouvant fonctionner à basse température (-40 °C) ; c’est pourquoi nous allons plus particulièrement nous intéresser à l’étude de l’influence de la nanostructure des carbones sur les valeurs de capacités mesurées. Nous parlons donc ici que des supercondensateurs à double couche électrochimique. 3. Principe de fonctionnement Les plus répandus des supercondensateurs dits à double couche électrochimique sont composés de deux électrodes de carbone activé imprégné d’électrolyte – solvant mélangé à un sel. Le mécanisme de stockage de charges dans les supercondensateurs diffère fondamentalement de celui des accumulateurs. Comme pour les condensateurs classiques, l’accumulation des charges dans un supercondensateur se fait par interactions électrostatiques, mais dans ce cas précis dans une zone de charge d’espace située à l’interface entre l’électrode et l’électrolyte. Cette zone interfaciale, qui ne concerne qu’une région assez restreinte répartie sur quelques nanomètres d’épaisseur au plus dans l’électrolyte, est aussi appelée « double couche électrochimique ». C’est pourquoi les supercondensateurs à base de carbone sont également appelés « condensateurs à double couche électrochimique », EDLC en anglais. La figure 1 illustre de façon schématique cette double couche électrochimique : Figure 1 : représentation schématique de la double couche électrochimique selon la théorie d’Helmholtz – interface électrode / électrolyte Les matériaux utilisés classiquement dans les supercondensateurs, comme matière active, sont des carbones de très grande surface spécifique, de 1000 à 2500 m2 /g, de façon à présenter une grande surface de contact avec l'électrolyte. Pour atteindre de telles valeurs, un précurseur de carbone est pyrolysé puis oxydé de façon ménagée. C’est durant cette dernière phase que sont créées la porosité et donc la surface spécifique. La figure 2 représente un grain de carbone activé après activation : Figure 2 : représentation schématique d’un grain de carbone activé avec son réseau de porosité L’activation donne lieu à la création d’un réseau poreux réparti en trois gammes de pore : micropore – taille de pore inférieure 2 nm -, mésopores – taille de pore comprise entre 2 nm et 50 nm – et les macropores – taille de pore supérieure à 50 nm(5) . La capacité différentielle – ou capacité spécifique – moyenne rencontrée pour ces matériaux est de l’ordre de 10 à 20 µF.cm-2 selon le type d’électrolyte ; ces grains de carbones possèdent ainsi des capacités massiques de 100 à 200 F/g en milieu aqueux et de 80 à 100 F/g en milieu organique. La très grande majorité des supercondensateurs commercialisés aujourd’hui utilisent des électrolytes organiques à base de sels fluorés dissous dans des solvants de type carbonate de propylène ou acétonitrile. Dans ces électrolytes, la tension de fonctionnement des systèmes carbone / carbone atteint 2,5 à 2,7 V. 4. Etat de l’art La mise au point d’un matériau optimisé pour une électrode de supercondensateur passe par la réponse à cette question : quelle est la taille optimale de pores devant être développer dans le volume des grains de carbones activés pour optimiser le stockage des charges à l’interface carbone / électrolyte ? En d’autres termes, comment optimiser la capacité de stockage des charges en contrôlant l’interface carbone/électrolyte ? Si l’on se reporte à la taille des ions solvatés en électrolyte organique – située entre 1 et 2 nm -, la taille optimale semble se situé dans la gamme des mésopores. De nombreux travaux de recherche sont allés dans ce sens et c’est ainsi que des grains de carbones optimisés ont été obtenus(6) . Pour exemple, des carbones ont été synthétisés par voie « Template ». Cela consiste en une étape d’imprégnation d’un substrat mésoporeux de type silice par un précurseur de carbone sous forme, gazeuse, liquide ou solide(7,8) , suivie d’une étape de pyrolyse visant à transformer le précurseur de carbone et se terminant par une dissolution en milieu HF du moule de SiO2 pour obtenir un carbone dont la taille des pores est la réplique du squelette de silice utilisé. Grâce à cette technique, des gains en capacité de l’ordre de 20% ont été obtenus (jusqu’à 115 F/g en milieu organique), ce qui restait un peu décevant en terme d’amélioration des performances. Cependant, des travaux ont été menés sur la mise au point de carbones non plus mésporeux mais microporeux, et plus particulièrement sur des carbones de porosité sub-nanométrique (< 1nm) appelés Carbone Dérivés de Carbures (CDC)(9) . Ces CDCs sont obtenus à partir de la chloration de carbures métalliques à des températures comprises entre 400°C et 1000°C selon la réaction ci-dessous. MC + nCl2 MCl2n + Cs La figure 3 montre clairement qu’il existe une bonne corrélation entre la température de chloration et la surface spécifique ainsi que le diamètre moyen des pores(9) . 400 500 600 700 800 900 1000 1100 1000 1300 1600 1800 Surfacespécifique,m2 /g Température de chloration, °C 400 500 600 700 800 900 1000 1100 0.4 0.7 1 1.2 Diamètremoyendepore,nm Diamètre Surface spécifique Figure 3 : évolution de la surface spécifique et du diamètre moyen de pore en fonction de la température de synthèse Cette méthode de synthèse de carbone activé permet d’obtenir un parfait contrôle en terme de surface spécifique et de diamètre des pores. Le plus important étant que les carbones ainsi obtenus possèdent une distribution en taille de pores nettement plus étroite que celle obtenue avec les carbones activés issus des méthodes d’activation conventionnelles ; dans une gamme de pores située dans la petite microporosité - taille de pore inférieur à 1 nm(9) . 5. CDC - Capacité augmentée Ces carbones ont été testés dans un électrolyte de composition acétonitrile + 1M NEt4BF4 – TetraEthylAmonium de TetraFluoroBorate – pour lequel les diamètres des ions solvatés sont respectivement de 1,3 nm et 1,16 nm pour NEt4 + et BF4 - (10) . Cet électrolyte est par ailleurs très largement utilisé dans de nombreux systèmes commerciaux performants. Les variations de la capacité massique (F/g) et de la capacité volumique (F/cm3 ) en fonction de la taille des pores des CDC testés (Figure 4) mettent en évidence que lorsque la taille des pores diminue jusqu’à être très inférieure à la taille des ions solvatés, la capacité augmente ; ce résultat est en évidente contradiction avec les dogmes établis depuis plus de vingt ans, qui prévoient que seuls les mésopores, de par leur taille proche de celle des ions solvatés, permettent d’atteindre des capacités spécifiques maximales. D’autre part, les valeurs des capacités massique et volumique des CDC sont notablement plus élevées (140 F.g-1 et 84 F.cm-3 ) que celles obtenues pour des carbones activés, mesurées dans les mêmes conditions (100 F.g-1 et 45 F.cm-3 ). Si des capacités élevées ont déjà été reportées dans la littérature11 , cette étude systématique, réalisée avec des carbones uniquement microporeux, met pour la première fois en évidence ce comportement inattendu. 400 500 600 700 800 900 1000 1100 90 100 110 120 130 140 150 Capacitémassique,F/g Température de chloration, °C 400 500 600 700 800 900 1000 1100 50 55 60 65 70 75 80 Capacitévolumique,F/cm3 F/g F/cm3 Figure 4: Variation des capacités volumique (F/cm3 ) et massique (F/g) pour différents CDC synthétisés entre 500°C et 1000 °C(9) . Pour essayer de comprendre ce comportement pour le moins inattendu, la variation de la capacité spécifique des CDC (µF/cm2 ) en fonction de la taille des pores a été tracée (Figure 5). 0 1 2 3 4 5 6 0 5 10 15 20 25 30 Taille moyenne de pore, nm Capacitéspécifique,µF/cm2 CDC Carbones activés mésoporeux Figure 5 : variation de la capacité spécifique en fonction du diamètre moyen de pore (9) Comme il est possible d’observer sur cette figure, entre 5 nm et 1 nm de taille moyenne de pore la capacité spécifique décroît avec la taille de pore ce qui est tout à fait attendu et reporté dans la littérature – droite de tendance en ligne pointillée. Cependant, pour des tailles de pores inférieures à 1 nm, la capacité spécifique augmente de façon brutale, ce qui montre clairement une contribution très importante des pores de dimensions sub- nanométriques à la capacité de stockage des charges dans les CDC. L’hypothèse formulée pour expliquer ce résultat surprenant est la déformation de la sphère de solvatation des ions, qui permet ainsi aux ions d’accéder à ces pores malgré leur taille. Cette observation est assez surprenante car, dans toutes les théories classiques de la double couche électrochimique, la distance minimale d’approche des ions qui correspond à la distance de séparation entre l’électrode et les ions, est régie par un équilibre entre les forces électrostatiques et l’encombrement stérique des ions solvatés. Le confinement des ions tend à désolvatés au moins partiellement les ions de l’électrolyte donnant lieu à une diminution de la distance de séparation entre les ions et la surface du carbone. Cette diminution de la distance de séparation mène à une augmentation importante de la capacité spécifique ce qui est tout à fait remarquable. Ce résultat important amène à se demander quelle est la taille optimale ? 6. Taille optimale Afin d’aller plus loin, il a été mis en place des mesures utilisant des électrolytes composés d’un liquide ionique(12) . La particularité de ces composés est qu’il s’agit de sels liquides à température ambiante ne nécessitant aucun solvant ; les ions présents dans ce type d’électrolytes ne sont donc pas solvatés. La figure 6 présente la variation de la capacité volumique en fonction du diamètre moyen de pore du carbone utilisé comme électrode de supercondensateur. 0.7 0.8 0.9 1 1.1 50 60 70 80 90 100 110 Capacitévolumique,F/cm3 Diamètre moyen de pore, nm Cations Anions Figure 6: Variation de la capacité volumique en fonction de la taille des pores de différents carbones. Comparaison entre l’électrode positive adsorbant les anions et l’électrode négative adsorbant les cations(12) . Les résultats obtenus en milieu liquide ionique montrent que la capacité volumique atteint un maximum pour des tailles de pores différentes selon que l’on s’intéresse aux cations ou aux anions. L’électrode positive adsorbant les anions et l’électrode négative, les cations, cela montre clairement l’importance d’adapter autant que possible le diamètre moyen de pores de chaque électrode avec celui des ions concernés, et bouleverse totalement la façon de concevoir un supercondensateur carbone / carbone : classiquement le même carbone activé est utilisé aux électrodes négative et positive – soit un montage totalement symétrique – or il vient d’être démontré que l’optimum de capacité spécifique n’est pas atteint pour la même taille de pore. Pour maximiser la quantité d’énergie stockée, il faudra donc fortement considérer cette relation entre la taille des ions de l’électrolyte et la taille moyenne des pores des carbones activés de chaque électrode. L’utilisation de carbones optimisés – ayant une taille de pore en adéquation avec la taille de l’ion – permet de multiplier par deux la capacité volumique : un carbone activé traditionnel possède une capacité de 50 F/cm3 alors que nous avons vu ici qu’une capacité volumique de près de 80 F/cm3 peut être obtenue. Cette augmentation importante permet d’envisager la réalisation de supercondensateurs miniaturisés. 7. Densification – micro-supercondensateurs Dans un souci d’optimisation et de maîtrise de la consommation d’énergie, il est nécessaire de proposer des solutions de stockage d’énergie appropriées. Cette problématique concerne aussi bien l’environnement que l’amélioration de l’autonomie des systèmes nomades. Ces dernières années s’est multiplié un nombre considérable de fonctions électriques apportant plus de confort, de sécurité et de contrôle sur la gestion de la consommation d’énergie. Le développement des micro-systèmes en est un parfait exemple. Ces systèmes interviennent par exemple dans l’automobile : la fonction ABS utilise un accéléromètre. Dans l’ensemble un besoin croissant d’intégrer au plus près de l’utilisation les sources de puissance apparaît comme incontournable dans une logique d’optimisation de la chaine énergétique. De la même façon que les batteries, les micro-batteries ne peuvent à elles seules couvrir tous les besoins de part leur puissance limitée. Les micro- supercondensateurs permettent de répondre à cette demande. Les CDCs sont intéressants à plus d’un titre pour la réalisation de micro- supercondensateurs. Ils ont tout d’abord une densité d’énergie volumique très élevée, plus du double de celle des carbones activés conventionnels. Leur mode de fabrication met en œuvre une synthèse par voie gaz facilement transposable aux chaines de microfabrication déjà en place. Mais ils présentent un avantage majeur par rapport aux carbones activés : ils peuvent être préparés sous forme de film massifs auto-supportés. Le schéma de la figure 7 montre un exemple de réalisation de films massifs de CDC(13) sur un wafer de silicium. Figure 7: Réalisation d’une couche active de carbone sur substrat de carbure de titane massif – mode de fabrication transposable aux technologies silicium(13) . La fabrication du µ-supercondensateur suit quatre étapes : 1. Dépôt par pulvérisation cathodique d’un film de carbure de titane ou de carbure de silicium – Figure 7A 2. Conversion de la couche de carbure par chloration en carbone activé. La température permet de régler la taille moyenne de pore – Figure 7B 3. Dépôt par pulvérisation d’or au travers d’un masque ; l’objectif est ici d’avoir des collecteurs courant qui assureront la collecte de courant – Figure 7C 4. Décapage ionique de la couche de carbone non revêtue d’or afin de découpler les deux électrodes. L’ensemble est ensuite imbibé d’électrolyte et constitue le µ- supercondensateur opérationnel – Figure 7D De nombreux travaux sont actuellement en cours afin de finaliser ce concept. Néanmoins, des premiers travaux ont été publiés validant les étapes 1 et 2 (13) . Afin de valider le concept, la caractérisation des CDC en couche mince a donc été nécessaire. Pour se faire une céramique massive de carbure de titane a été utilisé afin de réaliser un film de carbone dense par chloration. Différents niveaux de contrôle sont accessibles : la température de chloration déterminant le diamètre moyen de pores ; le temps de chloration contrôlant l’épaisseur de la couche active ainsi formée. L’influence de la température, et donc du diamètre moyen des pores, ayant déjà été largement discutée, nous bornerons notre étude ici à l’influence de l’épaisseur de la couche active sur les valeurs obtenues de capacité volumique dans un électrolyte organique de référence composé d’un mélange d’acétonitrile et d’un sel de NEt4BF4 (Figure 8). Les couches actives ont été préparée à 500 °C ce qui signifie que le diamètre moyen se situe aux environs de 0,7 nm. 0 50 100 150 200 250 20 40 60 80 100 120 140 160 180 200 Capacitévolumique,F/cm3 Epaisseur de la couche active, µm Figure 8 : Variation de la capacité volumique en fonction de l’épaisseur de la couche active pour un diamètre moyen de pores de 0,7 nm ; mesures effectuées dans un électrolyte organique à base de NEt4BF4 et d’acétonitrile(13) . Cette figure montre très clairement une augmentation importante de la capacité volumique lorsque l’épaisseur de la couche active de carbone activé diminue. Pour une épaisseur de 1 µm, la capacité volumique atteint 180 F/cm3 . Ce résultat est tout à fait exceptionnel puisqu’il montre une augmentation de 300% de la densité d’énergie en comparaison avec les charbons actifs standards (50 F/cm3 )(13) . Ceci laisse imaginer l’obtention de supercondensateurs délivrant leur énergie trois fois plus longtemps que ceux actuellement commercialisés. L’origine de cette forte augmentation de capacité tient principalement à un effet de densification du matériau. Le carbure précurseur est, dans ce cas, un massif et non une poudre ; la masse volumique apparente du matériau de départ est deux fois celle de son équivalent en poudre (on considère ici, en première approximation, le cas d’un empilement de grains suivant une géométrie cubique compacte donnant une compacité de 50 %). Ce gain important en masse volumique explique à lui seul l’augmentation de capacité volumique puisque l’on passe de 80 F/cm3 – cas des CDC pulvérulents – à 180 F/cm3 – cas des couches de CDC issues d’un carbure massif. De nombreux verrous restent encore à lever avant d’obtenir un µ-supercondensateur opérationnel mais d’ores et déjà les résultats obtenus en couche mince sont tout à fait encourageants. 8. Conclusions Les récentes découvertes présentées dans cet article bouleversent totalement la façon de concevoir les supercondensateurs à double couche électrochimique. Contrairement à ce qui a longtemps été pensé, les ions de l’électrolyte sont en mesure, après désolvatation partielle ou complète, d’entrer dans des pores sub- nanométriques donnant lieu à une augmentation importante de la densité d’énergie des matériaux d’électrode – 2 fois celle des électrodes actuelles. Un supercondensateur optimisé doit donc également être asymétrique ; chaque électrode stockant des ions différents devra être constituée d’un carbone dont la taille moyenne des pores est en adéquation avec la taille de l’ion qu’elle adsorbe : cations à l’électrode négative, anions à l’électrode positive. Ce nouveau mécanisme de stockage de charges remet en cause beaucoup d’idées reçues et des travaux de recherches fondamentaux sont actuellement en cours afin de mieux comprendre les phénomènes physico- chimiques intervenant à l’échelle sub- nanométrique. Il est également possible d’aller plus loin en réalisant des films minces de carbone nanostructuré. Des capacités volumiques de l’ordre de 200 F/cm3 peuvent être obtenues ouvrant la voie vers la miniaturisation des supercondensateurs. Une nouvelle génération de supercondensateurs à haute densité d’énergie pourrait apparaître, impactant aussi bien les applications dans le domaine du transport que celui des microsystèmes. 9. Références : (1) Simon, P.; Gogotsi, Y. Nat Mater 2008, 7, 845-854. (2) Miller, J. R.; Simon, P. Science 2008, 321, 651 -652. (3) Amatucci, G. G.; Badway, F.; Du Pasquier, A.; Zheng, T. Journal Of The Electrochemical Society 2001, 148, A930-A939. (4) Moseley, P. T.; Nelson, R. F.; Hollenkamp, A. F. Journal of Power Sources 2006, 157, 3-10. (5) Sing, K.; Everett, D.; Haul, R.; Moscou, L.; Pierotti, R.; Rouquerol, J.; Siemieniewska, T. Pure And Applied Chemistry 1985, 57, 603-619. (6) Pandolfo, A.; Hollenkamp, A. Journal of Power Sources 2006, 157, 11-27. (7) Fuertes, A. B. J. Mater. Chem. 2003, 13, 3085. (8) Fuertes, A.; Lota, G.; Centeno, T.; Frackowiak, E. Electrochimica Acta 2005, 50, 2799-2805. (9) Chmiola, J. Science 2006, 313, 1760-1763. (10) Yang, C.-M.; Kim, Y.-J.; Endo, M.; Kanoh, H.; Yudasaka, M.; Iijima, S.; Kaneko, K. Journal of the American Chemical Society 2007, 129, 20-21. (11) Vix-Guterl, C.; Frackowiak, E.; Jurewicz, K.; Friebe, M.; Parmentier, J.; Béguin, F. Carbon 2005, 43, 1293-1302. (12) Largeot, C.; Portet, C.; Chmiola, J.; Taberna, P.-L.; Gogotsi, Y.; Simon, P. J. Am. Chem. Soc. 2008, 130, 2730-2731. (13 Chmiola, J.; Largeot, C.; Taberna, P. L.; Simon, P.; Gogotsi, Y. Science 2010, 328, 480-483.