Géométries fractales et sciences de la complexité

Application à la sécurité énergétique et au contrôle des blackouts électriques 17/03/2015
Publication REE REE 2015-1
OAI : oai:www.see.asso.fr:1301:2015-1:12980
DOI : http://dx.doi.org/10.23723/1301:2015-1/12980You do not have permission to access embedded form.
contenu protégé  Document accessible sous conditions - vous devez vous connecter ou vous enregistrer pour accéder à ou acquérir ce document.
Prix : 10,00 € TVA 20,0% comprise (8,33 € hors TVA) - Accès libre pour les ayants-droit
 

Résumé

Géométries fractales et sciences de la complexité

Métriques

3
0
857.93 Ko
 application/pdf
bitcache://ed1c2ff41ad8b2d5d19beb724e42928cfbb17fa4

Licence

Creative Commons Aucune (Tous droits réservés)
<resource  xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
                xmlns="http://datacite.org/schema/kernel-4"
                xsi:schemaLocation="http://datacite.org/schema/kernel-4 http://schema.datacite.org/meta/kernel-4/metadata.xsd">
        <identifier identifierType="DOI">10.23723/1301:2015-1/12980</identifier><creators><creator><creatorName>Alain Le Méhauté</creatorName></creator><creator><creatorName>Frédéric Héliodore</creatorName></creator></creators><titles>
            <title>Géométries fractales et sciences de la complexité</title><title>Application à la sécurité énergétique et au contrôle des blackouts électriques</title></titles>
        <publisher>SEE</publisher>
        <publicationYear>2015</publicationYear>
        <resourceType resourceTypeGeneral="Text">Text</resourceType><dates>
	    <date dateType="Created">Tue 17 Mar 2015</date>
	    <date dateType="Updated">Thu 26 Jan 2017</date>
            <date dateType="Submitted">Sat 24 Feb 2018</date>
	</dates>
        <alternateIdentifiers>
	    <alternateIdentifier alternateIdentifierType="bitstream">ed1c2ff41ad8b2d5d19beb724e42928cfbb17fa4</alternateIdentifier>
	</alternateIdentifiers>
        <formats>
	    <format>application/pdf</format>
	</formats>
	<version>21360</version>
        <descriptions>
            <description descriptionType="Abstract"></description>
        </descriptions>
    </resource>
.

26 REE N°1/2015 Géométries fractales et sciences de la complexité Application à la sécurité énergétique et au contrôle des blackouts électriques L'ARTICLE INVITÉ The power plants and the coupling in space and time of their distribution and fields of consumption, lead electrical networks of being “complex systems”. Such systems are characterized by dynamic singularities under the control of entangled causalities which condemn any intuitive mastery of sometimes chaotic and even catastrophic behaviors. Facing them, the intuitive rational control must give way to a simulation which has especially to take into account the multi-evaluation of response functions. This feature, leads however to refer the behavior of these systems to the dynamics on hyperbolic manifolds, and especially on their most common physical archetype: the fractal geometries. We show that the singularities are distributed according to scaling laws associated to these geometries. The experimental relevance of these laws is confirmed and with it, the efficiency of simulation tools developed to give to the technical and political actors, the tools required to monitor, manage and anticipate the network behavior. ABSTRACT ALAIN LE MÉHAUTÉ1 FRÉDÉRIC HÉLIODORE2 Materials Design SARL & Inc. et Institut franco-québécois1 R&D Project leader, Automation and Smart Grid solutions - Alstom Grid2 REE N°1/2015 27 L'ARTICLE INVITÉ Une nouvelle classe d’objets scientifiques : les « systèmes complexes » L es « systèmes complexes » constituent une nou- velle classe « d’objets » de recherche « scienti- fique ». Ils exigent en effet une extension de la méthodologie cartésienne de connaissance à des champs d’entendement et d’expérimentation, certes de moins en moins systématiquement reproductibles, mis en ordre et mesurés [1], mais ne relevant pour autant ni des seules statistiques ni de la chose impensable [2] : systèmes vivants, systèmes économiques financiers et sociaux, grands dispositifs d’ingénierie interconnectés, évènements histo- riques à très faible probabilité, écologie, etc. Bien que leur définition formelle ne fasse pas l’unanimité et bien que la « causalité » cartésienne, fondement de la démarche scienti- fique, doive alors faire place à une « causalité intriquée et/ou simulée », un constat s’impose : il s’agit de systèmes n’entrant pas stricto sensu dans le cadre d’une connaissance au sens traditionnel. En particulier, notre rapport à de tels objets est par essence irréductible au projet Laplacien selon lequel la connaissance du passé (et/ou de la partie) donne toutes prédictions sur le devenir (ou/et sur la phénoménologie globalement attachée à l’objet). Les méthodes scientifiques de type analytique et réductionniste se heurtent ici à des limites théoriques et pratiques aujourd’hui sans alternatives assurées et mettant en outre en question la notion même de causalité donc de temporalité. Les membres du Comité de pilotage du Réseau national des systèmes complexes (RNSC) ont, au cours des dernières années, convenu de définir un « système complexe » selon trois composantes principales : - tiques universelles telles que l’autosimilarité ou/et la renor- malisation [3]. L’archétype est ici « l’objet fractal » [4] ; de la chose complexe », problématiques auxquelles nous confrontent les grandes bases de données (“big data”) et les « phénomènes saturés » [2] (lorsque l’intuition de l’unité de la « chose » dépasse nos facultés de représentation ration- nelle immédiate, obligeant à utiliser des artefacts d’entende- ment justifiés par la seule efficacité) ; — entre autres sujet-objet ou/et local-global — à revisiter. La dualité onde/corpuscule et local/non local en mécanique quantique est un exemple qui illustre cette composante de la complexité. En dépit de la diversité des problématiques, on peut ob- server qu’une des caractéristiques communes des systèmes complexes est la propriété d’arborescence, qui implique des cascades hiérarchiques et des ultramétriques pour les me- sures de distances entre nœuds. Cette propriété associe de facto l’algèbre de ce type de systèmes — c’est-à-dire notre capacité à les composer et à les décomposer— aux groupes dits hyperboliques eux-mêmes associables à des propriétés Figure 1 : Exemple de représentation de l’arborescence fractale du réseau www en fonction des opérateurs. 28 REE N°1/2015 L'ARTICLE INVITÉ de renormalisation. Ce constat est évident si l’on s’intéresse par exemple à la construction des objets fractals. L’arbre y apparaît comme la structure duale naturellement associée à l’évolution dans l’ordre hiérarchique. L’arbre peut par ailleurs être pris à rebours pour le traitement des “big data” dont les représentations pointent systématiquement sur des arborescences et des lois d’échelle (exemple figure 1). Enfin, comme l’avait perçu Henri Bergson [5], c’est par le truche- ment du concept de temps (irréversible), que l’on peut aborder de manière critique la question de la séparation sujet-objet. En effet, l’incertitude qui affecte notre rapport aux systèmes complexes introduit dans l’action un facteur entropique. Une rapide analyse dimensionnelle portant sur la conjugaison des deux composantes, action et entropie, fait émerger une variable qui n’est autre que le temps. Dans tous les cas, la fractalité géométrique et les dyna- miques d’ordre non entier qu’elle induit sont d’excellents guides pour penser l’universalité de la complexité. Comme le montre par exemple le mouvement brownien fractionnaire, la fractalité véhicule, dans sa pratique géométrique et analy- tique, des questions interrogeant la conjugaison du hasard et de la nécessité, du déterminé et du contingent, du présent et de la mémoire. La question de l’évènement comme sin- gularité dans le temps — dont le “blackout” électrique est un exemple qui sera développé plus loin — relève à l’évidence de ce type d’interrogation. De l’objet fractal et de son introduction en physique On doit à Benoît Mandelbrot, en 1975, tout à la fois le terme de « fractal » et la synthèse lumineuse de probléma- tiques qui, initiées avec Leibniz, ont interrogé successivement Liouville, Weierstrass, Cantor, Peano, Hausdorff, Sierpinsky et bien d’autres grands mathématiciens. Bien que le mot n’ait pas été défini, et sans doute pour cette raison, la fractalité eut, après un bref temps de latence (10 ans), un succès média- tique et scientifique considérable qui fut servi par la puissance de traitement croissante des cartes graphiques associables aux ordinateurs. La simulation se dotait alors d’une capacité réelle de représentation et de décodage de la complexité. Ce succès était mérité pour plusieurs raisons [6] : pose la question centrale de la récursivité en géométrie mais aussi en analyse. Cette récursivité ramène aux problé- matiques soulevées par les automorphismes et les endo- morphismes, deux champs d’interrogations majeures en théorie des groupes ; fractalité pose de manière pratique la question de l’actuali- sation de l’infini, mettant ainsi en exergue l’importance de ce que l’on appelle en mathématique la compactification1 ; géométrique, non sans puissance artistique [7], la géomé- trie fractale pointe ses liens étroits avec la notion de variétés et de groupes hyperboliques, interrogeant alors en profon- deur, et au-delà de la seule statistique, une thermodyna- mique à repenser ainsi que sa variable phare, l’entropie qui prend ici un tour géométrique ; terme « fractal » ouvre la voie à de nouvelles interrogations dynamiques, en particulier celle de l’absence de vitesse, donc d’invariant énergétique (au sens de Noether). Le rôle des facteurs d’échelle entraîne que le temps et l’espace ne peuvent être découplés2 . En effet, comme il est facile de le comprendre à partir des courbes de von Koch et de Peano (figure 2), pour chaque niveau d’échelle spatiale, chaque étape de construction doit correspondre à une fréquence d’horloge particulière. Or l’unité de l’objet fractal exige une mesure invariante, ici construite comme produit non linéaire entre la fréquence et l’échelle spatiale à la puissance de la 1 Voir le glossaire en fin d’article. 2 Le lien entre géométrie fractale et temporalité est explicité dans l’encadré 1. Figure 2 : Exemple de constructions de géométries fractales. d est la dimension. De gauche à droite : courbe de Koch, courbe de Peano et escalier du diable sur structure cantorienne. REE N°1/2015 29 L'ARTICLE INVITÉ dimension non entière. A la différence des objets euclidiens pour lesquels l’invariant en question pointe sur la notion de vitesse, la non-linéarité invalide ici ce concept comme mesure locale et globale et introduit une rotation de phase entraînant une levée de dégénérescence du concept habi- tuel de temps avec en pratique l’apparition d’une compo- sante irréversible d’origine géométrique. L’avantage du concept de fractalité est évidemment de disposer de représentations simples (figure 2) et donc de donner explicitement à « voir » des questions très abstraites telles que les effets de seuil ou/et de divergence précisément traités par les groupes de renormalisation1 . C’est à ce stade qu’émerge vraiment le distinguo entre l’objet de science (Objekt) et la chose au monde dotée d’une temporali- té propre (le Zeit Objekt de Husserl et le Gegenstand de Habermas). Constater par exemple que la dimension fractale d’un objet est log4/log2, comme dans le cas de la courbe de Peano, n’a qu’un intérêt relatif, mais dessiner, construire et manipuler dans le temps et dans l’espace des structures hautement récursives, possédant donc des corrélations dans l’ordre des échelles – objets de prototypage 3D, interfaces d’échange et de stockage, fonctions de codage, filtre de dé- codage, etc. — c’est découvrir un monde de temporalité et de réactivité nouvelles et, en pratique, créer de la négentropie1 (c’est-à-dire inverser le cours du temps ce qui est précisé- ment le but de l’ingénierie). Prenons pour illustrer notre propos, trois exemples non limitatifs : découverte en premier lieu par Peukert à propos des bat- teries au plomb. A condition de prendre les précautions expérimentales qui s’imposent, cette loi fut ultérieurement confirmée pour une multitude d’autres piles et batteries. Systématiquement [6], la puissance disponible, donc le champ de nos usages de ces dispositifs de stockage d’éner- gie (transport, santé, défense…), dépend de la « dimension fractale » des électrodes. Nous mettons ici simplement un mot sur ce que savent les ingénieurs qui distinguent les applications requérant de l’énergie, ce qui exige un volume, des applications requérant de la puissance, ce qui exige de la surface. Un mixte exige en pratique de la fractalité dans un ratio adapté aux besoins ; la structure des noirs de carbone, donc leurs usages po- tentiels (pneumatiques, encres, pigments, traceurs, inter- faces), dépend de la vitesse de traitement thermique des flux gazeux qui leur donnent naissance ; de même la struc- ture d’une interface dépend de la distribution de densité de flux et de la géométrie des champs imposées au milieu (côtes, interface électrochimique et chimique, agrégats). Ce n’est évidemment pas pour rien que les ingénieurs de chez Michelin font leur propédeutique industrielle dans les ateliers, sous l’autorité des contremaîtres qui savent que l’application particulière exige un pétrissage du composite latex/noirs adapté ; cette fois, les fonctions de transfert sur des objets à struc- ture fortement hétérogène (par exemple un câble élec- trique ou un absorbant électrique ou acoustique) pointent systématiquement sur des règles de renormalisation. Les propriétés spectrales conduisent naturellement à du filtrage non linéaire et à des lois de puissance en probabilité. Citons à cet égard la loi de Zipf pour la probabilité des mots dans nos conversations courantes, la probabilité des tremble- ments de terre et des bulles spéculatives ou la probabilité d’apparition de défaillances des dispositifs d’ingénierie. Alors que se diversifient les sources d’approvisionnement en énergie, cette dernière observation nous conduit direc- tement à la question de maîtrise des défaillances dans les réseaux électriques (blackout). Il faut toutefois, avant d’abor- der cette question, considérer les raisons théoriques justifiant l’universalité des lois de puissance et des règles de renorma- lisation. De l’universalité de l’autosimilarité et de l’irréversibilité Comme le montrent P. Riot et ses collaborateurs dans des travaux récents concernant une nouvelle approche de la conjecture de Riemann prenant appui sur la démonstra- tion des propriétés d’autosimilarité de la fonction Zéta3 , l’uni- versalité du constat de renormalisation pour de nombreux systèmes complexes peut être interprétée dans le cadre de la théorie des catégories. Cette théorie qui fait de l’adjonc- tion monadique, c’est-à-dire de l’autocohérence opératoire des processus de construction et de déconstruction de l’ob- jet d’étude, sa base de raisonnement [8], présente l’avan- tage de distinguer très précisément l’addition (vue comme injection constructiviste) de la multiplication (vue comme surjection associable aux procédures de partition et donc de déconstruction). Cette distinction, habituellement voilée par l’usage extensif de l’arithmétique élémentaire, doit en pra- tique et au sens de Husserl, être subsumée pour permettre au scientifique de retrouver l’essence identitaire et bornée de l’objet qu’il traite, objet qui doit évidemment être concep- tuellement identifiable et/ou concevable. La conséquence du bouclage catégorique qui est alors exigé entre construc- tibilité et partitionnement, est concrétisée par l’émergence de groupes de renormalisation (autosimilarité des structures en questions [4]). Celles-ci étant alors caractérisables par 3 NDLR : sur la conjecture de Riemann et la fonction Zéta, le lecteur pourra se reporter au Flash Info publié « Les nombres entiers en première ligne » publié dans la REE 2013-5. 30 REE N°1/2015 L'ARTICLE INVITÉ Figure 3 : Effet d’exemple de fractionnarisation d’un automorphisme complexe Le lien entre géométrie fractale et temporalité est un lien que les auteurs, avec d’autres scientifiques, considèrent comme central pour comprendre l’évolution universelle vers la complexification. Alors que la physique, classique et quantique, peut très bien se passer du concept de temps, la physique en milieu fractal exige la présence d’une tem- poralité sous sa composante irréversible, c’est-à-dire sous la composante qui est la moins bien comprise. Par le truchement des effets de seuil, la représentation graphique des opérateurs d’automorphismes pointe remar- quablement pourquoi il en est ainsi. Ainsi, l’ensemble de Mandelbrot qui émerge de l’automorphisme quadratique dans l’espace complexe Z Z2 + C montre-t-il (en noir sur la figure 3) une zone de stabilité infinie qui s’oppose (en couleur sur la figure) au temps de récurrence au-delà duquel l’affixe de l’automorphisme diverge. On appelle ensemble de Julia la même problématique en un point C, la divergence étant associée au nombre d’itérations de l’automorphisme, donc au « temps ». On observera que ce temps est toutefois réversible au même titre que celui d’une horloge. Considérons maintenant l’automorphisme fractionnaire Z Z + C avec non entier, on constate alors que la symétrie de l’ensemble de Mandelbrot disparaît et que des lignes de fractures affectent alors les symétries initiales des ensembles de Julia. Sur ces lignes, deux points d’un diagramme sont en surjection dans l’automorphisme, sur- plus être inversé sans erreur retour possible. En pratique, en certains points, l’arborescence, ne s’appuie pas sur un embranchement ponctuel, mais sur un triangle-fin introduisant une dimension complémentaire au problème. Cet épaississement fait émerger l’irréversibilité. . . .. REE N°1/2015 31 L'ARTICLE INVITÉ des lois d’échelle entraînant, comme il a été vu, une l’irré- versibilité temporelle [6], il résulte du bouclage catégorique l’émergence d’un temps irréversible d’origine géométrique, distinct (tout en lui étant couplé) du temps réversible qui ca- ractérise l’espace-temps noethérien de la physique. Comme le montrent dans leurs travaux A. Connes [9] et M Rovelli [10], mais aussi L. Smolin [11] et maintenant P. Riot et al. [12], il apparaît alors associé à la renormalisation, donc à une fractalité au moins implicite, une unité de temps externe, à chercher dans l’intrication des opérations algébriques (et co-algébriques) qui régissent la stabilité et/ou l’autoconstruc- tion de structures complexes auxquelles sont adossés et/ou donnent lieu les phénomènes dynamiques. De même que la fractalité est source d’irréversibilité temporelle, symétrique- ment [13] l’irréversibilité est source de fractalité, d’auto-orga- nisation et de complexification. Ce constat universel est indépendant de la taille du sys- tème que l’on considère. Il doit donc en être ainsi des réseaux électriques nationaux vus comme des systèmes complexes s’ils sont auto cohérents y compris sous stress électrique. Tel est bien ce qui est observé et ce que les ingénieurs doivent maîtriser De la fractalité à la problématique de défaillance des réseaux électriques Généralités Comme nous avons pu le constater puis le simuler [14], la criticité auto-organisée (CAO ou SOC) des défaillances des réseaux électriques relève précisément de la classe des couplages spatio-temporel irréversibles renormalisables. En pratique un réseau électrique est en effet un graphe constitué de nœuds et de branches statistiquement auto similaires donc associable par dualité à une arborescence. Faute d’investissements rentabilisables pour le stockage, la production d’énergie doit impérativement être distribuée en temps réel de manière irréversible. Le gestionnaire de réseau est donc confronté à un problème d’échanges dynamiques d’énergie, convolués par un filtre à caractère hyperbolique. Parmi les nœuds, il existe des nœuds charges et des nœuds générateurs. A l’échelle d’un pays, un réseau est un système complexe fonctionnant comme un « objet » en saturation car les investissements sont toujours limités. A long terme, le fonctionnement du réseau doit répondre à une politique qui exige de concilier l’augmentation continue du taux de charge (~ 4 % par an) et la fluctuation progressivement croissante des énergies et puissances distribuées sur les lignes de trans- mission, par ailleurs soumises à une planification des che- mins de distribution. Le travail effectué par l’équipe @RiskTeam d’Alstom Grid a pris comme unité d’analyse expérimentale le réseau élec- trique colombien. Le point de départ est l’observation pas- sive des lois de distribution des défauts critiques (énergie non distribuée). Comme il pouvait être anticipé, attendu l’analyse qui précède, la loi de distribution de la puissance électrique observée est une loi de puissance. Comme à l’or- dinaire, il importe d’obtenir des modèles de comportement avant toute maîtrise technique de l’objet étudié. Une manière de penser le comportement complexe du réseau est d’utili- ser une analogie. Le modèle du tas de sable On doit à I. Dobson et al [15], les premières tentatives aca- démiques visant à donner un contenu conceptuel aux lois de comportement des blackouts : modèle ORNL-PSerc-Alaska (OPA). Ce dernier s’appuie sur l’analogie entre l’instabilité des réseaux électriques et l’instabilité d’un tas de sable auquel on impose une croissance par le sommet. La modélisation assimile l’ajout de grains à une augmentation de la charge sur le réseau. Le modèle du tas de sable, convolué avec des lois statistiques propres à la dynamique de réseau, conduit à donner un contenu théorique à la loi de puissance préci- tée. La pente de la loi est alors une pente invariante piégée sur l’unité du fait du découplage entre les règles statistiques, la structure de l’arborescence complexe et l’absence d’une prise en compte des facteurs temporels. Le tableau 1 fournit les correspondances conceptuelles en jeu. Conséquences de la loi de puissance sur la distribution de la charge additionnelle Comme dans le cas de la localisation en physique de la matière condensée ou dans les modèles de tremblement de terre, au lieu d’être immédiatement distribuée de manière optimale sur sa totalité du réseau comme le voudraient les modèles entropiques simples, la charge additionnelle se trouve, en cas de fractalité du réseau, localisée sur des zones particulières du fait des non-linéarités dynamiques locales et globales. Cette situation crée des états métastables qu’une perturbation, même faible, peut rompre de manière catas- Réseau électrique Variables formelles Tas de sable Géométrie du réseau Graphe Pyramide Charge Variable d’état Gradient/pente Corrélations/ distributions Courbure de la variété Gravité Taux de charge critique Seuil d’instabilité Pente critique Flux critique Largeur du seuil d’instabilité Flux critique Dynamique de blackout Cascades dynamiques Avalanches Tableau 1 : Correspondances conceptuelles entre un réseau électrique et le modèle du tas de sable. 32 REE N°1/2015 L'ARTICLE INVITÉ trophique éventuellement destructrice en engendrant des cascades de blackouts (figure 4). En effet le réseau est constitué de nœuds et de mailles. Il est soumis à un flux d’énergie à partir de certain nœuds, énergie qui se dissipe sur des charges (autres classes de nœuds) et dans les lignes électriques. L’existence de boucles peut conduire dans certaines circonstances à des effets de renforcement en lieu et place d’effets d’amortisse- ment dissipatif. L’auto similarité amplifie ces renforcements cette fois entre niveau d’échelles. Or, comme il a été vu, pour des raisons d’auto cohérence, d’optimalité, de limita- tion de l’énergie globale et de maintenance, le réseau est au moins statistiquement auto-similaire ; autrement dit, il couvre la totalité des besoins à toutes les échelles spatiales et temporelles du pays. Si tel est le cas, il y a nécessairement couplage dynamique entre échelles. Les fluctuations cumu- lées révèlent alors naturellement la présence d’une loi de puissance. Comme la caractéristique majeure de telles lois de corrélation est de diverger au bord donc en faisant appa- raître des singularités, sans que le bord soit ici défini comme traditionnellement, il convient de savoir pour chaque réseau particulier et pour chaque type de dynamique, où vont se lo- caliser ces singularités et quelle va être la longueur moyenne de leurs champs d’influence dans l’espace et le temps. Tel est l’objet de la modélisation dont le but est la conception d’un simulateur de comportement. Extension du modèle du tas de sable aux impératifs industriels Dans ses travaux [14], l’équipe @RiskTeam d’Alstom Grid s’est attachée à maîtriser le concept initial de Dobson dans un but visant explicitement une planification de la gestion des réseaux et une adaptation à une demande croissante d’énergie électrique — court et long terme. Le triple objectif du travail d’ingénierie était in fine d’atteindre : (I) une estimation des risques de blackout ; (II) une gestion de réseau “day-ahead” (gestion journalière) ; (III) un management en temps réel de la distribution des flux ainsi qu’une gestion des plans d’investissements. Or c’est en abordant ce sujet que les acteurs industriels se sont heurtés à diverses difficultés pratiques dans l’application du modèle de Dobson. La première difficulté tient à la loi de puissance. Le modèle statistique du tas de sable conduit en effet à une loi de pente de valeur absolue proche de l’unité, alors que la loi de puis- sance expérimentalement observée a une pente proche de -3/2 (figure 5). Par ailleurs, cette loi de puissance révèle la présence de deux classes de dynamiques, une dynamique dite lente et une dynamique rapide avec effet de seuil entre les deux. La seule démarche statistique de type Dobson ne suffit donc pas à traduire les effets de mémoire et de couplages inter-échelles. Dans la perspective d’un contrôle “day-ahead”, de telles observations suggèrent de considérer Figure 4 : Schéma de représentation de la problématique fractale sur un réseau électrique. Réseau auto similaire formel. Arborescence attachée au réseau précédent. Image du réseau colombien étudié en situation de stress, les zones critiques étant notées en jaune à l'ordre 1 puis 10 (ordre d'itération) au cours de la cascade de blackout. REE N°1/2015 33 L'ARTICLE INVITÉ non pas seulement l’état de d’auto organisation critique (SOC) mais également l’exploration dynamique des états y conduisant, attendu la normalisation de la charge par la capacité maximale du réseau. L’apport du modèle Alstom (Fractal-SOC ou FSOC), de criticalité auto-organisée fractalement renormalisée, est de contribuer à résoudre jour après jour le modèle dans un envi- ronnement aléatoire décrivant l’apparition d’évènements pertur- bateurs corrélés dans le temps et l’espace. Dans le cadre “day- ahead”, la charge demandée doit pouvoir être changée et le feedback doit correspondre à l’action à mettre en place pour que le système soit de nouveau opérationnel, si l’évènement pertur- bateur survient. La mise en FSOC correspond alors à la mise en stress maximum de l’ensemble du réseau (via le ratio charge/ capacité des lignes). Il s’agit d’un état virtuel de contraintes maxi- males assurant ou non l’absence de défaillances critiques. La seconde difficulté réside dans la description de la pro- blématique de gestion de la demande. Les auteurs ont impli- citement utilisé les travaux effectués dans le domaine des équations différentielles d’ordre non entier discrétisées afin d’étendre le modèle de Dobson, en y ajoutant en particulier un facteur de mémoire et des corrélations multi-échelles assu- rant la validité de l’opération de renormalisation spatiale mais aussi temporelle. Cette addition permet d’élaborer un modèle dit Statistical Power Flow Model fondé sur une Fractal Self Organized Criticality (SPFM-FSOC) en version DC ou AC. L’état initial est un graphe (nœuds et branches) correspon- dant à une cascade de processus du premier ordre condui- sant à faire voyager l’énergie des petites échelles (localisa- tion) vers les grandes échelles (distribution). L’analogie est ici inverse de celle de la turbulence. En termes temporels, ceci Figure 5 : Carte du réseau colombien de distribution électrique et distribution cumulée des énergies non desservies. Figure 6 : Distribution cumulée des énergies non desservies - Comparaison expérience et simulation. 34 REE N°1/2015 L'ARTICLE INVITÉ revient à ajouter de la mémoire à la dynamique (on montre en effet que les pannes sont corrélées entre elles). En termes de SOC, ceci revient à engendrer de manière très localisée, des phases d’accumulation. C’est ainsi que le modèle conduit une montée en FSOC représentative du comportement réel d’un réseau électrique sur toutes ses composantes renorma- lisables. La maîtrise de l’environnement opère via les “feed- back” ou ajustements court terme (représentatif de l’action à mener après blackout) et long terme (c’est-à-dire représen- tatif de la politique de planification). Comme le montre la figure 6, toutes ces opérations de modélisation permettent de reproduire statistiquement la distribution en loi de puis- sance des défaillances effectivement observées. Conclusions Les modèles et logiciels conçus ont fourni aux opérateurs l’outil de gestion du risque d’instabilité du réseau électrique dit SPFM-FSOC dont ils avaient besoin. Ainsi, supposons que nous ayons à gérer un réseau et que, conformément aux processus de croissance économique la demande en énergie augmente, le modèle — dont la mémoire intègre implicitement le facteur gestionnaire de réseau — permet, toutes choses égales par ailleurs, de calculer la nouvelle dis- tribution de risques (régime FSOC dynamique et points cri- tiques). Si en outre, des investissements sont effectués, et/ ou des réparations sont en cours sur certaines branches du réseau — recalibrant localement et temporairement le réseau — l’opérateur peut également recalibrer dynamiquement la nouvelle distribution de charges et estimer les nouveaux risques encourus. Le deuxième avantage du logiciel SPFM- FSOC concerne la capacité de traiter les dynamiques rapides, autrement dit, de ne pas laisser dériver les incidents. La troi- sième contribution du modèle est d’identifier précisément les domaines critiques. On notera que ces domaines ne sont pas seulement géographiques (charges, générateurs, lignes), mais aussi et surtout les domaines temporels, c’est-à-dire les dynamiques de montée en puissance de charge (linéaire, non linéaire, spectrale, etc.). Les domaines spatio-temporels sont en effet couplés par la dynamique. Par exemple, des situations critiques peuvent résulter de charges a priori sous critiques positionnées en des points critiques. L’efficience du logiciel SPFM-FSOC est précisément d’alerter l’opérateur quant à la présence de telles situations. Paradoxalement, la dynamique de la charge peut en effet devoir imposer un délestage alors même que la valeur absolue de la charge est sous critique. De même, la connaissance du réseau et de son histoire peut exiger de mettre en œuvre des composants de sécurité en des endroits peu intuitifs. On voit ici que la dis- tinction sujet/objet et local/non local disparaît. En particulier la réponse de l’objet complexe, appelé ici réseau électrique, est dépendante de la sollicitation qui lui est appliquée, et celle-ci se manifeste géographiquement par le truchement d’une structure de localisation critique. L’intuition contraire qui voudrait que le réseau soit un objet indépendant du temps répondant à des critères d’optimalité peut conduire à des effets catastrophiques et à des décisions a posteriori jugées absurdes. Cette capacité de réactivité contre-intuitive fait la force opérationnelle de l’outil conçu et, de manière plus géné- rale, des modèles d’intrications dynamiques multi-échelles pointant sur le rôle crucial de la temporalité. Les concepts de fractalité, de dynamique fractionnaire, le rôle de la mé- moire et la compréhension des effets de seuil jouent un rôle-clé pour contrer l’absence d’efficacité du sens commun et les effets pervers qui peuvent résulter de toute analyse réductrice. La substitution du modèle « objectif » par un « tempo-modèle » associé à un outil appelé simulateur, est une extension de la démarche scientifique tradition- nelle. L’exemple de la problématique de blackout illustre les efforts qui doivent aujourd’hui être consentis pour rendre « scientifique » l’analyse et l’ingénierie des systèmes com- plexes et cela bien que de tels systèmes ne répondent ni au concept habituel d’objet de science et bien que ne peuvent s’y appliquer simplement les critères traditionnels des sciences expérimentales, en particulier la reproductibilité, la prévisibilité, et une causalité temporelle simple. Comme on le voit, les systèmes complexes et leur sous-jacent, les géo- métries hyperboliques dont l’auto similarité offre une image pratique, nous confrontent à des questions épistémolo- giques majeures [16] qui ne pourront pas être contournées, en particulier si l’on veut rationnellement aborder les effets pervers de nos mauvais réflexes face à la complexification de problématiques globalisées. Remerciements d’Alstom Grid, Serge Poullain, Boussaad Ismail ; avec leurs équipes ont œuvré au développement et à la coor- dination des méthodologies transdisciplinaires jusqu’en 2014 ; Québec à Chicoutimi et de l’Institut franco-québécois de Paris ; - versité de Kazan et de la région de la Volga (Tatarstan-Russie) ; Cet article est dédié à la mémoire de Benoît Mandelbrot, mathématicien français (1924 - 2010). REE N°1/2015 35 L'ARTICLE INVITÉ Glossaire En topologie, il s’agit d’un procédé permettant de passer d’un ouvert à un espace compact c’est-à-dire à un espace clos et borné. Pour ce faire ce pro- cédé ramène en particulier dans l’espace de la feuille de traitement les points à l’infini. Exemple : projection de la droite plus l’infini moins l’infini sur l’espace [– , + ] par le truchement de la fonction tangente. Il s’agit initialement d’un procédé d’ingénierie numérique visant à effacer les diver- gences qui apparaissent dans certaines intégrales de phy- sique. Pour une seule intégrale, les méthodes sont connues (prolongement analytique, régularisation dimensionnelle, etc.), mais les choses sont plus complexes lorsqu’on a affaire à de multiples intégrales couplées comme en théorie des champs. Il a été montré que le groupe de renormali- sation est en fait un sous-groupe à un paramètre (l’échelle ou le temps) d’un groupe de Galois dit motivique (Connes- Kreimer) impliquant les motifs ou « atomes » des géométries algébriques. Or ce groupe est associable, d’une part aux pro- priétés de symétries liées aux constantes de la physique via un groupe universel qualifié de cosmique (Pierre Cartier) et d’autre part aux groupes associés aux symétries concernant les zéros de la fonction Zéta de Riemann par ailleurs fonc- tions d’approximation universelle de toutes les formes analy- tiques (Voronine). C’est avec cette approximation que s’intro- duit une irréversibilité absolue du temps à partir de laquelle prendrait corps l’évolution et la complexification de l’univers. L’entropie est une mesure qui conjuguée à une opération de groupe (changement d’échelle par exemple), permet de conserver les propriétés algébriques habituelles, en particulier l’additivité et de distributivité des grandeurs défi- nissant l’unité d’un objet physique. Toute évolution naturelle, par exemple en système clos, évolue vers un point fixe (équi- libre) avec croissance de l’entropie. On appelle négentropie la mesure de la fonction dans le cas d’une évolution « inverse » conduisant non pas à un point fixe mais à des des points fixes temporaires métastables donc à une complexification. Tel est le cas par exemple pour des systèmes ouverts qui s’auto-orga- nisent sous l’effet d’un flux d’alimentation externe (Prigogine). Mesure de distance reposant sur une rela- tion d’ordre et utilisée en particulier pour les arborescences. Références : [1] Descartes R. Discours de la méthode, Ed. Gallimard (2000) Paris. [2] Marion J.L. Certitudes négatives, Grasset & Fasquelle (2010) Paris. [3] Lesne A. La renormalisation, http://www.lptmc.jussieu.fr/ user/lesne/FM98.pdf [4] Mandelbrot B. Les objets fractals, Flammarion (1975) Paris. [5] Bergson H. La pensée et le mouvant, PUF (2008) Paris. [6] Le Méhauté A. Les géométries fractales, Hermes (1990) Paris. [7] Bruter C. http://www.math-art.eu/Documents/pdfs/THE_ ARPAM_PROJECT.pdf [8] Leinster T. Basic Category Theory, Cambridge Ed. (2014). [9] Connes A. www.youtube.com/watch?v=v8CdGbKT0C0, Géométrie Non Commutative, Dunod (1990) et leçon inaugurale au Collège de France : http://www.alainconnes. org/docs/lecollege.pdf [10] Connes A. & Rovelli C. Von Neumann Algebra Auto- morphisms and Time-Thermodynamics Relation in Generally CovariantQuantumTheories,Class.QuantumGrav.11,2899- 2917 (1994). [11] Smolin L. La renaissance du temps, Dunod (2014) Paris. [12] Riot P. http://repmus.ircam.fr/_media/mamux/saisons/ saison13-2013-2014/riot-2013-12-06.pdf,Approchephysique etcatégoriquedesconjecturesdeRiemannetGoldbach. Lettre à l’Académie des sciences de Paris, Juin 2014. Publications et notes à paraître. [13] Prigogine I. Physique, temps et devenir, Masson (1980) Paris. [14] Héliodore F. AFTER Project “A Framework for electrical power system vulnerability identification, defense and restoration” (2014). [15] Dobson I., Carreras B.A., Lynch V., Newman D.E. An initial model for complex dynamics in electric power system blackouts, Thirty-fourth Hawaii International Conference on System Sciences, Maui, Hawaii, January 2001. [16] Varenne F. Théorie Réalité Modèle, Paris, Éditions Matério- logiques, (2012) Paris. Alain Le Méhauté est ingénieur, docteur ès sciences et docteur honoris causa de l’Université de Kazan (Russie) pour ses travaux sur la dynamique en géométrie fractale. « Elève » de Benoît Mandelbrot, il est membre du Comité de pilotage du réseau national des systèmes complexes. Chef de projets pendant 22 ans au Centre de recherche du groupe Alcatel Alsthom (ex CGE) et directeur de recherche associé au CNRS, puis directeur général de l’Institut supérieur des matériaux du Mans, il est l’un des co-inventeurs de la reprographie 3D (1984) et des batteries lithium-Ion (1977). Frédéric Héliodore est responsable de projets R&D à Alstom Grid. Il est docteur ès sciences & directeur de recherche associé au CNRS. Au sein d’Alcatel Alsthom où il fut notamment en charge des questions de propagation électromagnétique dans des structures hétérogènes, puis Alstom Grid, Frédéric Héliodore est devenu un spécialiste du développement des outils de modélisation physique dédiés aux sciences de l’ingénieur et à l’ingénierie électrique. Ses travaux actuels concernent l’analyse de risques et la gestion, la représentation et l’analyse des données massives. Benoît Mandelbrot (à droite) en 1990 et Alain le Méhauté (à gauche).