Comparaison entre les EP et les CF pour l’Optimisation des Systèmes Dynamiques Hybrides

08/04/2012
Publication e-STA e-STA 2011-2
OAI : oai:www.see.asso.fr:545:2011-2:2375
DOI :

Résumé

Afin  de  commander  les  SDH,  dans  cet  article,  une approche  hybride,  incluant  une  méthode  conventionnelle  et une  méta-heuristique,  est  proposée  afin  de  minimiser  une fonction  de  performance.  La  méthode  conventionnelle  est
conçue pour optimiser la loi de commande continue alors que la   méta-heuristique   est   utilisée   pour   l’optimisation   de   la séquence  de  commutations.  Les  Essaims  Particulaires  (EP)  et les Colonies de Fourmis (CF) sont utilisés pour l’optimisation des  instants  de  commutation  en  minimisant  une  fonction  de performance, dépendant de ces instants, dans un horizon fini.
La comparaison entre  l’Optimisation par Essaims Particulaires (OEP) et l’Optimisation par Colonies de Fourmis (OCF) est étudiée, à travers un exemple numérique, en termes de  vitesse  de  convergence  et  d’efficacité  à  l’obtention  d’une solution optimale globale. 


Comparaison entre les EP et les CF pour l’Optimisation  des Systèmes Dynamiques Hybrides

Auteurs

Sur l’étude du processus d'écriture à la main. Approches classiques et non conventionnelles
Sur l’étude du processus d'écriture à la main. Approches classiques et non conventionnelles
Sur l’unicité de la réponse d’un réseau d’énergie électrique en régime de défauts
Optimisation multicritère par Pareto-optimalité de problèmes d’ordonnancement en tenant compte du coût de la production
Stabilités Comparées de Systèmes Non Linéaires et Linéarisés Basées sur une Description Redondante
Les réseaux de neurones. Application à la modélisation et à la commande des processus
Les réseaux de neurones. Classification
Les réseaux de neurones. Présentation
Stabilité et stabilisation de systèmes discrets à retard
Sur la commande par mode glissant d’un convertisseur multicellulaire série
Recherche automatique de l’architecture d’un réseau de neurones artificiels pour le credit scoring
Chiffrement Partiel des Images Basé sur la Synchronisation de Systèmes Hyperchaotiques en Temps Discret et la Transformée en Cosinus Discrète
Synthèse d’une Commande Stabilisante par Retour d’Etat de Systèmes Linéaires à Retard
Stratégies de Commande de Systèmes Manufacturiers à Contraintes de Temps Face aux Perturbations Temporelles
Etude de la Stabilité d’une Classe de Systèmes de Commande Floue de type Mamdani
Nouvelles conditions suffisantes de stabilisabilité de processus échantillonnés non linéaires
Modélisation multi-physiques d’un actionneur linéaire incrémental pour la motorisation d’une pousse-seringue
Performances comparées de méthodes de commandes par mode de glissement et par platitude d’un papillon motorisé
Etude des Incertitudes dans les Ateliers Manufacturiers à Contraintes de Temps
Modèles discrétisés du système d’écriture à la main par la transformation d’Euler et par RLS
Technique proposée pour le déchiffrage dans un système de transmission sécurisée
Stabilisation de systèmes à retard par un régulateur du premier ordre
Détermination d’attracteurs emboîtés pour les systèmes non linéaires
Modélisation par Réseaux de Petri d’une ligne de traitement de surfaces mono-robot/multi-produits
Domaine de stabilité indépendante du retard d'un système linéaire à commande retardée
Sur le credit scoring par les réseaux de neurones artificiels
Sur l'analyse et la synchronisation de systèmes chaotiques Chen
Comparaison entre les EP et les CF pour l’Optimisation des Systèmes Dynamiques Hybrides
Algorithmes génétiques sequentiels pour la résolution de problèmes d’ordonnancement en industries agroalimentaires
2011-01 04-eSTA-V26.pdf

Métriques

1347
217
234.89 Ko
 application/pdf
bitcache://b30687ad843095859d67d348c71558f0292ce108

Licence

Creative Commons Aucune (Tous droits réservés)
<resource  xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
                xmlns="http://datacite.org/schema/kernel-4"
                xsi:schemaLocation="http://datacite.org/schema/kernel-4 http://schema.datacite.org/meta/kernel-4/metadata.xsd">
        <identifier identifierType="DOI">10.23723/545:2011-2/2375</identifier><creators><creator><creatorName>Mohamed Benrejeb</creatorName></creator><creator><creatorName>Nesrine Majdoub</creatorName></creator></creators><titles>
            <title>Comparaison entre les EP et les CF pour l’Optimisation  des Systèmes Dynamiques Hybrides</title></titles>
        <publisher>SEE</publisher>
        <publicationYear>2012</publicationYear>
        <resourceType resourceTypeGeneral="Text">Text</resourceType><dates>
	    <date dateType="Created">Sun 8 Apr 2012</date>
	    <date dateType="Updated">Mon 25 Jul 2016</date>
            <date dateType="Submitted">Fri 20 Jul 2018</date>
	</dates>
        <alternateIdentifiers>
	    <alternateIdentifier alternateIdentifierType="bitstream">b30687ad843095859d67d348c71558f0292ce108</alternateIdentifier>
	</alternateIdentifiers>
        <formats>
	    <format>application/pdf</format>
	</formats>
	<version>9671</version>
        <descriptions>
            <description descriptionType="Abstract">Afin  de  commander  les  SDH,  dans  cet  article,  une approche  hybride,  incluant  une  méthode  conventionnelle  et une  méta-heuristique,  est  proposée  afin  de  minimiser  une fonction  de  performance.  La  méthode  conventionnelle  est<br />
conçue pour optimiser la loi de commande continue alors que la   méta-heuristique   est   utilisée   pour   l’optimisation   de   la séquence  de  commutations.  Les  Essaims  Particulaires  (EP)  et les Colonies de Fourmis (CF) sont utilisés pour l’optimisation des  instants  de  commutation  en  minimisant  une  fonction  de performance, dépendant de ces instants, dans un horizon fini.<br />
La comparaison entre  l’Optimisation par Essaims Particulaires (OEP) et l’Optimisation par Colonies de Fourmis (OCF) est étudiée, à travers un exemple numérique, en termes de  vitesse  de  convergence  et  d’efficacité  à  l’obtention  d’une solution optimale globale. 
</description>
        </descriptions>
    </resource>
.

Comparaison entre les EP et les CF pour l’Optimisation des Systèmes Dynamiques Hybrides Nesrine MAJDOUB Unité de Recherche LARA Automatique Ecole Nationale d’Ingénieurs de Tunis BP. 37, Le Belvédère, 1002 Tunis, Tunisie majnesrine@yahoo.fr Mohamed BENREJEB Unité de Recherche LARA Automatique Ecole Nationale d’Ingénieurs de Tunis BP. 37, Le Belvédère, 1002 Tunis, Tunisie mohamed.benrejeb@enit.rnu.tn Résumé— Afin de commander les SDH, dans cet article, une approche hybride, incluant une méthode conventionnelle et une méta-heuristique, est proposée afin de minimiser une fonction de performance. La méthode conventionnelle est conçue pour optimiser la loi de commande continue alors que la méta-heuristique est utilisée pour l’optimisation de la séquence de commutations. Les Essaims Particulaires (EP) et les Colonies de Fourmis (CF) sont utilisés pour l’optimisation des instants de commutation en minimisant une fonction de performance, dépendant de ces instants, dans un horizon fini. La comparaison entre l’Optimisation par Essaims Particulaires (OEP) et l’Optimisation par Colonies de Fourmis (OCF) est étudiée, à travers un exemple numérique, en termes de vitesse de convergence et d’efficacité à l’obtention d’une solution optimale globale. Mots-clés—système dynamiques hybrides, commande optimale, instants de commutation optimaux, Optimisation par Essaims Particulaires (OEP), Optimisation par Colonies de Fourmis (OCF). I. INTRODUCTION Les systèmes dynamiques hybrides représentent une classe particulière des systèmes hybrides où la variable discrète n’est pas vue comme une variable d’état mais comme une variable de contrôle [1]. La formalisation hybride couvre de nombreux domaines applicatifs : trafic routier aérien, robotique, informatique temps réels, cryptage, chaîne de production, etc [2]. Le problème de la commande optimale a récemment attiré un certain nombre de chercheurs. Dans [3], les auteurs ont présenté une méthode de recherche directe de l’optimum des instants de commutation, associée à une approche itérative de programmation dynamique. La mise en œuvre de cette procédure est relativement délicate et est simplifiée dans le cas d’un nombre de pas d’échantillonnage réduit ; car elle nécessite la résolution de deux équations : l’une dans le sens direct et l’autre dans le sens rétrograde du temps [4]. Xu et Antsaklis [5] ont proposé en 2004 une approche basée sur la méthode du gradient. Cette approche transforme le problème en un problème équivalent paramétré par les instants de commutation. Deux étapes ont été proposées, l’étape (a) traite un problème conventionnel de la commande optimale qui détermine le coût optimal en fonction des séquences d’activation de sous-systèmes et des instants de commutation. L’étape (b) traite un problème d’optimisation non linéaire, qui détermine les instants de commutation en se basant sur la méthode du gradient. La difficulté majeure de cette approche est la non disponibilité d’une forme explicite de la dérivée première de la fonction coût [4]. Aussi, la méthode du gradient exige des régularités sur la fonction à optimiser (continuité, convexité) et ne garantit pas nécessairement une solution optimale globale [6]. Face aux difficultés de mise en œuvre de certaines méthodes conventionnelles, et compte tenu du développement de la technologie informatisée et de l’intelligence artificielle, des algorithmes sont apparus, appelés méta-heuristiques, ont pour but d’optimiser les lois de commande de systèmes complexes [7, 8]. En particulier, on distingue l’Optimisation par essaims particulaires (OEP) et l’Optimisation par Colonies de Fourmis (OCF). En effet, l’OCF a été développée dans [9] et comparée à la méthode du gradient [5]. Il est démontré que les résultats obtenus par l’OCF sont proche que ceux obtenus par la méthode du gradient. Dans [10], la comparaison entre l’OEP et l’OAG (Optimisation par Algorithmes Génétiques) a montré que les deux algorithmes convergent vers la solution optimale globale mais l’OEP présente un temps d’exécution 1 inférieur. Par conséquent, il semblerait judicieux de comparer les performances des algorithmes basés sur les CF et les EP pour résoudre les problèmes complexes en termes de convergence et d’efficacité à l’obtention d’une solution optimale globale pour l’optimisation des instants de tels systèmes. Dans la section suivante nous formulons le problème de la commande optimale des systèmes à commutations. L’OEP et l’OCF sont développées respectivement dans la section III et la section IV. Un exemple numérique est illustré pour comparer l’efficacité des algorithmes proposés. II. FORMULATION DU PROBLEME Considérons le système dynamique hybride : ( ), ,ix f x u t= , { }1,2,...,i I M∈ = (1) avec est un ensemble fini des variables discrètes indiquant les I M configurations du système. Le système commute du sous-système 1ki − au sous- système k . Le sous-système k est actif dans l’intervalle de temps ( si , ) . Les séquences des sous-systèmes actifs sont décrites par : i i [ )1,k kt t + ,k ft t⎡⎣ ⎤⎦ ) k K= 0 K≤ < ∞ (2)( ) ( ) ( ) (( )0 0 1 1, , , ,..., , ,..., ,k k K Kt i t i t i t iσ = avec 0 1 ... K f t t t t≤ ≤ ≤ ≤ et pour k Kk i I∈ 0, 1,...,= . ⎤⎦En fixant l’intervalle de temps et les séquences0 , ft t⎡⎣ σ , nous cherchons à trouver le signal de commande continu optimal u et les instants de com on 1,...,mutati Kt t minimisant la fonction coût décrite par : continu finalJ J J= + ) (3) avec la composante caractérisant la contributions des conditions terminales, décrit par l’équation suivante : continu J ( )(continu fJ x tψ= (4) et final J la composante caractérisant l’effet de l’accumulation temporelle due à l’évolution continue, elle est donnée par : ( ) ( )( 0 , ft final t )J L x t u t dt= ∫ (5) Afin de résoudre le problème de commande optimale des SDH, nous proposons une approche hybride qui comprend deux parties. La première, partie (a), traite le problème d’optimisation du signal de commande continu, basée sur le PM. La deuxième, partie (b), traite le problème d’optimisation des instants de commutation, basée sur les méta-heuristiques. A. Signal de Commande Optimal Continu Pour la partie (a), nous appliquons le Principe de Maximum (PM) [5], pour que u soit optimal, où il est nécessaire d’avoir un vecteur tel que les conditions suivantes sont satisfaites : ( ) ( ) ( )1 ,..., T np t p t p t= ⎡ ⎤⎣ ⎦ i. pour 0 , ft t t⎡ ⎤∈ ⎣ ⎦ ns des variables d’état et les équations des variables adjointes issues de la fonction Hamiltonienne sont : , les équatio ( ) ( ) ( ) ( )( ) ( ) ( )( ) , , , T k k dx t H x t p t u t dt p f x t u t ∂⎛ ⎞ = ⎜ ⎟ ∂⎝ ⎠ = (6) ( ) ( ) ( ) ( )( ), , = T k T T k k dp t H x t p t u t dt x f L p x x ∂⎛ ⎞ = −⎜ ⎟∂⎝ ⎠ ∂ ∂⎛ ⎞ ⎛ ⎞ − −⎜ ⎟ ⎜ ⎟∂ ∂⎝ ⎠ ⎝ ⎠ (7) avec : ( ) ( ) (, , , ,T k )kH x p u L x u p f x u= + (8) ii. pour 0 , ft t t⎡ ⎤∈ ⎣ ⎦ on de stationnarité est donnée par : , la conditi ( ) ( ) ( )( )0 , , T k T T k k H x t p t u t u f L p u u ∂⎛ ⎞ = ⎜ ⎟∂⎝ ⎠ ∂ ∂⎛ ⎞ ⎛ ⎞ = +⎜ ⎟ ⎜ ⎟∂ ∂⎝ ⎠ ⎝ ⎠ (9) iii. à ft , le vecteur p satisfait la condition limite : ( ) ( )( )f p t x t x ψ∂⎛ ⎞ = ⎜ ⎟ ∂⎝ T f ⎠ (10) 2 iv. à tout , 1,2 ..,k = tion de continuité est donnée par : kt , la condi k+ ,. K (11)( ) ( )k p t p t− = Les équations (6)-(9) ainsi que la condition aux limites (10) et la condition de continuité (11) font intervenir deux équations différentielles algébriques avec des conditions initiales et finales. Ces équations peuvent être résolues en utilisant les méthodes appelées shooting methods ou directement en utilisant la fonction bvp4c de Matlab. B. Optimisation des Instants de Commutation L’optimisation des instants de commutation est la deuxième étape de résolution qui consiste à résoudre le problème d’optimisation non linéaire donné par l’équation suivante : ( )ˆ minopt t J t = J (12) avec ( ){ }1 0 1 ˆ ˆ ,..., | ... T K K ft T t t t t t t t∈ = = ≤ ≤ ≤ ≤ . Les méthodes exactes bien que fournissant une solution optimale au problème traité, présentent généralement des difficultés de résolution de problèmes. Au contraire, les méta-heuristiques ne nécessitent pas de connaissance particulière sur le problème d’optimisation à résoudre. Ainsi, elles garantissent des solutions optimales en un temps de calcul raisonnable [11]. Cependant, nous proposons pour l’optimisation des instants de commutation (partie (b)) une méta-heuristique afin de minimiser la fonction coût. Nous envisageons de mettre en œuvre dans cette étape les algorithmes des EP et des CF pour l’optimisation des instants de commutation qui sont développés respectivement dans les sections suivantes. III. OPTIMISATION DES INSTANTS DE COMMUTATION PAR ESSAIMS PARTICULAIRES L’algorithme d’Optimisation par Essaims Particulaires (OEP) est l’une des techniques d’optimisation évolutive [12,13], introduite par Russel Eberhart et James Kennedy en 1995 [14,15] Il a été appliqué avec succès que ce soit dans des problèmes continus [16-18] ou discrets [19-21]. L’OEP optimise une fonction objective en procédant à une recherche basée sur la population [22]. La population se compose de solutions potentielles, nommées particules, initialisées au hasard et survolent librement dans l’espace de recherche multidimensionnel. Pendant le vol, les particules modifient leurs propres positions sp et vitesses sv en se basant sur leurs propres expériences et celles des voisines [8, 22, 23]. La politique de mise à jour conduit les particules de l’essaim à la région où la fonction coût est optimale. Finalement toutes les particules se réuniront autour de la solution optimale globale. Afin d’optimiser les instants de commutation, nous tape 1 : Initialisation m (nombre des particules) , • oirement les positions et les × Etape 2 : Evaluation initiale e la commande optimale, considérons qu’une position de particule représente une séquence de commutations [10,11]. Le fonctionnement détaillé de l’OEP est donné ci-dessous : E • fixer la taille de l’essai S le nombre de commutations nc et l’espace de recherche, initialiser aléat ( )S nc p × vitesses des particules v ,( )S nc • en résolvant le problème d étape (a), évaluer chaque particule selon la fonction coût J , identi er• fi la séquence de commutations optimale correspondant au meilleur coût ( )ˆs J t , • affecter la meilleure séquence à s pbest , • affecter s pbest à la meilleure séquence globale s pgbest , • initialiser l’indice d’itération k , Etape 3 : Mise à jour et enregistrement • mettre à jour s kv et s kp selon les équations de mouvement suivantes [12] : ( ) (1 1 1 2 2 k k k k k k s s s s k s s c r pbest p w c r pgbest p ν ν+ ⎛ ⎞− + ⎜ ⎟= + ⎜ ⎟− ⎝ ⎠) k (13) 1 1k k s s s p p ν+ + = + (14) avec : s kp : position de la particule s à l’itération ,k s kv : vitesse de la particule s à l’itération k , 3 s kpbest : meilleure position découverte par la particule s à l’itération ,k s kpgbest : meilleure position globale de la population à l’itération k , 1 et 2c sont des coefficients d’accélérations constants, 1 et 2 sont des nombres aléatoires uniformément répartie dans l’intervalle [ c r r ]0,1 . w est un paramètre utilisé pour contrôler l’impact des vitesses antérieures sur la vitesse courante. Elle est mise à jour par l’équation suivante [23] : max min max max k w w w w k k ⎛ ⎞− = −⎜ ⎟ ⎝ ⎠ (15) avec min , max et max sont respectivement la valeur minimale, maximale de et le nombre maximal d’itération. w w k kw • évaluer chaque particule selon la fonction fitness J , • identifier la séquence de commutation optimale correspondant au meilleur fitness ( )ˆs optJ t et l’affecter à s kpbest , • comparer s kpbest et s kpgbest , • si s s k kpbest pgbest< alors s s k kpgbest pbest← , Etape 4 : Condition d’arrêt l’algorithme re ient à l’étape 3, tant que la variation de la fonction coût v J∆ est supérieure à une petite valeur ε bien déterminée, sinon l’algorithme donne la eilm le séquence de co tation correspondante au coût minimal ure mmu optJ . IV riture [8, 9]. Le che éromones sur une pis 27]. utation, nous co la longueu u chemin construit par une fourmi . OPTIMISATION DES INSTANTS DE COMMUTATION PAR COLONIES DE FOURMIS L'optimisation par Colonies de Fourmis (CF) est une technique d'optimisation biomimétique initialement proposée par Marco Dorigo et al. en 1990 [24,25]. L’idée consiste à imiter le comportement des fourmis à la recherche de sources de nourriture. Dans un premier temps, les fourmis se promènent au hasard. Quand une fourmi trouve une source de nourriture, elle retourne à la colonie en laissant une trace de phéromones sur le terrain qui indiquent le chemin d’accès à la nourriture. Lorsque d’autres fourmis trouvent la phéromone, elles sont susceptibles de suivre le chemin avec une certaine probabilité. Alors, elles peuplent le chemin avec leurs propres phéromones et apportent la nour min le plus court étant aussi le plus rapide, sa concentration en phéromones augmentera plus vite. Ainsi, le chemin du nid à la source sera optimisé [26]. Le fonctionnement de ce système est basé sur le principe des rétroactions positives car le dépôt de ph te attire d'autres fourmis qui vont à leur tour la renforcer. En contre partie, il se base sur des rétroactions négatives car l'évaporation provoque l'effet inverse [ Dans le but d’optimiser les instants de comm nsidérons que [9,11] : chaque chemin est composé par cn nœuds, chaque nœud représente un instant de commutation, r d F représente le coût du parcours entre deux œuds i etn j , soit F ijJ , la probabilité d’aller au nœud j , ijp , dépend seulement du taux de phéromone ijτ déposée entre les nœuds eti j . Elle est décrite par l’équation suivante : ij ij ill j p α τ τ∈ = ∑ (16) où α est un paramètre contrôlant l’importance relative du taux de phéromone. e fonctionnement détaillé de l’OCF est donné ci- des Eta • nœuds proposés à chaque instant de commutation et l’esp L sous : pe 1 : Initialisation fixer le nombre de commutations , le nombre decn np , le nombre total des fourmis ace de recherche n space , • initialiser le taux de phéromone ( )ij np ncτ × et le ( )1tour np× ,courant chemin • affecter une valeur coût initiale au meilleur chemin Eta • en résolvant le problème de la commande optimale, partie (a), évaluer le chemin courant selon la _best tour , pe 2 : Evaluation initiale tour 4 fonction coût J et enregistrer la valeur dans _fitness tour , • affecter au meilleur fitness, fbe _st tour , la valeur Eta enregistrer dans _fitness tour , • initialiser l’indice d’itération k , pe 3 : M our et enregistrementise à j • pour chaque fourmi F , générer aléatoirement, le chemin F ijtour liant deux œudsn eti j , • en résolvant l’étape (a), évaluer le chemin de chaque nctionfourmi selon la fo J , • enregistrer la valeur coût dans • comparer et • si alors _fitness tour , _fitness tour _fbest tour , _ _fitness tour fbest tour< _ _fbest tour fitness tour= , _ F ijbest tour tour= , actualiser le taux de phéromone ijτ selon l’équation suivante [16] : ( ) 1 1 n F ij ij F ijτ ρ τ = ← − + ∑ (17) où τ∆ ρ est le taux d’évaporation et F ijτ∆ est la quantité de phér one déposée dans l’arcom ( ),i j par la fourmi F , décrit par [9, 28]: F ij F ij Q J τ∆ = (18 étant une actualiser la probabilité des meilleurs ta de commutation trouvés ) Q constante. ins nts _best tour , • incrémenter F , • si F n< alors retourner à l’étape 3, sinon passer à l’étape suivante, • Etape 4 : Actualisation de l’Espace de Recherche identifier le meilleur coût _fbest tour avec la plus bagrande pro bilité correspon illeur chemin rche dant au me _best tour , • actualiser l’espace de reche space Etape 5 : Condition d’Arrêt l’algorithme répète les étapes 3 et 4 jusqu'à ce que la variation de la fonction coût J∆ est inférieure à une valeur ε qui tend vers 0 où il donne la meilleure séquence de commutation cor espondante au coût minima r l optJ . V. EXEMPLE ILLUSTRATIF Considérons l’exemple présenté dans [5, 16] décrit par les sous-systèmes suivants : sous-système 1 2 : 1 1 1 2 2 sin cos x x u x x x u x = +⎧ ⎨ = − −⎩ (19) -système 2: 1 sous 1 2 2 2 1 sin cos x x u x x x u x = +⎧ ⎨ = − −⎩ (20) sous-système 3: 11 1 2 2 2 sin cos x x u x x x u x = − −⎧ ⎨ = +⎩ (21) comm 2 et à Le système ute à 1t t= du sous-système 1 au sous- système 2t t= du sous-systè sysme 2 au sous- tème 3, avec 0 0t = et 3ft s= sachant que 1 20 3t t s≤ ≤ ≤ . Nous c ch à déterminer les instants de commutation optimaux 1optt , 2optt et le signal de comm her ons ande optimal en inimisant la fonction coût décrite par : u m ( )( ) ( )( )( ) ( ) ( ) ( )( ) 2 2 1 2 3 2 2 2 1 2 0 1 3 1 3 1 2 1 1 1 2 J x x x x u t = − + + + − + + +∫ dt (22) veca ( )1 0 2x = et ( )2 0 3x = . 5 Pour la détermination du signal de commande optimal u , appliquons les conditions nécessaires d’optimalité : • Pour , la fonction Hameltonienne est la suivante : [ )10,t ( ) ( ) ( )( ) ( ) ( 2 2 2 1 1 2 1 1 1 2 2 1 , , 1 1 2 sin cos H x p u x x u ) 2x u x p x u x p = − + + + + + + − − (23) et les équations différentielles sont: ( ) ( )( ) ( ) (( ) 1 1 1 2 2 2 1 1 1 1 1 2 2 2 2 sin cos 1 cos 1 si dx x u x dt dx x u x dt dp x p up x dt dp )2nx p up x dt ⎧ = +⎪ ⎪ ⎪ = − −⎪⎪ ⎨ ⎪ = − − + + ⎪ ⎪ ⎪ = − + + − + ⎪⎩ (24) avec (25)1 1 2 sin cosu p x p x= − + 2 • pour [ )1 2,t t , la fonction Hameltonienne est la suivante : ( ) ( ) ( )( ) ( ) ( 2 2 2 2 1 2 2 2 1 1 1 1 , , 1 1 2 sin cos H x p u x x u ) 2x u x p x u x p = − + + + + + + − − (26) et les équations différentielles sont: ( ) (( )) ( ) ( )( ) 1 2 2 2 1 1 1 1 2 2 2 2 1 1 2 sin cos 1 si 1 cos dx x u x dt dx x u x dt dp 1 nx p up x dt dp x p up x dt ⎧ = +⎪ ⎪ ⎪ = − −⎪⎪ ⎨ ⎪ = − − + − + ⎪ ⎪ ⎪ = − + + + ⎪⎩ (27) avec 1 2 2 sin cosu p x p 1 x= − + (28) • pour [ ]2 ,3t s , la fonction Hameltonienne est la suivante : ( ) ( ) ( ) ( )( ) ( ) ( 2 2 2 3 1 2 1 1 1 2 2 1 , , 1 1 2 sin cos H x p u x x u t ) 2x u x p x u x p = − + + + + − − + + (29) et les équations différentielles sont: ( ) (( )) ( ) ( )( ) 1 1 1 2 2 2 1 1 1 1 2 2 2 2 sin cos 1 co 1 sin dx x u x dt dx x u x dt dp 1 2 sx p up x dt dp x p up x dt ⎧ = − −⎪ ⎪ ⎪ = +⎪⎪ ⎨ ⎪ = − − + − − ⎪ ⎪ ⎪ = − + + − ⎪⎩ (30) avec 1 1 2sin cosu p x p x2= − (31) • les conditions aux limites sont : ( ) ( )1 13 3p x= 1− (32) ( ) ( )2 23 3p x= +1 (33) Afin d’optimiser les instants de commutation, nous fixons les paramètres de l’algorithme d’OEP tels que : • 1 2 0.75c c= = , • max 0.9w = et min 0.4w = , • S 40= et 2cn = , • max 15k = et [ ]0,3space s= . Pour l’algorithme d’OCF les paramètres sont : • 1α = et 0.99ρ = ; • 10Q = et 100np = ; • 40n = et 2cn = ; 6 • max 15k = et [ ]0,3space s= . Les résultats obtenus des instants de commutation optimaux ainsi que la valeur de coût pour chaque algorithme sont présentés dans le tableau I. Elles sont sensiblement les mêmes que ceux trouvés par l’approche basée sur le PM et les CF. De plus, le temps d’exécution est comparable pour les deux algorithmes, sauf que la mise en œuvre de l’optimisation par les CF est plus délicate que celle par les EP. I. C TS OBT Résultats Optimaux TABLEAU OMPARAISON DES RESULTA ENUS Algorithmes ( )1optt s ( )2optt s optJ Temps d’Exécution OCF 0.21 1.02 5.45 14 min 11 s O 0.21 1.00 5.4527 11 41EP min s La convergence du critère d’optimisation J par les deux algorithmes est montrée dans la figure 1 et la figure 2. 1 1.5 2 2.5 3 5.452 5.454 5.456 5.458 5.46 5.462 5.464 5.466 5.468 5.47 k J(k) Figure 1. Convergence de l’algorithme basé sur le PM et les EP Nous observons que l’algorithme basée sur le PM et les EP converge vers le coût minimal à l’itération 2, figure 1, avant celui basée sur le PM et CF qui converge qu’à l’itération 4, figure 2. Ceci revient à la présence de l’étape d’actualisation de l’espace de recherche à chaque itération pou par l’éq ptimale globale même avec une fonction coût non convexe. r le deuxième algorithme. Les résultats présentés montrent que les deux algorithmes convergent vers la solution minimale globale puisqu’ils ont des valeurs proches. En effet, la fonction coût décrite uation (22) est une fonction non convexe, figure 3. Nous pouvons conclure alors que les deux algorithmes peuvent nous garantir la solution o 1 1.5 2 2.5 3 3.5 4 4.5 5 5.45 5.455 5.46 5.465 5.47 5.475 5.48 5.485 5.49 5.495 5.5 k J(k) Figure 2. Convergence de l’algorithme basé sur le PM et les CF Figure 3. Fonction coût ( )1 2,J t t Le signal de commande continu optimal et la trajectoire d’état, correspondantes aux résultats trouvés, sont présentés respectivement par la figure 4 et la figure 5. VI. CONCLUSION Deux méta-heuristiques ont été étudiées, à savoir les EP et les CF, afin de les adapter pour l’optimisation des instants de commutation. Une étude comparative entre l’algorithme basée sur le PM et les EP et l’algorithme basée sur le PM et les CF, en termes de vitesse de convergence et de performance à l’obtention d’une solution optimale globale, a été élaborée à travers un exemple numérique. Les résultats obtenus pour les deux algorithmes sont proches. Cependant l’algorithme d’OEP présente une aisance de sa mise en œuvre, par rapport à l’algorithme d’OCF, et un temps d’exécution relativement réduit. 7 0 0.5 1 1.5 2 2.5 3 -2.5 -2 -1.5 -1 -0.5 0 t(s) u Figure 4. Signal de commande continu optimal u 0 0.5 1 1.5 2 2.5 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5 3 x1 x2 Figure 5. Trajectoire d’état REFERENCES [1] G. Antoine, “Analyse Algorithmique des Systèmes Hybrides”, Thèse de Docteur en Mathématiques, INPG Grenoble, Septembre 2004. [2] P. Riendinger, C.Iung et J. Daafouz, “Commande Optimale des Systèmes Hybrides: Théorie et Pratique” 2ème Conférence Internationale Francophone d’Automatique, Nantes, 8-10 Juillet 2002. [3] R. Luus et Y. Chen, “Optimal Switching Control Via Direct Search Optimization”, Proceedings International Symposium on Intelligent Control, Houston, pp. 371-376, Octobre 2003. [4] S. Boubaker et F. M’sahli, “ Synthèse d’une Loi de Commande Optimale d’un Système Hybride Linéaire à deux Dynamiques par Essaims Particulaires”, 5ème Conférence Internationale d’Eléctrothechnique et d’Automatique, Hammamet, 02-04 Mai 2008. [5] X. Xu et P. J. Antsaklis, “Optimal Control of Switching Systems Based on Parameterization of the Switching Instants”, IEEE Transaction Automatic Control, vol. 49, n° 1, pp. 2-16, Janvier 2004. [6] N. Majdoub, A. Sakly, M. Sakly et M. Benrejeb, “Optimal Control of Nonlinear Swtched Systems Based on Genetic Algorithms”, 10th International Conference on Science and Techniques of Automatic Control & Computer Engineering, Hammamet, pp. 775-784, 20-22 Décembre 2009. [7] F. Tangour et P. Borne, “Presentation of Metaheuristics for the Optimization of Complex Systems”, Studies in Informatics and Control, vol. 17, n° 2, pp. 169-180, 2008. [8] P. Borne, et M. Benrejeb, “Des Algorithmes d’Optimisation. La Nature Source d’Inspiration pour l’Ingénieur”, l’Ingénieur, n° 260, pp. 12-15, Janvier-Février 2010. [9] N. Majdoub, A. Sakly, M. Sakly et M. Benrejeb, “Ant Colony-Based Optimization of Switching Instants for Autonomous Switched Systems”, International Rewiew of Automatic Control, IREACO, vol. 3, n°1, Janvier 2010. [10] N. Majdoub, A. Sakly, M. Sakly et M. Benrejeb, “Comparison Between PSO and GA for Switching Instants Optmization”, 6th International Conference on Electrical Systems and Automatic Control, Hammamet, 26-28 Mars 2010. [11] N. Majdoub, “Modélisation et Synthèse de Lois de Commande Performantes de Systèmes Dynamiques Hybrides”, Thèse de Doctorat en Génie Electrique, Univérsité se Tunis El Manar, Tunis, Juillet 2011. [12] O. Chao et L. Weixing, “Comparison Between PSO and GA for Parameters Optimization of PID Controller”, Proceedings IEEE International Conference on Mechatronics and Automation, pp. 2471- 2475, Luoyang, Juin 2006. [13] T. L. Le, M. Neqnevitsky et M. Piekutowski, “Network Equivalents and Expert System Application for Voltage and VAR Control in Large Scale Power Systems”, IEEE Transaction on Power Systems, vol. 12, n° 4, pp. 1440-1445, Novembre 1997. [14] R. C. Eberhart et J. Kennedy, “A New Optimizer Using Particle Swarm Theory”, Proceedings of the Sixth International Symposium on Micro Machine and Human Science, Piscataway, NJ: IEEE Service Center, pp. 39-43, Nagoya, 1995. [15] J. Kennedy et R. C. Eberhart, “Particle Swarm Optimization”, Proceeding IEEE International Conference on Neural Networks, Piscataway, NJ: IEEE Service Center, vol. 4, pp. 1942-1948, Perth, 1995. [16] S. Bouallègue, “Sur la Modélisation par Essaim Particulaire et l’Implémentation Temps-Réel de Lois de Commande Robuste de Systèmes Incertains”, Thèse de Doctorat, Université de Tunis El Manar, 2010. [17] H. Boukef, M. Benrejeb et P. Borne, “Flexible Job-Shop Scheduling Problems Resolution Inspired from Particle Swarm Optimization”, Studies in Informatics and Control, vol. 17, n° 3, pp. 241-252, 2008. [18] M. Pant, R. Thangaraj et A. Abraham, “Particle Swarm Based Meta- Heuristics for Function Optimization and Engineering Applications”, 7th Computer Information Systems and Industrial Management Applications, pp. 84-90, Juin 2008. [19] E. F. G. Goldbarg, G. R.Souza et M. C. Goldbarg, “Particle Swarm for the Traveling Salesman Problem”, Lecture Note in Computer Science, pp. 99-110, Février 2006. [20] B. Shen, M. Yao et W. Yi, “Heuristic Information Based Improved Fuzzy Discrete PSO Method for Solving TSP”, Lecture Note in Computer Science, pp. 859-863, 2006. [21] X. H. Shi, Y. C. Liang, H. P. Lee, C. Lu, et Q. X. Wang, “Particle Swarm Optimization-based Algorithms for TSP and Generalized TSP”, Information Processing Letters, vol. 103, n° 5, pp. 169-176, Février 2007. [22] K. O. Jones et A. Bouffet, “Comparaison of Bees Algorithm Ant Colony Optimisation and Particle Swarm Optimization for PID Controller Tuning”, Proceeding of the 9th International Conference on Computer Systems and Technologies and Workshop for PhD Students in Computing, Gabrovo, n° 29, 2008 . [23] J. Wang, Y. Zhou et X. Chen, “Electricity Load Forecasting Based on Support Vector Machines and Simulated Annealing Particle Swarm 8 [27] K. Socha et M. Dorigo, “Ant Colony Optimization for Continuous Domains”, European Journal of Operational Research, vol. 185, pp. 1155-1173, 2008. Optimization Algorithm”, International Conference on Automation and Logistics, Jinan, pp. 2836-2841, Août 2007. [24] E. Bonabeau, M. Dorigo et G. Theraulaz, “Swarm Intelligence: From Natural to Artificial Systems”, Oxford University Press, 1999. [28] M. Dorigo et G. Di Caro, “Ant colony Optimization : New Meta- Heuristic, Congres on Evolutionary Computation”, vol. 2, pp.1477, Washington, Juillet 1999. [25] M. Dorigo et G. Di Caro, “The ant colony optimization meta- heuristic”, New Ideas in Optimization, Corne D., Dorigo M. and F. Glover, Eds. London, U.K.: McGraw-Hill, 1999. [26] J. L. Deneubourg, J. M. Pasteels et J. C. Verhaeghe, “Probabilistic Behaviour in Ants: a Strategy of Errors”, Journal of Theoretical Biology, pp. 105, 1983. [29] X. Xu, “Analysis and Design of Switched Systems”, PhD Thesis, University of Notre Dame, Indiana, Juillet 2001. 9