2011-01 04-eSTA-V26.pdf

Comparaison entre les EP et les CF pour l’optimisation des systèmes à commutations 01/01/2011
Publication e-STA e-STA 2011-1
OAI : oai:www.see.asso.fr:545:2011-1:13450
DOI :

Résumé

2011-01 04-eSTA-V26.pdf

Auteurs

Sur l’étude du processus d'écriture à la main. Approches classiques et non conventionnelles
Sur l’étude du processus d'écriture à la main. Approches classiques et non conventionnelles
Sur l’unicité de la réponse d’un réseau d’énergie électrique en régime de défauts
Optimisation multicritère par Pareto-optimalité de problèmes d’ordonnancement en tenant compte du coût de la production
Stabilités Comparées de Systèmes Non Linéaires et Linéarisés Basées sur une Description Redondante
Les réseaux de neurones. Application à la modélisation et à la commande des processus
Les réseaux de neurones. Classification
Les réseaux de neurones. Présentation
Stabilité et stabilisation de systèmes discrets à retard
Sur la commande par mode glissant d’un convertisseur multicellulaire série
Recherche automatique de l’architecture d’un réseau de neurones artificiels pour le credit scoring
Chiffrement Partiel des Images Basé sur la Synchronisation de Systèmes Hyperchaotiques en Temps Discret et la Transformée en Cosinus Discrète
Synthèse d’une Commande Stabilisante par Retour d’Etat de Systèmes Linéaires à Retard
Stratégies de Commande de Systèmes Manufacturiers à Contraintes de Temps Face aux Perturbations Temporelles
Etude de la Stabilité d’une Classe de Systèmes de Commande Floue de type Mamdani
Nouvelles conditions suffisantes de stabilisabilité de processus échantillonnés non linéaires
Modélisation multi-physiques d’un actionneur linéaire incrémental pour la motorisation d’une pousse-seringue
Performances comparées de méthodes de commandes par mode de glissement et par platitude d’un papillon motorisé
Etude des Incertitudes dans les Ateliers Manufacturiers à Contraintes de Temps
Modèles discrétisés du système d’écriture à la main par la transformation d’Euler et par RLS
Technique proposée pour le déchiffrage dans un système de transmission sécurisée
Stabilisation de systèmes à retard par un régulateur du premier ordre
Détermination d’attracteurs emboîtés pour les systèmes non linéaires
Modélisation par Réseaux de Petri d’une ligne de traitement de surfaces mono-robot/multi-produits
Domaine de stabilité indépendante du retard d'un système linéaire à commande retardée
Sur le credit scoring par les réseaux de neurones artificiels
Sur l'analyse et la synchronisation de systèmes chaotiques Chen
Comparaison entre les EP et les CF pour l’Optimisation des Systèmes Dynamiques Hybrides
Algorithmes génétiques sequentiels pour la résolution de problèmes d’ordonnancement en industries agroalimentaires
2011-01 04-eSTA-V26.pdf

Métriques

211
8
301.25 Ko
 application/pdf
bitcache://406c3f720f762f454a3a91705fd59b39e9cc14cb

Licence

Creative Commons Aucune (Tous droits réservés)
<resource  xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
                xmlns="http://datacite.org/schema/kernel-4"
                xsi:schemaLocation="http://datacite.org/schema/kernel-4 http://schema.datacite.org/meta/kernel-4/metadata.xsd">
        <identifier identifierType="DOI">10.23723/545:2011-1/13450</identifier><creators><creator><creatorName>Mohamed Benrejeb</creatorName></creator><creator><creatorName>Nesrine Majdoub</creatorName></creator><creator><creatorName>Anis Sakly</creatorName></creator></creators><titles>
            <title>2011-01 04-eSTA-V26.pdf</title><title>Comparaison entre les EP et les CF pour l’optimisation des systèmes à commutations</title></titles>
        <publisher>SEE</publisher>
        <publicationYear>2011</publicationYear>
        <resourceType resourceTypeGeneral="Text">Text</resourceType><dates>
	    <date dateType="Created">Sat 1 Jan 2011</date>
	    <date dateType="Updated">Mon 25 Jul 2016</date>
            <date dateType="Submitted">Fri 13 Jul 2018</date>
	</dates>
        <alternateIdentifiers>
	    <alternateIdentifier alternateIdentifierType="bitstream">406c3f720f762f454a3a91705fd59b39e9cc14cb</alternateIdentifier>
	</alternateIdentifiers>
        <formats>
	    <format>application/pdf</format>
	</formats>
	<version>22481</version>
        <descriptions>
            <description descriptionType="Abstract"></description>
        </descriptions>
    </resource>
.

1 Comparaison entre les EP et les CF pour l’Optimisation des Systèmes à Commutations Nesrine MAJDOUB Unité de Recherche LARA Automatique Ecole Nationale d’Ingénieurs de Tunis BP. 37, Le Belvédère, 1002 Tunis, Tunisie majnesrine@yahoo.fr Anis SAKLY Ecole Nationale d’Ingénieurs de Monastir Ibn El Jazzar, Sakness, 5019, Monastir, Tunisie sakly_anis@yahoo.fr Mohamed BENREJEB Unité de Recherche LARA Automatique Ecole Nationale d’Ingénieurs de Tunis BP. 37, Le Belvédère, 1002 Tunis, Tunisie mohamed.benrejeb@enit.rnu.tn Résumé— Dans cet article, la commande optimale des systèmes à commutations est basée sur une approche hybride comprenant une méthode conventionnelle et une méta- heuristique. Les Essaims Particulaires (EP) et les Colonies de Fourmis (CF) sont utilisés pour l’optimisation des instants de commutation en minimisant une fonction de performance, dépendant de ces instants, dans un horizon fini. La comparaison entre l’Optimisation par Essaims Particulaires (OEP) et l’Optimisation par Colonies de Fourmis (OCF) est étudiée, à travers un exemple numérique, en termes de vitesse de convergence et d’efficacité à l’obtention d’une solution optimale globale. Mots-clés—système à commutation, commande optimale, instants de commutation optimaux, Optimisation par Essaims Particulaires (OEP), Optimisation par Colonies de Fourmis (OCF). I. INTRODUCTION Les systèmes à commutations représentent une classe particulière des systèmes hybrides où la variable discrète n’est pas vue comme une variable d’état mais comme une variable de contrôle [1]. La formalisation hybride couvre de nombreux domaines applicatifs : trafic routier aérien, robotique, informatique temps réels, cryptage, chaîne de production, etc [2]. Le problème de la commande optimale a récemment attiré un certain nombre de chercheurs. Dans [3], les auteurs ont présenté une méthode de recherche directe de l’optimum des instants de commutation, associée à une approche itérative de programmation dynamique. La mise en œuvre de cette procédure est relativement délicate et est simplifiée dans le cas d’un nombre de pas d’échantillonnage réduit ; car elle nécessite la résolution de deux équations : l’une dans le sens direct et l’autre dans le sens rétrograde du temps [4]. Xu et Antsaklis [5] ont proposé en 2004 une approche basée sur la méthode du gradient. Cette approche transforme le problème en un problème équivalent paramétré par les instants de commutation. Deux étapes ont été proposées, l’étape (a) traite un problème conventionnel de la commande optimale qui détermine le coût optimal en fonction des séquences d’activation de sous-systèmes et des instants de commutation. L’étape (b) traite un problème d’optimisation non linéaire, qui détermine les instants de commutation en se basant sur la méthode du gradient. La difficulté majeure de cette approche est la non disponibilité d’une forme explicite de la dérivée première de la fonction coût [4]. Aussi, la méthode du gradient exige des régularités sur la fonction à optimiser (continuité, convexité) et ne garantit pas nécessairement une solution optimale globale [6]. Face aux difficultés de mise en œuvre de certaines méthodes conventionnelles, et compte tenu du développement de la technologie informatisée et de l’intelligence artificielle, des algorithmes sont apparus, appelés méta-heuristiques, ont pour but d’optimiser les lois de commande de systèmes complexes [7, 8]. En particulier, on distingue l’Optimisation par essaims particulaires (OEP) et l’Optimisation par Colonies de Fourmis (OCF). En effet, l’OCF a été développée dans [9] et comparée à la méthode du gradient [5]. Il est démontré que les résultats obtenus par l’OCF sont proche que ceux obtenus par la méthode du gradient. Dans [10], la comparaison entre l’OEP et l’OAG (Optimisation par Algorithmes Génétiques) a montré que les deux algorithmes convergent vers la solution e-STA copyright 2011 by see Volume 8, N°1, pp 23-30 2 optimale globale mais l’OEP présente un temps d’exécution inférieur. Par conséquent, il semblerait judicieux de comparer les performances des algorithmes basés sur les CF et les EP pour résoudre les problèmes complexes en termes de convergence et d’efficacité à l’obtention d’une solution optimale globale pour l’optimisation des instants de tels systèmes. Dans la section suivante nous formulons le problème de la commande optimale des systèmes à commutations. L’OEP et l’OCF sont développées respectivement dans la section III et la section IV. Un exemple numérique est illustré pour comparer l’efficacité des algorithmes proposés. II. FORMULATION DU PROBLEME Considérons le système à commutations suivant : ( ),ix f x u=& , { }1,2,...,i I MÎ = (1) avec I est un ensemble fini des variables discrètes indiquant les M configurations du système. Le système commute du sous-système 1ki - au sous- système ki . Le sous-système ki est actif dans l’intervalle de temps [ )1,k kt t + ( ,k ft té ùë û si k K= , 0 K£ < ¥ ) . Les séquences des sous-systèmes actifs sont décrites par : ( ) ( ) ( ) ( )( )0 0 1 1, , , ,..., , ,..., ,k k K Kt i t i t i t is = (2) avec 0 1 ... K f t t t t£ £ £ £ et k i IÎ pour 0, 1,...,k K= . En fixant l’intervalle de temps 0 , ft té ùë û et les séquences s , nous devons trouver le signal de commande optimal u et les instants de commutation 1,..., Kt t minimisant la fonction coût décrite par : ( )( ) ( ) ( )( ) 0 , ft f t J x t L x t u t dty= + ò (3) Afin de résoudre ce problème, deux étapes sont proposées. L’étape (a), traite un problème classique de commande optimale et l’étape (b) traite un problème d’optimisation des instants de commutation. A. Signal de Commande Optimal Continu Pour l’étape (a), nous appliquons le principe de maximum [5], pour que u soit optimal, où il est nécessaire d’avoir un vecteur ( ) ( ) ( )1 ,..., T np t p t p t= é ùë û tel que les conditions suivantes sont satisfaites : i. pour 0 , ft t té ùÎ ë û , les équations des variables d’état et les équations des variables adjointes issues de la fonction Hamiltonienne sont : ( ) ( ) ( ) ( )( ) ( ) ( )( ) , , , T k k dx t H x t p t u t dt p f x t u t ¶æ ö = ç ÷ ¶è ø = (4) ( ) ( ) ( ) ( )( ), , = T k T T k k dp t H x t p t u t dt x f L p x x ¶æ ö = -ç ÷¶è ø ¶ ¶æ ö æ ö - -ç ÷ ç ÷¶ ¶è ø è ø (5) avec : ( ) ( ) ( ), , , ,T k kH x p u L x u p f x u= + (6) ii. pour 0 , ft t té ùÎ ë û , la condition de stationnarité est donnée par : ( ) ( ) ( )( )0 , , T k T T k k H x t p t u t u f L p u u ¶æ ö = ç ÷¶è ø ¶ ¶æ ö æ ö = +ç ÷ ç ÷¶ ¶è ø è ø (7) iii. à ft , le vecteur p satisfait la condition limite : ( ) ( )( ) T f f p t x t x y¶æ ö = ç ÷ ¶è ø (8) iv. à tout kt , 1,2,...,k K= , la condition de continuité est donnée par : ( ) ( )k k p t p t- += (9) Les équations (4)-(7) ainsi que la condition aux limites (8) et la condition de continuité (9) font intervenir deux équations différentielles algébriques avec des conditions initiales et finales. Ces équations peuvent être résolues en utilisant les méthodes appelées shooting methods ou directement en utilisant la fonction bvp4c de Matlab. e-STA copyright 2011 by see Volume 8, N°1, pp 23-30 3 B. Optimisation des Instants de Commutation Pour l’étape (b), il s’agit de traiter le problème d’optimisation non linéaire décrit par : ( )1 ˆ mint J t J= (10) avec ( ){ }1 0 1 ˆ ˆ ,..., | ... T K K ft T t t t t t t tÎ = = £ £ £ £ . Nous envisageons de mettre en œuvre dans cette étape les algorithmes des EP et des CF pour l’optimisation des instants de commutation qui sont développés respectivement dans les sections suivantes. III. OPTIMISATION DES INSTANTS DE COMMUTATION PAR ESSAIMS PARTICULAIRES L’algorithme d’OEP optimise une fonction objectif en procédant à une recherche basée sur la population [11]. La population se compose de solutions potentielles, nommées particules, initialisées au hasard et survolent librement dans l’espace de recherche multidimensionnel. Pendant le vol, les particules modifient leurs propres positions sp et vitesses sv en se basant sur leurs propres expériences et celles des voisines [8, 11, 12]. La politique de mise à jour conduit les particules de l’essaim à la région où la fonction coût est optimale. Finalement toutes les particules se réuniront autour de la solution optimale globale. Afin d’optimiser les instants de commutation, nous considérons qu’une position de particule représente une séquence de commutations [10]. Le fonctionnement détaillé de l’OEP est donné ci-dessous : Etape 1 : Initialisation · fixer la taille de l’essaim (nombre des particules) S , le nombre de commutations nc et l’espace de recherche, · initialiser aléatoirement les positions ( )S ncp ´ et les vitesses des particules ( )S ncv ´ , Etape 2 : Evaluation initiale · en résolvant le problème de la commande optimale, étape (a), évaluer chaque particule selon la fonction coût J , · identifier la séquence de commutations optimale correspondant au meilleur coût ( )1 ˆs J t , · affecter la meilleure séquence à s pbest , · affecter s pbest à la meilleure séquence globale s pgbest , · initialiser l’indice d’itération k , Etape 3 : Mise à jour et enregistrement · mettre à jour s kv et s kp selon les équations de mouvement suivantes [12] : ( ) ( )1 1 1 2 2 k k k k k k s k s s k s s c r pbest p w c r pgbest p n n+ æ ö- + ç ÷= + ç ÷- è ø (11) 1 1k k k s s s p p n+ + = + (12) avec : s kp : position de la particule s à l’itération k , s kv : vitesse de la particule s à l’itération k , s kpbest : meilleure position découverte par la particule s à l’itération k , s kpgbest : meilleure position globale de la population à l’itération k , 1c et 2c sont des coefficients d’accélérations constants, 1r et 2r sont des nombres aléatoires uniformément répartie dans l’intervalle [ ]0,1 . w est un paramètre utilisé pour contrôler l’impact des vitesses antérieures sur la vitesse courante. Elle est mise à jour par l’équation suivante [12] : max min max max k w w w w k k æ ö- = -ç ÷ è ø (13) avec minw , maxw et maxk sont respectivement la valeur minimale, maximale de kw et le nombre maximal d’itération. · évaluer chaque particule selon la fonction fitness J , · identifier la séquence de commutation optimale correspondant au meilleur fitness ( )1 ˆs J t et l’affecter à s kpbest , e-STA copyright 2011 by see Volume 8, N°1, pp 23-30 4 · comparer s kpbest et s kpgbest , · si s s k kpbest pgbest< alors s s k kpgbest pbest¬ , Etape 4 : Condition d’arrêt l’algorithme retourne à l’étape 3 jusqu’à ce que maxk k= où il donne la meilleure séquence de commutations trouvée. IV. OPTIMISATION DES INSTANTS DE COMMUTATION PAR COLONIES DE FOURMIS L’OCF consiste à imiter le comportement des fourmis à la recherche de sources de nourriture. Dans un premier temps, les fourmis se promènent au hasard. Quand une fourmi trouve une source de nourriture, elle retourne à la colonie en laissant une trace de phéromones sur le terrain qui indiquent le chemin d’accès à la nourriture. Lorsque d’autres fourmis trouvent la phéromone, elles sont susceptibles de suivre le chemin avec une certaine probabilité. Alors, elles peuplent le chemin avec leurs propres phéromones et apportent la nourriture [8, 9]. Le chemin le plus court étant aussi le plus rapide, sa concentration en phéromones augmentera plus vite. Ainsi, le chemin du nid à la source sera optimisé [13]. Le fonctionnement de ce système est basé sur le principe des rétroactions positives car le dépôt de phéromones sur une piste attire d'autres fourmis qui vont à leur tour la renforcer. En contre partie, il se base sur des rétroactions négatives car l'évaporation provoque l'effet inverse [14]. Dans le but d’optimiser les instants de commutation, nous considérons que [9] : · chaque chemin est composé de M nœuds, · chaque nœud représente un instant de commutation, · la longueur du chemin construit par une fourmi f représente le coût de parcours entre deux nœuds i et j , soit f ijJ , · la probabilité d’aller au nœud j , ijp , dépend seulement du taux de phéromone ijt déposée entre les nœuds i et j . Elle est décrite par l’équation suivante : ij ij ill j p a t tÎ = å (14) où a est un paramètre contrôlant l’importance relative du taux de phéromone. Le fonctionnement détaillé de l’OCF est donné ci- dessous : Etape 1 : Initialisation · fixer le nombre de commutations nc , le nombre de nœuds proposés à chaque instant de commutation np , le nombre total des fourmis n et l’espace de recherche space , · initialiser le taux de phéromone ( )ij np nct ´ et le courant chemin ( )1tour np´ , · affecter une valeur coût initiale au meilleur chemin _best tour , Etape 2 : Evaluation initiale · en résolvant le problème de la commande optimale, étape (a), évaluer le chemin courant tour selon la fonction coût J et enregistrer la valeur dans _fitness tour , · affecter au meilleur fitness, _fbest tour , la valeur enregistrer dans _fitness tour , · initialiser l’indice d’itération k , Etape 3 : Mise à jour et enregistrement · pour chaque fourmi f , générer aléatoirement, le chemin f ijtour liant deux nœuds i et j , · en résolvant l’étape (a), évaluer le chemin de chaque fourmi selon la fonction J , · enregistrer la valeur coût dans _fitness tour , · comparer _fitness tour et _fbest tour , · si _ _fitness tour fbest tour< alors § _ _fbest tour fitness tour= , § _ f ijbest tour tour= , § actualiser le taux de phéromone ijt selon l’équation suivante [16] : ( ) 1 1 n f ij ij ij f t r t t = ¬ - + Då (15) où r est le taux d’évaporation et f ijtD est la quantité de phéromone déposée dans l’arc ( ),i j par la fourmi f , décrit par [9, 15]: e-STA copyright 2011 by see Volume 8, N°1, pp 23-30 5 f ij f ij Q J tD = (16) Q étant une constante. § actualiser la probabilité des meilleurs instants de commutation trouvés _best tour , · incrémenter f , · si f n< alors retourner à l’étape 3, sinon passer à l’étape suivante, Etape 4 : Actualisation de l’Espace de Recherche · identifier le meilleur coût _fbest tour avec la plus grande probabilité correspondant au meilleur chemin _best tour , · actualiser l’espace de recherche space Etape 5 : Condition d’Arrêt l’algorithme répète les étapes 3 et 4 jusqu’à ce que maxk k= où il donne la meilleure séquence de commutations trouvée. V. EXEMPLE ILLUSTRATIF Considérons l’exemple présenté dans [5, 16] décrit par les sous-systèmes suivants : sous-système 1: 1 1 1 2 2 2 sin cos x x u x x x u x = +ì í = - -î & & (17) sous-système 2: 1 2 2 2 1 1 sin cos x x u x x x u x = +ì í = - -î & & (18) sous-système 3: 1 1 1 2 2 2 sin cos x x u x x x u x = - -ì í = +î & & (19) Le système commute à 1t t= du sous-système 1 au sous- système 2 et à 2t t= du sous-système 2 au sous-système 3, avec 0 0t = et 3ft s= sachant que 1 20 3t t s£ £ £ . Nous cherchons à déterminer les instants de commutation optimaux 1optt , 2optt et le signal de commande optimal u en minimisant la fonction coût décrite par : ( )( ) ( )( )( ) ( ) ( ) ( )( ) 2 2 1 2 3 2 2 2 1 2 0 1 3 1 3 1 2 1 1 1 2 J x x x x u t dt = - + + + - + + +ò (20) avec ( )1 0 2x = et ( )2 0 3x = . Pour la détermination du signal de commande optimal u , appliquons les conditions nécessaires d’optimalité : · Pour [ )10,t , la fonction Hameltonienne est la suivante : ( ) ( ) ( )( ) ( ) ( ) 2 2 2 1 1 2 1 1 1 2 2 2 1 , , 1 1 2 sin cos H x p u x x u x u x p x u x p = - + + + + + + - - (21) et les équations différentielles sont: ( ) ( )( ) ( ) ( )( ) 1 1 1 2 2 2 1 1 1 1 1 2 2 2 2 2 sin cos 1 cos 1 sin dx x u x dt dx x u x dt dp x p up x dt dp x p up x dt ì = +ï ï ï = - -ïï í ï = - - + + ï ï ï = - + + - + ïî (22) avec 1 1 2 2 sin cosu p x p x= - + (23) · pour [ )1 2,t t , la fonction Hameltonienne est la suivante : ( ) ( ) ( )( ) ( ) ( ) 2 2 2 2 1 2 2 2 1 1 1 2 1 , , 1 1 2 sin cos H x p u x x u x u x p x u x p = - + + + + + + - - (24) e-STA copyright 2011 by see Volume 8, N°1, pp 23-30 6 et les équations différentielles sont: ( ) ( )( ) ( ) ( )( ) 1 2 2 2 1 1 1 1 2 2 1 2 2 1 1 2 sin cos 1 sin 1 cos dx x u x dt dx x u x dt dp x p up x dt dp x p up x dt ì = +ï ï ï = - -ïï í ï = - - + - + ï ï ï = - + + + ïî (25) avec 1 2 2 1 sin cosu p x p x= - + (26) · pour [ ]2 ,3t s , la fonction Hameltonienne est la suivante : ( ) ( ) ( ) ( )( ) ( ) ( ) 2 2 2 3 1 2 1 1 1 2 2 2 1 , , 1 1 2 sin cos H x p u x x u t x u x p x u x p = - + + + + - - + + (27) et les équations différentielles sont: ( ) ( )( ) ( ) ( )( ) 1 1 1 2 2 2 1 1 1 1 1 2 2 2 2 2 sin cos 1 cos 1 sin dx x u x dt dx x u x dt dp x p up x dt dp x p up x dt ì = - -ï ï ï = +ïï í ï = - - + - - ï ï ï = - + + - ïî (28) avec 1 1 2 2sin cosu p x p x= - (29) · les conditions aux limites sont : ( ) ( )1 13 3 1p x= - (30) ( ) ( )2 23 3 1p x= + (31) Afin d’optimiser les instants de commutation, nous fixons les paramètres de l’algorithme d’OEP tels que : · 1 2 0.75c c= = , · max 0.9w = et min 0.4w = , · S 40= et 2cn = , · max 15k = et [ ]0,3space s= . Pour l’algorithme d’OCF les paramètres sont : · 1a = et 0.99r = ; · 10Q = et 100np = ; · 40n = et 2cn = ; · max 15k = et [ ]0,3space s= . En Appliquant les algorithmes proposés, nous observons que l’algorithme d’OCF converge vers le coût minimal à l’itération 6, figure 2, avant l’algorithme d’OEP qui converge à l’itération 9, figure 1. Ceci revient à la précision du premier algorithme puisqu’il modifie son espace de recherche à chaque itération. Figure 1. Convergence de l’algorithme d’OEP Figure 2. Convergence de l’algorithme d’OCF 0 5 10 15 4.7 4.8 4.9 5 5.1 5.2 5.3 5.4 5.5 5.6 5.7 k J(k) 0 5 10 15 4.6 4.8 5 5.2 5.4 5.6 5.8 6 6.2 6.4 6.6 k J(k) e-STA copyright 2011 by see Volume 8, N°1, pp 23-30 7 Les résultats obtenus des instants de commutation optimaux ainsi que la valeur de coût pour chaque algorithme sont présentés dans le tableau 1. TABLEAU I. COMPARAISON DES RESULTATS OBTENUS Résultats Optimaux Algorithmes ( )1optt s ( )2optt s 1J Temps d’Exécution OEP 0.2216 1.0651 4.7370 59 min 17 s OCF 0.1969 1.0805 4.7406 72 min 47 s Les résultats présentés montrent que les deux algorithmes convergent vers la solution minimale globale puisqu’ils ont des valeurs proches. En effet, la fonction coût décrite par (20) est une fonction non convexe, figure 3. Nous pouvons conclure alors que les deux algorithmes peuvent nous garantir la solution optimale globale même avec une fonction non convexe. Pour le temps d’exécution, l’algorithme d’OEP présente une valeur inférieure à celle de l’algorithme d’OCF puisqu’il présente une étape de mise à jour de l’espace de recherche qui n’est pas utilisée dans le premier algorithme. Figure 3. Fonction coût ( )1 2,J t t Les figures 4, 5, 6 et 7 montrent respectivement le signal de commande optimal et la trajectoire d’état, trouvés par les deux algorithmes étudiés. VI. CONCLUSION Les algorithmes d’OCF et d’OEP sont comparés, pour l’optimisation des instants de commutation des systèmes à commutations, en termes de vitesse de convergence et d’efficacité à l’obtention de l’optimum global. Chaque technique a des paramètres de contrôle, leurs choix appropriés garantissent la convergence vers la solution optimale globale, et c’est ce qui est prouvé pour les deux algorithmes dans l’exemple illustré où les résultats obtenus sont proches. Le temps d’exécution de l’algorithme d’OCF est plus grand que celui de l’algorithme d’OEP puisqu’il met à jour l’espace de recherche. De plus, sa mise en œuvre est plus délicate. Figure 4. Signal de commande optimal u obtenu par l’algorithme d’OCF Figure 5. Trajectoire d’état obtenue par l’algorithme d’OCF Figure 6. Signal de commande optimal u obtenu par l’algorithme d’OEP 0 0.5 1 1.5 2 2.5 3 -3 -2.5 -2 -1.5 -1 -0.5 0 0.5 t(s) u 0 0.5 1 1.5 2 2.5 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5 3 x1 x 2 0 0.5 1 1.5 2 2.5 3 -3 -2.5 -2 -1.5 -1 -0.5 0 0.5 t(s) u e-STA copyright 2011 by see Volume 8, N°1, pp 23-30 8 Figure 7. Trajectoire d’état obtenue par l’algorithme d’OEP REFERENCES [1] G. Antoine, “Analyse Algorithmique des Systèmes Hybrides”, Thèse de Docteur en Mathématiques, INPG Grenoble, Septembre 2004. [2] P. Riendinger, C.Iung et J. Daafouz, “Commande Optimale des Systèmes Hybrides: Théorie et Pratique” 2ème Conférence Internationale Francophone d’Automatique, Nantes, 8-10 Juillet 2002. [3] R. Luus et Y. Chen, “Optimal Switching Control Via Direct Search Optimization”, Proceedings International Symposium on Intelligent Control, Houston, pp. 371-376, Octobre 2003. [4] S. Boubaker et F. M’sahli, “ Synthèse d’une Loi de Commande Optimale d’un Système Hybride Linéaire à deux Dynamiques par Essaims Particulaires”, 5ème Conférence Internationale d’Eléctrothechnique et d’Automatique, Hammamet, 02-04 Mai 2008. [5] X. Xu et P. J. Antsaklis, “Optimal Control of Switching Systems Based on Parameterization of the Switching Instants”, IEEE Transaction Automatic Control, vol. 49, n° 1, pp. 2-16, Janvier 2004. [6] N. Majdoub, A. Sakly, M. Sakly et M. Benrejeb, “Optimal Control of Nonlinear Swtched Systems Based on Genetic Algorithms”, 10th International Conference on Science and Techniques of Automatic Control & Computer Engineering, Hammamet, pp. 775-784, 20-22 Décembre 2009. [7] F. Tangour, P. Borne, “Presentation of Metaheuristics for the Optimization of Complex Systems”, Studies in Informatics and Control, vol. 17, n° 2, pp. 169-180, 2008. [8] P. Borne, M. Benrejeb, “Des Algorithmes d’Optimisation. La Nature Source d’Inspiration pour l’Ingénieur”, l’Ingénieur, n° 260, pp. 12-15, Janvier-Février 2010. [9] N. Majdoub, A. Sakly, M. Sakly et M. Benrejeb, “Ant Colony-Based Optimization of Switching Instants for Autonomous Switched Systems”, International Rewiew of Automatic Control, IREACO, vol. 3, n°1, Janvier 2010. [10] N. Majdoub, A. Sakly, M. Sakly et M. Benrejeb, “Comparison Between PSO and GA for Switching Instants Optmization”, 6th International Conference on Electrical Systems and Automatic Control, Hammamet, 26-28 Mars 2010. [11] K. O. Jones et A. Bouffet, “Comparaison of Bees Algorithm Ant Colony Optimisation and Particle Swarm Optimization for PID Controller Tuning”, Proceeding of the 9th International Conference on Computer Systems and Technologies and Workshop for PhD Students in Computing, Gabrovo, n° 29, 2008 . [12] J. Wang, Y. Zhou et X. Chen, “Electricity Load Forecasting Based on Support Vector Machines and Simulated Annealing Particle Swarm Optimization Algorithm”, International Conference on Automation and Logistics, Jinan, pp. 2836-2841, Août 2007. [13] J. L. Deneubourg, J. M. Pasteels, J. C. Verhaeghe, “Probabilistic Behaviour in Ants: a Strategy of Errors”, Journal of Theoretical Biology, pp. 105, 1983. [14] K. Socha, M. Dorigo, “Ant Colony Optimization for Continuous Domains”, European Journal of Operational Research, vol. 185, pp. 1155-1173, 2008. [15] M. Dorigo et G. Di Caro, “Ant colony Optimization : New Meta- Heuristic, Congres on Evolutionary Computation”, vol. 2, pp.1477, Washington, Juillet 1999. [16] X. Xu, “Analysis and Design of Switched Systems”, PhD Thesis, University of Notre Dame, Indiana, Juillet 2001. 0 0.5 1 1.5 2 2.5 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5 3 x1 x 2 e-STA copyright 2011 by see Volume 8, N°1, pp 23-30