Commande par apprentissage itératif à base d’un modèle de référence des systèmes linéaires avec des perturbations répétées et non répétées

01/08/2016
Auteurs : Farah Bouakrif
Publication e-STA e-STA 2010-2
OAI : oai:www.see.asso.fr:545:2010-2:17187
DOI :

Résumé

Commande par apprentissage itératif à base d’un modèle de référence des systèmes linéaires avec des perturbations répétées et non répétées

Métriques

24
5
283.94 Ko
 application/pdf
bitcache://fe150ae5715e0bf879010a7a6e470353740de9e3

Licence

Creative Commons Aucune (Tous droits réservés)
<resource  xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
                xmlns="http://datacite.org/schema/kernel-4"
                xsi:schemaLocation="http://datacite.org/schema/kernel-4 http://schema.datacite.org/meta/kernel-4/metadata.xsd">
        <identifier identifierType="DOI">10.23723/545:2010-2/17187</identifier><creators><creator><creatorName>Farah Bouakrif</creatorName></creator></creators><titles>
            <title>Commande par apprentissage itératif à base d’un modèle de référence des systèmes linéaires avec des perturbations répétées et non répétées</title></titles>
        <publisher>SEE</publisher>
        <publicationYear>2016</publicationYear>
        <resourceType resourceTypeGeneral="Text">Text</resourceType><dates>
	    <date dateType="Created">Mon 1 Aug 2016</date>
	    <date dateType="Updated">Sun 2 Apr 2017</date>
            <date dateType="Submitted">Fri 17 Aug 2018</date>
	</dates>
        <alternateIdentifiers>
	    <alternateIdentifier alternateIdentifierType="bitstream">fe150ae5715e0bf879010a7a6e470353740de9e3</alternateIdentifier>
	</alternateIdentifiers>
        <formats>
	    <format>application/pdf</format>
	</formats>
	<version>32275</version>
        <descriptions>
            <description descriptionType="Abstract"></description>
        </descriptions>
    </resource>
.

Commande par apprentissage itératif à base d’un modèle de référence des systèmes linéaires avec des perturbations répétées et non répétées Farah Bouakrif Laboratoire LAMEL Université de Jijel, Algérie Résumé : Cet article porte sur la commande par apprentissage itératif des systèmes linéaires répétitifs avec des perturbations répétées et non répétées afin de suivre un modèle de référence. Ce dernier n’a aucune dépendance avec le modèle du système à commander, et les états initiaux de deux systèmes ne doivent pas forcément être égaux. En utilisant λ norme comme une méthode topologique, la stabilité asymptotique du système en boucle fermée est démontrée, dans un intervalle de temps fini lorsque le nombre des itérations tend vers l’infini. Les résultats de simulations sur un système linéaire prouvent clairement l’efficacité de la commande par apprentissage itératif présentée. Mot clés : Commande par apprentissage itératif, modèle de référence, λ norme, perturbations répétées, perturbations non répétées. I. INTRODUCTION Dans le domaine de l’automatique on appelle système répétitif un système qui exécute une tâche donnée d’une manière répétitive (cyclique, itérative) sur un intervalle de temps fixe. Les robots et les machines industrielles (les véhicules convoyeurs, presses automatiques…) programmés pour fonctionner de manière répétitive, constituent ainsi des exemples typiques de ce genre de systèmes. En effet, lorsqu’une machine exécute la même tâche à plusieurs reprises (cycles), il devient intéressant d'utiliser les informations des cycles précédents en vue de réduire l'erreur à la prochaine exécution de cette tâche. Ceci caractérise l’approche de Commande par Apprentissage Itératif « CAI » introduit par Arimoto [1]. Cette commande consiste à trouver un mécanisme itératif adéquat permettant d'apprendre les erreurs des cycles antérieurs et exécuter progressivement mieux le nouveau cycle, et par la suite améliorer la poursuite à travers les itérations. Durant cette dernière décennie, beaucoup de résultats ont été obtenus sur la CAI, nous citons entre autres [2]-[11]. En plus de la poursuite d’une trajectoire désirée, la CAI a aussi la capacité de commander un système pour suivre un modèle de référence (système désiré), ce qui a été étudié dans [12]- [14]. Cependant, l’inconvénient de la CAI développée dans ces travaux est qu’elle peut seulement commander des systèmes pour suivre des modèles de référence possédant la même structure et les mêmes paramètres que les systèmes à commander. Par exemple, dans [15], une CAI est développée pour les robots manipulateurs, dont le but est de suivre un modèle de référence spécifié qui possède la même structure et les mêmes paramètres que le modèle dynamique du robot. Dans [14], les auteurs ont essayé de surmonter ce problème, en désignant une CAI des systèmes linéaire pour suivre un modèle de référence qui ne possède pas les mêmes paramètres que le système à commander. Malheureusement, ils ont supposé une forte dépendance entre les deux systèmes, en plus l’état initial du système à commander doit être égal au celui du système désiré pour chaque itération, ce qui présente un inconvénient. Dans ce papier, nous présentons une commande par apprentissage itératif des systèmes linéaires avec des perturbations répétées et non répétées pour suivre un système désiré qui ne possède pas les mêmes paramètres du système à e-STA copyright 2010 by see Volume 7, N°2, pp 9-15 commander et il n’y a aucune dépendance entre les deux systèmes. De plus, les états initiaux des deux systèmes ne sont pas égaux. La norme λ est adoptée comme une méthode topologique pour démontrer la stabilité asymptotique du système en boucle fermée, dans un intervalle de temps fini lorsque le nombre des itérations tend vers l’infini. Les résultats de simulation sur un système linéaire prouvent clairement l’efficacité de la CAI présentée. II. FORMULATION DU PROBLEME Considérons le système dynamique suivant )()()()( tvtButAxtx kkkk ++=& (1) avec ],0[ Tt ∈ , k désigne le nombre des itérations, n k Rtx ∈)( est le vecteur d’état du système, m k Rtu ∈)( est la commande, nn RA × ∈ est une matrice constante, mn RB × ∈ est une matrice des gains de la commande, )(tvk présente les perturbations appliquées au système. Notre objectif est de commander le système (1) pour suivre un modèle de référence (système désiré). Ce dernier est donné par : ],0[)()()( TttuBtxAtx rrrrr ∈∀+=& (2) où nn r RA × ∈ est Hurwitz, n r Rtx ∈)( est le vecteur d’état de référence, m r Rtu ∈)( est la commande de référence, mn r RB × ∈ est une matrice des gains de la commande de référence. Dans [12], les auteurs ont supposé que AAr = et BBr = , alors que dans [14], cette supposition a été remplacée par une autre supposition qui est 1BLBr = et BKAAr += , avec K et 1L sont des matrices constantes. De plus, ils ont supposé que les étaux initiaux du système à commander et le système de référence sont égaux à chaque articulation. Dans ce papier toutes ces contraintes sont évitées, et la seule supposition est la suivante : Hypothèse 1 : Le terme des perturbations est borné comme suit, ],0[ Tt ∈∀ et k∀ vkk btvtv ≤−+ )()(1 . (3) Dans ce papier le lemme suivant est utilisé. Lemme 1. Soit une fonction nT n Rtztztztz ∈= )](),....(),([)( 21 , on a : ( ) λ λ λ )( 1 .)( 0 tzedssz t t ≤− ∫ (4) Preuve ( ) { } { } ( ) .)( 1 1 )(sup )(sup )()( 0 0 )( 0 0 )( 0 λ λ λ λλ λλλ λ λ tz e etz dseesz dseeszedssz t t ts t sts ts t stst t ≤ −    ≤    ≤ = − − ≤≤ −−− ≤≤ −−−− ∫ ∫∫ (5) III. SYNTHESE DE LOI DE COMMANDE Afin de commander le système (1) pour suivre le modèle de référence (2), nous proposons la loi de CAI suivante : )()()(1 teLtutu kkk &+=+ (6) avec )0()0()0(1 kkk BLexx +=+ (7) avec L est une matrice des gains, )()()( txtxte krk −= est l’erreur de poursuite, et )()()( txtxte krk &&& −= . La condition de la stabilité asymptotique est donnée par le théorème suivant : Théorème Etant donnée le système dynamique (1) vérifiant l’hypothèse (3). En appliquant la loi de commande (6) et (7). Si 1<− BLIn , alors 1. La norme λ de l’erreur de poursuite d’état est bornée pour ],0[ Tt ∈ lorsque ∞→k , dans le sens de : e-STA copyright 2010 by see Volume 7, N°2, pp 9-15 )1( )(lim ελλ − ≤ ∞→ v k k b te . (8) Il s’en suit qu’il existe vb>>λ )0( >λ , tel que )1( ελ − vb est largement petit. 2. Si les perturbations sont répétées, on obtient: 0)(lim = ∞→ λ tek k . (9) Avec λ δγ λ δγαδγ ε − + +− = 1 : BLIn , AAA r −= ~ , )( ~ ],0[, sup stA Tst e − ∈ =γ , BL=α , A ~ =δ , nI est la matrice identité. Preuve De (1) et (2), on peut écrire )( )()()( ~ )( ~ )()()( tv tButuBtxAteA txtxte k krrkk krk − −++= −= &&& (10) avec AAA r −= ~ . De (10), la solution générale )(tek peut être écrite de la forme suivante ( ) .)( )()( )( ~ )0()( 0 0 )( ~ 0 )( ~~ dssv dssBusuBe dssxAeeete t k t krr stA t k stA k tA k ∫ ∫ ∫ − −+ += − − (11) A l’itération )1( +k , on trouve ( ) .)( )()( )( ~ )0()( 0 1 0 1 )( ~ 0 1 )( ~ 1 ~ 1 ∫ ∫ ∫ + + − + − ++ − −+ += t k t krr stA t k stA k tA k dssv dssBusuBe dssxAeeete (12) En soustrayant (11) de (12) et utilisant (6), on obtient ( ) ( ).)()( )( )()( ~ )()( 0 1 0 )( ~ 0 1 )( ~ 1 ∫ ∫ ∫ −− − −=− + − + − + t kk t k stA t kk stA kk svsv dsseBLe dsteteAetete & (13) Sachant que )()()()( 11 tetetxtx kkkk ++ −=− (14) En intégrant le deuxième terme de la partie droite dans (10) et utilisant (7), il vient ( ) ( ) ( ).)()( )()( ~ )( ~ )()( 0 1 0 1 )( ~ 0 )( ~ 1 ∫ ∫ ∫ −− −+ −−= + + − − + t kk t kk stA t k stA knk svsv dsteteeA dsseeABLteBLIte (15) En appliquant les propriétés générales des normes sur les deux membres de (15), et utilisant l’hypothèse 1, on obtient dsbdstete dsseteBLIte t v t kk t kknk ∫∫ ∫ +−+ +−≤ + + 00 1 0 1 )()( )()()( δγ αδγ (16) avec )( ~ ],0[, sup stA Tst e − ∈ =γ , BL=α et A ~ =δ . En multipliant les deux côtés de (16) par t e λ− , et d’après le lemme 1, il vient . )( 1 )(1 λ λ δγ λ δγαδγ λλ v k n k b te BLI te +             − + +− ≤+ (17) e-STA copyright 2010 by see Volume 7, N°2, pp 9-15 En vérifiant 1<− BLIn , il s’en suit qu’il existe λ )0( >λ assez grand, tel que ],0[,1: 1 Tt BLIn ∈<= − + +− ρ λ δγ λ δγαδγ . (18) On peut écrire (17) sous la forme λε ε ε λλ v k k k b tete         − − +≤ 1 1 )()( 0 (19) De (18) et (19), on obtient )1( )(lim ελλ − ≤ ∞→ v k k b te (20) Dans le cas où à chaque itération les perturbations sont les mêmes ( vb tend vers zéro), alors ],0[,0)(lim Tttek k ∈= ∞→ λ . Dans le cas où les perturbations ne sont pas répétées, il s’en suit qu’il existe vb>>λ )0( >λ , tel que )1( ελ − vb est largement petit. IV. RESULTATS DE SIMULATION Cet exemple tiré de [16] est utilisé pour illustrer l’efficacité de la loi de commande par apprentissage itératif présentée dans ce papier, il est donné par :       +             − − − − +             − − − −− − = )( )( )( )()( 2 1 2 21 1 2 21 2 2 21 12 2 21 1 2 21 2 2 21 21 tv tv tu MLL ML MLL ML tx MLL LR MLL MR MLL MR MLL LR tx k k & (21) avec les résistances Ω= 11R et Ω= 12R . Les inductances HL 36.01 = , HL 5.02 = , et l’inductance mutuelle est donnée par HM 15.0= . L'état du système )(tx est le courant, et le signal de commande est la tension d’entrée. Et donc, (21) devient : . )( )( )( 333.1 222.2 )( 2857.29524.0 9524.01764.3 )( 2 1       +      +       − − = tv tv tu txtx k k & (22) Les perturbations sont données par:       =      )4cos(2 )2cos( )( )( 0 0 2 2 1 tf tf tv tv k k π π α (23) avec )20/(10 hf = et 1.02 =α . Le modèle de référence est donné par : ).( 000.1 888.1 )( 958.1256.3 365.2235.5 )( tutxtx rrr       +      − − =& (24) La commande de référence est choisie comme suit : tttur 2sinsin 2 1 )( += , ]3,0[∈t . (25) La matrice des gains est donnée par [ ]25.025.0=L . En appliquant la loi de commande (6) et (7), les résultats de simulation donnant l’état réel 1 (2) et l’état désiré de la 1ère , 10ème , 20ène , 30ène , 40ène , 50ène (54ème ) itération sont montrés dans les figures 1-6 (8-13), respectivement. Nous pouvons voir que l’état réel 1 (2) suit l’état désiré à travers les itérations. D’où le système exécute 50 (54) itérations pour que l’état réel 1 (2) suit l’état désiré sans erreur. Les figures 7 et 14 montrent les erreurs d’états 1 et 2 après les itérations citées précédemment, et les figures 15 et 16 montrent l’évolution des erreurs d’états 1 et 2 au cours des itérations. Il est clair que l’application de cette commande donne des bons résultats. e-STA copyright 2010 by see Volume 7, N°2, pp 9-15 0 0.5 1 1.5 2 2.5 3 0 0.2 0.4 0.6 0.8 1 1.2 1.4 Temps (s) Etatsréeletdésiré Etat réel 1 Etat désiré 1 k=1 Fig.1. Etat réel 1 et l’état désiré après une itération. 0 0.5 1 1.5 2 2.5 3 0 0.2 0.4 0.6 0.8 1 1.2 1.4 Temps (s) Etatréeletdésiré Etat réel 1 Etat désiré 1 k=10 Fig.2. Etat réel 1 et l’état désiré après 10 itérations. 0 0.5 1 1.5 2 2.5 3 0 0.2 0.4 0.6 0.8 1 1.2 1.4 Temps (s) Etatréeletdésiré Etat réel 1 Etat désiré 1 k=20 Fig.3. Etat réel 1 et l’état désiré après 20 itérations. 0 0.5 1 1.5 2 2.5 3 0 0.2 0.4 0.6 0.8 1 1.2 1.4 Temps (s) Etatréeletdésiré Etat réel 1 Etat désiré 1 k=30 Fig.4. Etat réel 1 et l’état désiré après 30 itérations. 0 0.5 1 1.5 2 2.5 3 0 0.2 0.4 0.6 0.8 1 1.2 1.4 Temps (s) Etatréeletdésiré Etat réel 1 Etat désiré 1 k=40 Fig.5. Etat réel 1 et l’état désiré après 40 itérations. 0 0.5 1 1.5 2 2.5 3 0 0.2 0.4 0.6 0.8 1 1.2 1.4 Temps (s) Etatréeletdésiré Etat réel 1 Etat désiré 1 k=50 Fig.6. Etat réel 1 et l’état désiré après 50 itérations. 0 0.5 1 1.5 2 2.5 3 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 Temps (s) Erreur1 k=1 k=10 k=20 k=30 k=40 k=50 Fig.7. Erreur 1 pour k=1,10,20,30,40,50. 0 0.5 1 1.5 2 2.5 3 0.6 0.8 1 1.2 1.4 1.6 1.8 2 2.2 2.4 2.6 Temps (s) Etatsréeletdésiré Etat réel 2 Etat désiré 2 k=1 Fig.8. Etat réel 2 et l’état désiré après une itération. e-STA copyright 2010 by see Volume 7, N°2, pp 9-15 0 0.5 1 1.5 2 2.5 3 0 0.5 1 1.5 2 2.5 Temps (s) Etatsréeletdésiré Etat réel 2 Etat désiré 2 k=10 Fig.9. Etat réel 2 et l’état désiré après 10 itérations. 0 0.5 1 1.5 2 2.5 3 0 0.5 1 1.5 2 2.5 Temps (s) Etatsréeletdésiré Etat réel 2 Etat désiré 2 k=20 Fig.10. Etat réel 2 et l’état désiré après 20 itérations 0 0.5 1 1.5 2 2.5 3 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2 2.2 2.4 Temps (s) Etatsréeletdésiré Etat réel 2 Etat désiré 2 k=30 Fig.11. Etat réel 2 et l’état désiré après 30 itérations 0 0.5 1 1.5 2 2.5 3 0.6 0.8 1 1.2 1.4 1.6 1.8 2 2.2 2.4 2.6 Temps (s) Etatsréeletdésiré Etat réel 2 Etat désiré 2 k=40 Fig.12. Etat réel 2 et l’état désiré après 40 itérations 0 0.5 1 1.5 2 2.5 3 0.6 0.8 1 1.2 1.4 1.6 1.8 2 2.2 2.4 2.6 Temps (s) Etatsréeletdésiré Etat réel 2 Etat désiré 2 k=54 Fig.13. Etat réel 2 et l’état désiré après 54 itérations 0 0.5 1 1.5 2 2.5 3 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1 1.2 1.4 Temps (s) Erreur2 k=1 k=10 k=20 k=30 k=40 k=54 Fig.14. Erreur 2 pour k=1,10,20,30,40,54. 10 20 30 40 50 60 70 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 Nombre des itérations Sup|e1| Fig.15. Erreur 1 au cours des itérations. 10 20 30 40 50 60 70 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 Nombre des itérations Sup|e2| Fig.16. Erreur 2 au cours des itérations. e-STA copyright 2010 by see Volume 7, N°2, pp 9-15 V. CONCLUSION Une loi de commande par apprentissage itératif de type D des systèmes répétitifs avec des perturbations répétées et non répétées afin de suivre un modèle de référence a été présentée. Ce dernier n’a aucune dépendance avec le modèle du système à commander, et les états initiaux de deux systèmes ne doivent pas forcément être égaux. La norme λ est adoptée comme une méthode topologique pour démontrer la stabilité asymptotique du système en boucle fermée, dans un intervalle de temps fini lorsque le nombre des itérations tend vers l’infini. Les résultats de simulations sur un système linéaire prouvent clairement l’efficacité de la CAI présentée. Références [1] Arimoto S., Kawamura S. et Miyazaki F., “Bettering operation of robots by learning”, J. of Robot. Syst., Vol. 1, No. 2, pp. 123-140, 1984. [2] Xu JX. et Tan Y., “Linear and nonlinear iterative learning control”, Lecture notes in control and information sciences, Springer Verlag, 2003. [3] Xu J.X. et Yan R., “On initial conditions in iterative learning control”, IEEE Trans. Autom. Control, Vol. 50, No. 9, pp. 1349-1354, 2005. [4] Bouakrif F., “Reference model iterative learning control for nonlinear systems”, In. J. of Advanced Manufacturing Technology, Vol. 48, 2010. [5] Bouakrif F., “D-type iterative learning control without resetting condition for robot manipulators”, accepté pour publication, Robotica, 2011. [6] Bouakrif F., “Iterative learning control with forgetting factor for robot manipulators with strictly unknown model”, accepté pour publication, Int. J. of Robotics and Automation, 2011. [7] Bouakrif F., “Reference model iterative learning control for linear systems”, IEEE Med. Conf. on Control and Automation, Marrakech, 2010. [8] Bouakrif F., Boukhetala D. et Boudjema F., “Iterative learning control for robot manipulators”, Archives of Control Sciences, Vol. 17, No. 1, 2007. [9] Bouakrif F., Boukhetala D. et Boudjema F., “Iterative learning control schemes for robot manipulators”, Mediterranean journal of measurement and control, Vol. 3, No. 3, pp. 104-112, 2007. [10] Tayebi A., “Adaptive iterative learning control for robot manipulators”, Automatica, Vol. 40, pp. 1195-1203, 2004. [11] Sun M., Ge S. S. et Mareels I. M. Y., “Adaptive repetitive learning control of robotic manipulators without the requirement for initial repositioning”, IEEE Trans. on Robotics, Vol. 22, No. 3, pp. 563-568, 2006. [12] Bien Z., et Huh K. M., “Higher-order iterative learning control algorithm control theory and applications,” IEE Proc.-Control Theory Appl., Vol. 136, No. 3, pp. 105 - 112, 1989. [13] Chen Y. Q., Xu J. X. et Lee T., “An iterative learning controller using current iteration tracking error information and initial state learning,” in Proc. the 35th IEEE Decision and Control, Dec. 1996, pp. 3064-3069. [14] Chen W. et Chowdhury F. N., “Model reference iterative learning control”, Proceedings of the 2006 American Control Conference, Minnesota, June 2006, pp. 1654-1658. [15] Wang D., “Model reference learning approach and its applications to robot impedance control,” in Proc. the 37th IEEE Decision and Control, Tampa, FL, December 1998, pp. 684 689. [16] Xu J. X. et Xu J., “Observer-based learning control for a class of nonlinear systems with time-varying parametric uncertainties,” IEEE Trans. Automat. Contr., Vol. 49, No. 2, pp. 275 281, 2004. e-STA copyright 2010 by see Volume 7, N°2, pp 9-15