Identifcation de systèmes fractionnaires non linéaires par réseaux neuronaux à temps continu

24/09/2017
Publication e-STA e-STA 2006-2
OAI : oai:www.see.asso.fr:545:2006-2:19940
DOI :

Résumé

Identifcation de systèmes fractionnaires non linéaires par réseaux neuronaux à temps continu

Métriques

20
5
529.28 Ko
 application/pdf
bitcache://9bae8d6e83f2d709328b2c04839b455071624349

Licence

Creative Commons Aucune (Tous droits réservés)
<resource  xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
                xmlns="http://datacite.org/schema/kernel-4"
                xsi:schemaLocation="http://datacite.org/schema/kernel-4 http://schema.datacite.org/meta/kernel-4/metadata.xsd">
        <identifier identifierType="DOI">10.23723/545:2006-2/19940</identifier><creators><creator><creatorName>Jean-Claude Trigeassou</creatorName></creator><creator><creatorName>François Benoît-Marand</creatorName></creator><creator><creatorName>Laurent Signac</creatorName></creator><creator><creatorName>Thierry Poinot</creatorName></creator></creators><titles>
            <title>Identifcation de systèmes fractionnaires non linéaires par réseaux neuronaux à temps continu</title></titles>
        <publisher>SEE</publisher>
        <publicationYear>2017</publicationYear>
        <resourceType resourceTypeGeneral="Text">Text</resourceType><dates>
	    <date dateType="Created">Sun 24 Sep 2017</date>
	    <date dateType="Updated">Sun 24 Sep 2017</date>
            <date dateType="Submitted">Mon 10 Dec 2018</date>
	</dates>
        <alternateIdentifiers>
	    <alternateIdentifier alternateIdentifierType="bitstream">9bae8d6e83f2d709328b2c04839b455071624349</alternateIdentifier>
	</alternateIdentifiers>
        <formats>
	    <format>application/pdf</format>
	</formats>
	<version>33866</version>
        <descriptions>
            <description descriptionType="Abstract"></description>
        </descriptions>
    </resource>
.

Identication de systèmes fractionnaires non linéaires par réseaux neuronaux à temps continu François Benoît-Marand, Laurent Signac, Thierry Poinot, Jean-Claude Trigeassou Laboratoire d'Automatique et d'Informatique Industrielle Bâtiment de Mécanique 40, avenue du recteur Pineau 86022 Poitiers, France Francois.Benoit.Marand@etu.univ-poitiers.fr, Laurent.Signac@univ-poitiers.fr, Thierry.Poinot@univ-poitiers.fr, Jean.Claude.Trigeassou@univ-poitiers.fr http://laii.univ-poitiers.fr RésuméLes systèmes d'ordre non entier, ou fractionnaires, sont utilisés pour la modélisation des processus de diu- sion. La simulation de ces systèmes particuliers est basée sur un intégrateur fractionnaire où le phénomène non en- tier n'intervient que sur un domaine spectral limité. Cet intégrateur permet alors de simuler des systèmes d'ordre non entier linéaires et non linéaires. Dans cette communi- cation, nous nous intéressons à l'identication des systèmes fractionnaires non linéaires. Pour cela, nous associons l'in- tégrateur fractionnaire à un réseau de neuronal continu. Le terme continu souligne l'originalité de ces réseaux, dans lesquels les classiques retards sont remplacés par un inté- grateur. Ceci nous permet d'extraire des informations sur la partie statique du processus. Alors, en utilisant une tech- nique d'estimation par erreur de sortie, nous avons accès à la connaissance sur le modèle du système et ses paramètres. Des résultats en simulation illustrent la méthodologie pré- sentée. Mots-clés Réseaux neuronaux, systèmes dynamiques, sys- tèmes non entiers, identication. I. Introduction Les systèmes d'ordre non entier, ou fractionnaires, sont utilisés pour la modélisation des processus de diusion dans des domaines comme la thermique [1], [4], l'électrochimie [11] ou l'électromagnétisme [10], [21]. Les travaux conduits au Laii sont basés sur la dénition d'un opérateur d'inté- gration fractionnaire [9] avec lequel il est possible de simu- ler des systèmes d'ordre non entier aussi bien linéaires que non linéaires [20]. Notre objectif porte non seulement sur la modélisation des processus de diusion, mais également sur l'estimation des paramètres de ces modèles. Dans cette communication, nous nous intéressons à l'identication des systèmes fractionnaires non linéaires à partir de réseaux de neurones. Une approche originale [2], [3] a été développée dans le cas des systèmes non linéaires d'ordre entier. Il est ainsi possible d'accéder à la connais- sance sur le modèle du système et sur ses paramètres. Plus particulièrement, et contrairement à ce que permet l'uti- lisation boîte noire habituelle des réseaux de neurones, cette approche sépare la partie statique de la partie dy- namique et permet de remonter à l'équation physique qui régit le processus. Cet article porte sur l'extension de ces travaux au cas des systèmes non linéaires fractionnaires. Après avoir rappelé la dénition de l'opérateur d'intégra- tion fractionnaire et sa représentation d'état, nous présen- tons le principe des réseaux de neurones à temps continu ainsi que leur extension aux systèmes fractionnaires. La procédure d'identication est alors exposée ainsi que l'ini- tialisation du réseau. Enn, la méthodologie est illustrée via un exemple en simulation. II. Opérateur d'intégration fractionnaire et simulation des systèmes fractionnaires A. Simulation des systèmes fractionnaires Considérons l'équation diérentielle entière suivante dy (t) dt = f (u (t) , y (t)) (1) où u (t) représente l'entrée du système et y (t) sa sortie. Cette équation diérentielle, généralement non linéaire, est intégrée à l'aide d'un opérateur 1 s , qui réalise l'intégra- tion temporelle de dy(t) dt (an d'obtenir y (t) à sa sortie). En pratique, on utilise une technique d'intégration numérique (Euler, RK4, ...) à la place d'une intégration analogique (1 s ). Considérons maintenant une équation diérentielle frac- tionnaire dn y (t) dtn = f (u (t) , y (t)) (2) où n est l'ordre non entier. Supposons disponible un opérateur d'intégration frac- tionnaire I (s) = 1 sn alors, son entrée est égale à dn y(t) dtn (an que sa sortie soit égale à y (t)). Cet opérateur généralise aux systèmes fractionnaires le principe de simulation précédent. En conclusion, la simula- tion des systèmes fractionnaires repose essentiellement sur la dénition de l'opérateur d'intégration fractionnaire qui généralise l'opérateur d'intégration entier. On notera que cette technique s'applique aussi bien aux systèmes fractionnaires linéaires que non linéaires, ce qui est l'intérêt de l'opérateur I (s). Le problème des conditions initiales sera évoqué dans la section VI B. Dénition de l'opérateur d'intégration fractionnaire L'opérateur d'intégration fractionnaire idéal est déni à partir de la fonction de transfert : I (s) = 1 sn (3) qui correspond à un module de pente −n × 20 dB/décades et une phase de −n × 90o sur tout le domaine spectral. Ce comportement fréquentiel peut être approché dans un domaine limité [ωb, ωh] xé par la précision désirée en utilisant une cascade de ltres à avance de phase [16]. Néan- moins, la réponse harmonique obtenue ne peut donner de résultats satisfaisants pour ω < ωb car les ltres ont alors à un module constant. Ce problème peut être aisément résolu en associant au ltre à avance de phase composé de N cellules, un intégra- teur 1/s [18]. Considérons l'opérateur suivant [9] : In (s) = Gn s N i=1 1 + s ωi 1 + s ωi (4) Il correspond au diagramme de Bode de la gure 1. bω hω ωlog bω hω ωlogθ dBρ °×− 90n °−90 Fig. 1. Diagramme de Bode de l'opérateur d'intégration fractionnaire In (s) Il est composé de trois parties :  La zone intermédiaire correspond à l'eet non entier, caractérisé par n.  Dans les deux autres zones, l'eet intégrateur est conventionnel, avec n = 1. L'opérateur In(s) agit donc comme un intégrateur conventionnel 1/s, excepté dans la bande limitée [ωb, ωh] où il agit comme 1/sn . Il est complètement déni par les relations suivantes : ω1 = ωb, ωN = ωh ωi = α ωi, ωi+1 = η ωi n = 1 − log α log α η Gn est tel que les gains de 1 sn et In(s) soient égaux à la fréquence wu = √ wbwh (5) où α et η sont les paramètres récursifs reliés à l'ordre non entier n. Selon l'expression (4), on peut associer une représenta- tion d'état à cet opérateur. Elle s'écrit : · xI = A∗ I xI + B∗ I u (6) où A∗ I = M−1 I AI et B∗ I = M−1 I BI avec BT I = [Gn 0 · · · 0], MI =     1 0 · · · 0 −α 1 . . . . . . . . . . . . 0 0 · · · −α 1    , AI =     0 0 · · · 0 ω1 −ω1 . . . . . . . . . . . . 0 0 · · · ωN −ωN     III. Réseaux neuronaux à temps continu Il existe principalement deux catégories de méthodes pour simuler un systèmes dynamique à l'aide d'un réseau de neurones. La première est basée sur des retards (intro- duits par une équation aux diérences) [14] et son but est d'obtenir un modèle  boîte noire  basé sur une repré- sentation discrète du système. Cette méthode est illustrée sur la gure 2. Le manque de précision dû à l'utilisation de retards peut être compensé par une complexication du réseau de neurones, an d'obtenir une discrétisation com- parable à celle de la méthode de Runge-Kutta [23]. Néan- moins, améliorer la méthode d'intégration en utilisant des retards implique une modication de la structure complète du réseau de neurones. De plus, même si le modèle boîte noire obtenu réalise une excellente approximation, il est dif- cile de séparer la partie statique de la partie dynamique du modèle, qui sont intimement liées. z−1 neurones R´eseau de uk yk yk+1 Fig. 2. Réseau neuronal discret La seconde méthode consiste à utiliser des neurones continus ; usuellement chaque neurone contient une inté- gration [7], [17], [8]. Des processus complexes peuvent être simulés de cette manière mais, il reste toujours dicile d'ex- traire la partie statique du processus puisque l'intégration est mêlée à chaque neurone. Nous avons appelé notre approche réseaux neuronaux à temps continu car le réseau est combiné avec une méthode d'intégration continue. Le réseau en lui même est un réseau non bouclé (donc statique) classique. La dynamique est ob- tenue par la présence d'un intégrateur et d'une boucle. De cette façon, la méthode d'intégration est clairement séparée de la partie statique du modèle : si notre système neuro- nal est capable de fournir une approximation du processus, cela signie que nous pouvons nécessairement accéder à sa partie statique, si la technique d'intégration est susam- ment précise [3]. Notre méthode est illustrée sur la gure 3. L'idée est simple mais néanmoins puissante puisque nous pouvons en particulier choisir une méthode d'intégration arbitraire sans jamais remettre en cause la structure du réseau de neurones lui-même. En particulier, l'intégrateur peut être un intégrateur fractionnaire. neurones R´eseau de u(t) y(t) s = dy dt y(t) Fig. 3. Réseau neuronal à temps continu y u 1 tanh tanh tanh n1 nj nNc b1 bi bNc w1,i w2,i w3,i v Fig. 4. Un réseau de neurones non bouclé avec une couche cachée IV. Identification d'un système Le contenu d'un réseau non bouclé à une couche cachée est représenté gure 4. Dans la suite, nous nous intéresse- rons uniquement aux systèmes à une entrée et une sortie. Les résultats peuvent très facilement être étendus aux sys- tèmes multi-entrées multi-sorties [2]. Le réseau contenant Nc neurones dans la couche cachée, nous utilisons l'algo- rithme de Levenberg-Marquardt [13] pour estimer les 4Nc paramètres du modèle. En appelant θ le vecteur paramètre et K le nombre d'échantillons utilisés pour l'optimisation, alors le critère : J = K k=1 (y∗ k − yk) 2 = k=K k=1 e2 k est minimisé en itérant θ : θi+1 = θi + ∆θ où : ∆θ = (Hθ + λI)−1 Jθ Le nombre J mesure l'erreur de sortie, Jθ est le gradient de J, Hθ est la matrice du pseudo-hessien de J et λ est un paramètre contrôlant l'algorithme : Jθ = −2 k=K k=1 ek · ∂yk ∂θ Hθ j,l = 2 K k=1 ∂yk ∂θj · ∂yk ∂θj Cela nous conduit au calcul des fonctions de sensibilité : ∂yk ∂θp = σp(k) pour chaque k et chaque p. À partir de maintenant, nous allons supposer que le mo- dèle complet est composé d'un réseau de neurone à une couche cachée et de l'approximation In (décrite dans la section II) d'un intégrateur fractionnaire. Dans le cas d'un algorithme à erreur de sortie (gure 5), le principal problème est le calcul des fonctions de sensi- bilité qui peut être eectué en utilisant un algorithme de rétropropagation dynamique [15], [6], [2]. Les techniques par erreur de sortie sont beaucoup moins sensibles au bruit de mesure que les techniques par erreur d'équation [2], [12] (plus particulièrement, elles n'introduisent pas un biais asymptotique sur les paramètres), mais sont en contrepar- tie très lentes à converger. Un point intéressant est que le calcul des fonctions de sensibilité ne nécessite pas de connaître les spécications numériques de l'intégrateur uti- lisé. Autrement dit, les calculs peuvent être menés en uti- lisant uniquement l'ordre de l'intégrateur (entier ou non). In neurones R´eseau de Syst`eme − + ys = dny dtn u y∗ Fig. 5. Algorithme par erreur de sortie Pour un processus non-entier (0 < n < 1), nous écrirons simplement : dn σp(t) dtn = ∂ ∂θp dn y dtn (θ, u(t), y(θ, t)) = ∂ ∂θp (s(θ, u(t), y(θ, t)) = ∂s ∂θp + ∂s ∂y · ∂y ∂θ = ∂s ∂θp + ∂s ∂y · σp(t) (7) Nous voyons que les fonctions de sensibilité peuvent être simulées en utilisant le même intégrateur que celui qui est à l'origine de la dynamique du réseau. Puisque nous avons séparé la méthode d'intégration du réseau, elle peut être utilisée telle qu'elle pour calculer les fonctions de sensibilité. Le signal ∂s ∂y est simple à calculer : ∂s ∂y = i=Nc i=1 w1,i · tanh (ni(t)) · bi où tanh (x) = 1 − tanh2 (x) désigne la fonction dérivée de tanh. Quant au signal ∂s ∂θp (sensibilité de la sortie du réseau par rapport aux paramètres), il est obtenu par un clas- sique calcul de rétropropagation du gradient [5], [22]. Nous rappelons ce calcul pour un réseau non bouclé à une couche cachée (gure 4), en nommant xi(k) les entrées du réseau : ∂s(k) ∂bi = tanh(ni(k)) ∂s(k) ∂wi,j = xi(k) · tanh (nj(k)) · bj (8) Puisque dans notre exemple x1(k) = y(k), x2(k) = u(k) et x3(k) = 1, nous avons : ∂s(k) ∂w1,j = y(k) · tanh (nj(k)) · bj ∂s(k) ∂w2,j = u(k) · tanh (nj(k)) · bj ∂s(k) ∂w3,j = tanh (nj(k)) · bj (9) V. Initialisation du réseau Un des principaux problèmes rencontrés dans les algo- rithmes d'optimisation non linéaires et particulièrement dans le cas des réseaux de neurones, est l'initialisation des paramètres du modèle. Nous avons rappelé que les techniques par erreur de sor- tie n'étaient pas sensibles au bruit et c'est la raison pour laquelle nous les utilisons. Mais ces méthodes sont d'autant plus lentes que l'intégrateur non-entier numérique est com- plexe à simuler : à chaque itération de l'algorithme de Le- venberg Marquardt, nous devons simuler 4Nc fonctions de sensibilité. Il est par conséquent primordial d'initialiser les paramètres du modèle le mieux possible et c'est le rôle tenu par l'optimisation par erreur d'équation, qui donne à par- tir de mesures bruitées des résultats susamment corrects pour être utilisés comme paramètres initiaux et économiser un temps précieux. L'initialisation des paramètres se fait donc en deux temps :  initialiser l'algorithme par erreur d'équation en utili- sant un heuristique grossier,  utiliser les résultats obtenus pour initialiser l'algo- rithme par erreur de sortie. La première initialisation consiste simplement à choisir pour le réseau des paramètres aléatoires, de telle sorte que chaque terme d'une des sommes calculées par le réseau ait une valeur absolue inférieure à 1. Par exemple, si le signal u(t) varie entre −5 et +5, nous prendrons pour les wi,2 des valeurs aléatoires comprises entre −0.2 et +0.2. Pour initialiser les paramètres bi nous utilisons des in- formations sur la sortie souhaitée du réseau (et non pas du système, c'est à dire s et non pas y∗ ). Dans le cas d'un in- tégrateur non entier, nous utilisons donc un dérivateur non entier, sensible au bruit, mais tolérable pour notre pro- blème d'initialisation. De la même façon, dans le cas de l'erreur de sortie, le critère quadratique représentera l'er- reur à la sortie du réseau, et non à la sortie de l'intégra- teur. Notons au passage que ces méthodes d'initialisation résolvent dans la plupart des cas pratiques les problèmes de stabilité du modèle. VI. Étude en simulation An d'illustrer la méthode proposée par un exemple traité en simulation, nous avons utilisé le système suivant (sans signication physique particulière) : dn y dtn = u − y2 avec n = 0.6, wb = 10−4 , wh = 104 et N = 20. Dans un premier temps, nous supposons que l'ordre non entier est parfaitement connu, soit n = 0.6 Nous avons de plus ajouté un bruit blanc à la sortie de façon à obtenir les valeurs  mesurées  de la gure 6, avec un rapport signal sur bruit égal à 7. L'excitation u(t) a été choisie de façon à faire ressortir la non-linéarité du système (valeurs de u diérentes), et à mettre en évidence l'instabilité du système pour u < 0. Le problème des conditions initiales ne se pose pas ici dans la mesure où les données ont été obtenues par simu- lation. Nous avons donc utilisé les même conditions ini- tiales (nulles) pour chacune des cellules de l'intégrateur non-entier. Dans le cas de mesures réelles, nous pourrions par exemple ne pas prendre en compte les premiers échan- tillons dans le critère quadratique. 0 2 4 6 8 10 12 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1 1.2 Entrée Sortie bruitée Sortie non bruitée Fig. 6. Entrées et sorties du système utilisées par la méthode d'iden- tication Nous avons d'abord appliqué l'algorithme par erreur d'équation. La diminution du critère J par l'algorithme de Levenberg Marquardt est visible gure 7. Après 200 ité- rations, le critère ne diminue plus, et fournit un résultat biaisé (gure 8). Nous utilisons ensuite l'algorithme par erreur de sortie initialisé par le réseau précédemment obtenu. Nous voyons sur la gure 9 que le critère continue de diminuer. Après simplement 10 itérations nous obtenons les résultats de la gure 10 qui sont bien meilleurs. 0 20 40 60 80 100 120 140 160 180 200 10 1 10 2 10 3 10 4 Nb d’itérations de l’algorithme de L.M. Critèrequadratique 100 150 200 10 1.1 10 1.2 10 1.3 Fig. 7. Diminution du critère durant l'optimisation par erreur d'équa- tion 0 2 4 6 8 10 12 −0.2 0 0.2 0.4 0.6 0.8 1 1.2 Sortie système non bruitée Sortie modèle Fig. 8. Résultat de l'optimisation par erreur d'équation 1 2 3 4 5 6 7 8 9 10 10 1.1 10 1.2 10 1.3 Nb. d’itérations de l’algorithme de L.M. Critèrequadratique Fig. 9. Diminution du critère durant l'optimisation par erreur de sortie 0 2 4 6 8 10 12 −0.2 0 0.2 0.4 0.6 0.8 1 1.2 Sortie système non bruitée Sortie du modèle après l’erreur d’équation Sortie du modèle après l’erreur de sortie Fig. 10. Résultat de l'optimisation par erreur de sortie comparé à la sortie souhaitée et aux résultats obtenus après l'optimisation par erreur d'équation Comme indiqué précédemment, ces résultats présument que l'ordre non entier du système est connu parfaitement avant la phase d'optimisation du réseau. S'il n'est pas connu, il faut alors l'identier en même temps que les pa- ramètres. Dans ce travail, nous avons choisi d'identier préalablement l'ordre à partir d'un modèle fractionnaire linéaire [11], [10], [9], [19]. Il est clair que la valeur ob- tenue n'est valable qu'au point de fonctionnement choisi et pour de faibles amplitudes de l'entrée. Une telle étape nous fournit un ordre égal à 0.54. Utiliser cette valeur pour l'optimisation du réseau, au lieu de la valeur réelle, alors inconnue, nous conduit aux résultats de la gure 11. 0 2 4 6 8 10 −0.2 0 0.2 0.4 0.6 0.8 1 Sortie du système non bruitée Sortie du modèle après l’erreur de sortie Fig. 11. Résultat de l'optimisation par erreur de sortie comparé à la sortie souhaitée en ayant commis une erreur sur l'ordre de l'intégrateur Les résultats sont tout à fait convenables pour l'utilisa- tion du modèle comme boîte noire. Néanmoins, nous avons indiqué que nous désirions accéder à la partie statique du processus. Mesurer l'adéquation de la partie statique du modèle avec la partie statique du processus revient par exemple à estimer les paramètres a, b, c, d de l'équation ay + by2 + cu + du2 en utilisant le réseau statique (sans intégrateur et non bouclé). Cette étape est très rapide et nous fournit les valeurs suivantes : Estimations a b c d Optimisation avec n = 0.6 0.02 -1.02 1.03 -0.047 Optimisation avec n = 0.54 0.078 -0.796 0.911 -0.093 Valeurs exactes 0 -1 1 0 Nous constatons qu'une erreur dans l'estimation de l'ordre de l'intégrateur ne se traduit pas par une détériora- tion du modèle boîte noire (comparer les gures 10 et 11, la norme de l'erreur) mais comme une détérioration de l'esti- mation de la partie statique du système, le réseau tendant à compenser l'erreur d'intégration. VII. Conclusion Dans cette communication, nous avons présenté une mé- thode d'identication de systèmes fractionnaires non li- néaires. Elle est basée sur l'utilisation d'un réseau de neu- rones à temps continu associé à un opérateur d'intégration fractionnaire. Une technique d'identication par erreur de sortie permet alors de retrouver l'équation physique régis- sant le système et d'estimer les paramètres de ce modèle. Une étude en simulation a montré que si l'ordre de l'inté- grateur est parfaitement connu, nous retrouvons le modèle du système et ses paramètres, même avec un niveau de bruit important. Lorsque cet ordre est estimé par une ap- proche linéaire autour d'un point de fonctionnement, l'esti- mation de la partie statique du système s'en trouve aectée sans détériorer pour autant la qualité d'approximation du modèle. Les travaux de recherche se poursuivent actuellement pour intégrer l'estimation de l'ordre fractionnaire à cette méthodologie. Les premières études en simulation devront ensuite être validées sur des données expérimentales. Références [1] J.-L. Battaglia. Méthodes d'identication de modèles à déri- vées d'ordre non entier et de réduction modale. Application à la résolution de problèmes thermiques inverses dans des systèmes industriels. PhD thesis, Université de Bordeaux I, 2002. [2] François Benoît-Marand, Laurent Signac, Smail Bachir, and Jean-Claude Trigeassou. Non linear identication of continuous time systems using neural networks. In International Worshop on Electronics and System Analysis, Bibao, Spain, 2004. [3] François Benoit-Marand, Laurent Signac, and Jean-Claude Tri- geassou. Neural identication of physical processes : Analysis of disruptive factors. In Engineering Applications of Neural Net- works, 2005. [4] O. Cois. Systèmes linéaires non entier et identication par mo- dèle non entier : application en thermique. PhD thesis, Univer- sité de Bordeaux I, 2002. [5] Y. Le Cun. Une procédure d'apprentissage pour réseau à seuil assymétrique. Cognitiva, pages 599604, 1985. [6] Martin T. Hagan and Mohammad B. Menhaj. Training feedfor- ward networks with the marquardt algorithm. IEEE Transac- tions on neural networks, 5(6), november 1994. [7] J.J. Hopeld. Neural networks and physical systems with emergent collective computational abilities. Proc. Natl. Acad. Sci. USA, 79 :25542558, April 1982. [8] E.B. Kosmatopoulos, M.M. Polycarpou, M.A. Chiostodoulou, and P.A. Ioannou. High-order neural network structures for iden- tication of dynamical systems. IEEE Transactions on Neural Networks, 6(2) :422431, 1995. [9] J. Lin. Modélisation et identication de systèmes d'ordre non entier. PhD thesis, Université de Poitiers, France, 2001. [10] J. Lin, T. Poinot, J.C. Trigeassou, H. Kabbaj, and J. Faucher. Modélisation et identication d'ordre non entier d'une machine asynchrone. In CIFA'2000, Conférence Internationale Franco- phone d'Automatique, pages pp. 5356, 2000. [11] J. Lin, T. Poinot, J.C. Trigeassou, and R. Ouvrard. Parameter estimation of fractional systems : application to the modeling of a lead-acid battery. In SYSID 2000, 12th IFAC Symposium on System Identication, 2000. [12] Lennart Ljung. System Identication - Theory For the User. PTR Prentice Hall, Upper Saddle River, N.J., 1999. [13] D. W. Marquardt. An algorithm for least-squares estimation of non-linear parameters. Soc. Indust. Appl. Math, 11(2), 1963. [14] K.S. Narendra and A.U. Levin. Identication of nonlinear dy- namical systems using neural networks. In Neural Systems for Control, pages 129160. San Diego, CA : Academic Press, 1997. [15] K.S. Narendra and K. Parthasarathy. Gradient methods for the optimization of dynamical systems containing neural net- works. IEEE Transactions on Neural Networks, 2 :252262, March 1991. [16] A. Oustaloup. La dérivation non entière : théorie, synthèse et applications. hermès ed., Paris, 1995. [17] Barak Pearlmutter. Gradient calculation for dynamic recurrent neural networks : a survey. IEEE Transactions on Neural Net- works, 5 :12121228, 1995. [18] T. Poinot and J.-C. Trigeassou. A method for modelling and simulation of fractional systems. In Signal Processing : Special Issue on Fractional Signal Processing and Applications, pages pp. 23192333, 2003. [19] T. Poinot and J.-C. Trigeassou. Identication of fractional sys- tems using an output-error technique. Journal of Nonlinear Dy- namics, pages pp. 133154, 2004. [20] T. Poinot and J.-C. Trigeassou. Modelling and simulation of fractional systems. In 1st IFAC Workshop on Fractional Die- rentiation and its Applications, pages pp. 656663, 2004. [21] N. Retière and M. Ivanes. Modeling of electric machines by implicit derivative half-order systems. IEEE Power Engineering Review, pages pp. 6264, 1998. [22] D. E. Rumelhart, G.E. Hinton, and R.J. Williams. Learning representations by back-propagating errors. Nature, 323 :533 536, 1986. [23] Y. J. Wang and C. T. Lin. Runge-kutta neural network for iden- tication of dynamical systems in high accuracy. IEEE Tran- sactions on Neural Networks, 9 :293307, March 1998.