Asservissement Visuel par une Approche de Commande Prédictive Non Linéaire

23/09/2017
Publication e-STA e-STA 2007-2
OAI : oai:www.see.asso.fr:545:2007-2:19905
DOI :

Résumé

Asservissement Visuel par une Approche de Commande Prédictive Non Linéaire

Métriques

32
12
334.57 Ko
 application/pdf
bitcache://371abaf198c8781b5bb4cb099af3afaff5547805

Licence

Creative Commons Aucune (Tous droits réservés)
<resource  xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
                xmlns="http://datacite.org/schema/kernel-4"
                xsi:schemaLocation="http://datacite.org/schema/kernel-4 http://schema.datacite.org/meta/kernel-4/metadata.xsd">
        <identifier identifierType="DOI">10.23723/545:2007-2/19905</identifier><creators><creator><creatorName>Guillaume Allibert</creatorName></creator><creator><creatorName>Estelle Courtial</creatorName></creator><creator><creatorName>Youssoufi Touré</creatorName></creator></creators><titles>
            <title>Asservissement Visuel par une Approche de Commande Prédictive Non Linéaire</title></titles>
        <publisher>SEE</publisher>
        <publicationYear>2017</publicationYear>
        <resourceType resourceTypeGeneral="Text">Text</resourceType><dates>
	    <date dateType="Created">Sat 23 Sep 2017</date>
	    <date dateType="Updated">Sat 23 Sep 2017</date>
            <date dateType="Submitted">Tue 13 Nov 2018</date>
	</dates>
        <alternateIdentifiers>
	    <alternateIdentifier alternateIdentifierType="bitstream">371abaf198c8781b5bb4cb099af3afaff5547805</alternateIdentifier>
	</alternateIdentifiers>
        <formats>
	    <format>application/pdf</format>
	</formats>
	<version>33819</version>
        <descriptions>
            <description descriptionType="Abstract"></description>
        </descriptions>
    </resource>
.

Asservissement Visuel par une Approche de Commande Prédictive Non Linéaire Guillaume Allibert, Estelle Courtial, Youssou Touré Laboratoire de Vision et Robotique - LVR Université d'Orléans - Polytech'Orléans, 8 rue Léonard de Vinci, 45072 Orléans Cedex 2 Guillaume.Allibert@univ-orleans.fr, Estelle.Courtial@univ-orleans.fr, Youssoufi.Toure@bourges.univ-orleans.fr RésuméDans cet article, une stratégie de commande alter- native est proposée pour eectuer des taches d'asservisse- ment visuel 2D. La technique utilisée se base sur une com- mande prédictive non linéaire associée à une structure de commande à modèle interne. Elle présente l'avantage de te- nir compte explicitement des contraintes, mécaniques et/ou visuelles. Un modèle global du procédé (robot+caméra) as- sure la prédiction de l'image et permet de s'aranchir de la détermination explicite de la matrice d'interaction. Des simulations et expérimentations sur un robot mobile équipé d'une caméra omnidirectionnelle montrent l'intérêt et l'e- cacité de cette méthode. Mots-clésAsservissement visuel, commande prédictive non linéaire, modèle interne, optimisation sous contraintes. I. Introduction L'utilisation des techniques d'asservissement visuel fait, depuis plusieurs années, l'objet de nombreux travaux de recherche. Les domaines d'applications sont très variés : - le domaine aérien : les applications les plus courantes sont la surveillance civile avec le suivi de structure de linéique (routes, lignes électriques), l'assistance au pilotage (hélico- ptère et dirigeable) et les applications militaires (drones) ; - le domaine médical : la première application signicative réalisée porte sur l'aide au geste chirurgical par asservisse- ment visuel en chirurgie laparoscopique robotisée [7]. Initialement développées avec des caméras perspectives, les techniques d'asservissement visuel sont maintenant utili- sées avec des caméras omnidirectionnelles orant un champ visuel hémisphérique. Dans ce contexte, l'approche la plus souvent employée est l'approche 2D qui ne nécessite pas de reconstruction de l'espace de travail à partir de l'image. Cependant, l'asservissement visuel 2D nécessite le calcul de la matrice d'interaction. Pièce maîtresse de l'asservis- sement visuel, cette matrice peut être dicile à obtenir et son inversion pose quelques fois des problèmes de singu- larités ou de divergence [4]. An de pallier cette diculté, une méthode numérique du calcul de l'inverse de la matrice d'interaction par apprentissage, a récemment été proposée [9]. Cette méthode dépend de la connaissance a priori de l'optimum global, hypothèse pouvant être restrictive, et né- cessite un grand nombre de points pour l'apprentissage. Ce travail se situe dans ce contexte et vise à apporter une solution alternative en proposant une approche globale du problème basée sur une stratégie de commande prédictive. L'objectif de l'asservissement visuel est alors formulé en terme d'optimisation non linéaire sous contraintes dans le plan image. Cet article est organisé de la façon suivante. On rappelle dans la section 2, les diérentes étapes et les dicultés de mise en ÷uvre d'un asservissement visuel 2D omnidi- rectionnel. Après une brève présentation de la commande prédictive, on présente dans la section 3, son extension à l'asservissement visuel, appelée commande prédictive vi- suelle (CPV). La structure bien connue de commande à modèle interne (CMI) est utilisée. Enn, dans la section 4, des résultats de simulation et d'expérimentation sur un robot mobile illustrent les performances de cette approche. II. Asservissement visuel 2D omnidirectionnel Les techniques d'asservissement visuel (AV) consistent à utiliser des informations extraites d'une ou plusieurs images dans le but de contrôler les déplacements d'un système ro- botique. Les techniques d'asservissement visuel sont clas- siées suivant l'espace dans lequel s'eectue le contrôle du robot. Il existe trois approches : l'asservissement visuel 2D, l'asservissement visuel 3D et les asservissements visuels hy- brides. Le lecteur intéressé trouvera dans [3] et [8] des dé- tails et des références sur ces diérentes approches. Dans cet article, on considère un asservissement visuel 2D ("image based control") permettant la réalisation de tâches par comparaison d'informations visuelles extraites de l'image courante, avec une image de référence. Les principales étapes de la mise en ÷uvre sont : la mo- délisation des primitives, la détermination de la matrice d'interaction et l'élaboration de la loi de commande. A. Vision omnidirectionnelle De nombreuses applications en vision requièrent un large champ visuel. Les capteurs catadioptriques, association d'un miroir de forme particulière (miroir parabolique, hy- perbolique, sphérique, etc.) et d'une caméra perspective, permettent l'acquisition de scènes panoramiques complètes (360 degrés) à la cadence de la vidéo. Ces systèmes ont un champ de vision hémisphérique et produisent des images omnidirectionnelles. La modélisation des caméras catadioptriques a fait l'objet de divers travaux. Dans [6], les auteurs montrent que dans le cas des caméras à point de vue central unique, la pro- jection d'un point du monde dans le plan image (Fig. 1) e-STA copyright © 2007 by see Volume 4 (2007), N°2 pp 45-50 s'écrit :   up vp 1   =   αu 0 u0 0 αv v0 0 0 1   .   λX λY 1   (1) avec : λ = ξ + m Z + ξ √ X2 + Y 2 + Z2 (2) -(X,Y,Z) sont les coordonnées d'un point du monde, noté Pw, dans le repère miroir ; - (up,vp) sont les coordonnées en pixels du point Pw dans le plan image, noté Pi ; - u0,v0,αu,αv sont les paramètres intrinsèques de la ca- méra ; - ξ et m sont des paramètres intrinsèques liés au type de miroir utilisé. Fig. 1. Projection d'un point : miroir parabolique-caméra orthogra- phique B. Matrice d'interaction Pièce maîtresse d'un asservissement visuel 2D, la matrice d'interaction, exprime la relation entre les variations des primitives visuelles et le torseur cinématique de la caméra. ˙x(t) = ∂f ∂θ(t) . ˙θ(t) (3) - ˙x(t) représente les variations des primitives dans l'image ; - ˙θ(t) le torseur cinématique de la caméra ; - ∂f ∂θ(t) = Ji matrice d'interaction, aussi appelée jacobienne de l'image pour une primitive de type point. Remarque : c'est une relation locale, plus adaptée au calcul en ligne, obtenue par dérivation temporelle de l'équation x(t) = f(θ(t)). Diérents travaux ont permis de déterminer de façon al- gébrique cette matrice d'interaction pour diérentes primi- tives. Dans le cas de caméras perspectives, la matrice d'in- teraction a été déterminée algébriquement pour des primi- tives visuelles de type point, droite, cercle, cylindre. Dans le cas de caméras omnidirectionnelles, seules des primitives de type point et droite ont été exploitées [1],[10]. C. Loi de commande La matrice d'interaction étant déterminée, l'élaboration de la commande peut être envisagée. Quelle que soit la stratégie utilisée, l'objectif de la loi de commande est de contrôler les mouvements de la caméra de façon à ce que l'erreur, dénie entre les primitives de référence et les pri- mitives mesurées dans l'image tende vers zéro. Dans la plu- part des cas, c'est une commande stabilisante assurant une décroissance exponentielle d'un vecteur d'erreur (5) qui est utilisée ( ˙e = −λe avec λ > 0). On obtient nalement : ˙θ(t) = −λ.J−1 i (t).e(t) (4) avec e(t) = xréférence(t) − xmesure(t) (5) où xréférence représente les primitives de l'image de réfé- rence, xmesure représente les primitives extraites de l'image catadioptrique courante. D. Dicultés de mise en ÷uvre Remarque : On ne traitera pas ici les problèmes liés au traitement de l'image et à l'extraction des primitives. La première étape, mais aussi première diculté de mise en ÷uvre d'un asservissement visuel, est l'obtention et l'in- version de la matrice d'interaction. En eet, l'évaluation de la matrice d'interaction n'est pas toujours triviale et dé- pend du type de primitives considérées. Dans l'expression de cette matrice intervient la quantité ρ = √ X2 + Y 2 + Z2 appelée profondeur ou distance relative entre la caméra et la cible. Cette information n'est pas directement mesurable car aucune reconstruction tridimensionnelle n'est eectuée en AV 2D. Dans la plupart des cas, c'est l'approximation de cette profondeur à la position nale (supposée connue) qui est utilisée. Cependant, ce choix entraîne des trajectoires non optimales des primitives visuelles dans le plan image, pouvant amener les primitives à sortir du champ visuel de la caméra et donc de rendre le calcul de la commande im- possible [4]. Enn, des singularités de la matrice d'interaction peuvent intervenir [4]. Ces singularités interviennent principalement à deux niveaux :  singularités de représentation : c'est le cas lorsque l'on a une dégénérescence du motif visuel (lorsqu'une droite se projette sur l'image en un point par exemple).  singularités isolées : ces problèmes surviennent lors de l'inversion de la matrice d'interaction. En eet, sui- vant le nombre de primitives choisies, des problèmes de dimension peuvent intervenir. Dans ce cas, le jaco- bien de l'image n'est localement plus inversible et le système diverge. Une nouvelle approche a récemment été proposée dans [9] an de s'aranchir du problème lié à la matrice d'inter- action. Les auteurs proposent un calcul numérique de l'in- verse de la matrice d'interaction par apprentissage. L'avan- tage de cette méthode est que la matrice d'interaction, elle même, n'intervient pas. Il n'est donc pas nécessaire de la déterminer. Diérentes simulations ont été eectuées et montrent que les résultats obtenus sont meilleurs en terme de convergence et en terme de déplacement que les résultats obtenus avec une matrice d'interaction "classique". Les tra- jectoires eectuées par la caméra sont plus satisfaisantes et les déplacements inutiles engendrés par l'utilisation de la e-STA copyright © 2007 by see Volume 4 (2007), N°2 pp 45-50 matrice d'interaction "classique" sont supprimés. Cepen- dant, l'apprentissage de cette matrice d'interaction numé- rique demande un nombre de points relativement impor- tant et dépend de la connaissance a priori de l'optimum global. On propose ici une solution alternative en considérant une approche globale du problème et en utilisant une straté- gie de commande prédictive. L'objectif de l'asservissement visuel est formulé en terme de minimisation, dans le plan image d'une fonction coût, par rapport aux variables de commande du système à piloter. III. Commande prédictive visuelle La commande prédictive (Model Predictive Control ; MPC) fait partie des techniques de commandes avancées fréquemment utilisées dans le domaine de l'Automatique. Depuis les années 1970, elle a fait l'objet de nombreux tra- vaux de recherche et elle est actuellement l'une des com- mandes les plus utilisées en industrie dans des domaines très divers (ranerie, chimie, alimentaire, etc.)[12]. A. Commande prédictive Le problème de commande, régulation ou poursuite de trajectoire, est formulé en un problème d'optimisation non linéaire sous contraintes. En eet, l'atout majeur de cette stratégie de commande est la possibilité de prendre en compte explicitement les contraintes dans la synthèse de la loi de commande. La commande prédictive se base sur la connaissance a priori du procédé par l'intermédiaire d'un modèle. La prédiction, sur un horizon ni, de l'évolution des sorties est assurée par ce modèle. Durant ces dernières années, plusieurs approches de com- mande prédictive ont été développées mais toutes ont en commun les points suivants :  un modèle ;  une trajectoire de référence ;  un critère d'optimisation ;  une méthode de résolution. A.1 Le modèle Il constitue la connaissance a priori du procédé à com- mander. Écrit sous forme d'équations mathématiques, il permet de prédire le comportement dynamique du procédé, noté yp, en fonction des commandes passées et futures. A.2 La trajectoire de référence Notée yréf, elle dénit les performances souhaitées du système commandé. Elle peut être constante ou variable. A.3 Le critère d'optimisation Également appelé fonction coût, il est fonction de l'er- reur entre la trajectoire de référence et la sortie prédite sur un horizon de prédiction ni noté Np. La sortie pré- dite dépend de la séquence de commandes futures, notée U et composée de Nc commandes. La formulation mathé- matique de la fonction coût est (cas discret multi-variable) : J(u) = k+Np j=k+1 (yréf(j) − yp(j))T Q(yréf(j) − yp(j)) (6) avec Q, matrice symétrique dénie positive. A cette fonction coût s'ajoutent les contraintes inévitables dans le contexte expérimental ou industriel. Ces contraintes peuvent être de deux types : - les contraintes de fonctionnement : limitation des action- neurs en amplitude et/ou vitesse ; umin ≤ uk ≤ umax et ∆umin ≤ uk − uk−1 ≤ ∆umax (7) - les contraintes physiques : limitation de certaines va- riables. A.4 La méthode de résolution Elle permet de fournir une solution au problème de mi- nimisation non linéaire sous contraintes. Le principe de la commande prédictive (illustré Fig. 2) est de déterminer, à chaque période d'échantillonnage, la séquence de com- mandes optimales {uk, uk+1, ..., uk+Np−1} qui minimise la fonction coût sur l'horizon de prédiction Np. Fig. 2. Principe pour Np=5 et Nc=3 Seule la première composante de cette séquence de com- mandes est réellement appliquée au système. A l'itération suivante, l'horizon de prédiction glisse d'un pas et la pro- cédure d'optimisation est répétée. D'où son nom de com- mande optimale à horizon glissant. La commande prédictive a été récemment appliquée dans une structure d'AV 2D [7]. Dans cette application (chi- rurgie laparoscopique robotisée), un contrôleur prédictif linéaire est utilisé an de minimiser une distance dans l'image, tout en rejetant les perturbations liées aux mou- vements répétitifs d'organes. Dans cet article, la commande prédictive est non linéaire et utilisée pour prédire l'évolution de l'image au cours du temps. B. Commande prédictive visuelle (CPV) Les systèmes utilisés en AV sont des systèmes robotiques soumis à des contraintes mécaniques (limitations des ac- tionneurs, butée mécaniques,...). De plus, un des points faibles de l'AV 2D réside dans le fait que les primitives vi- suelles peuvent sortir de l'image pendant la convergence. La commande prédictive semble bien adaptée pour traiter ce problème contraint (contraintes mécaniques et contraintes de visibilité). Son principe, étendu à l'AV, consiste à dé- terminer une séquence de commandes qui minimise l'erreur dénie entre les primitives de référence (imageréf) et les pri- mitives extraites à partir de l'image courante (imagecour). La prédiction de l'image sur l'horizon de prédiction est as- surée par le modèle global (caméra + robot).On utilise alors la structure bien connue de commande à modèle interne (Fig. 3). e-STA copyright © 2007 by see Volume 4 (2007), N°2 pp 45-50 Fig. 3. Structure CMI D'après ce schéma de commande, on peut écrire : imaged(k) = imageréf(k) − e(k) imaged(k) = imageréf(k) − (imagecour(k) − imagemod(k)) imaged(k) − imagemod(k) = imageréf(k) − imagecour(k) Remarque : le signal e(k) représente les erreurs de modé- lisation et les perturbations. Lors d'applications réelles, ce signal est souvent ltré. Imposer à l'image courante de suivre l'image de référence revient à faire tendre vers zéro la quantité (imaged(k) − imagemod(k)). La CPV peut alors s'écrire sous forme d'un problème d'optimisation non linéaire sous contraintes comme suit : min U J = k+Np j=k+1 erreur(j) T Q erreur(j) (8) avec :  erreur(j)=imaged(j) − imagemod(j)  imagemod(j) : image prédite par le modèle non linéaire du système caméra plus robot ;  U = {uk, uk+1, ..., uk+Np−1} vecteur de commandes pouvant être soumis : aux contraintes dénies précédemment (éq. 7) ; à des contraintes de visibilité : upmin vpmin ≤ up vp ≤ upmax vpmax (9) Le problème d'optimisation (8) peut être résolu par des routines d'optimisation disponibles dans les bibliothèques logicielles (Matlab). Il peut aussi être transformé en un problème pénalisé (méthode des pénalités) et résolu en- suite par un algorithme d'optimisation non linéaire sans contraintes. Dans un souci d'applicabilité temps réel, l'al- gorithme d'optimisation utilisé doit pouvoir satisfaire, à tout instant, les contraintes et ceci avec un temps de cal- cul le plus petit possible. Une modication d'algorithme existant reconnu pour son ecacité et sa robustesse a été proposée dans [5] pour satisfaire ces exigences. IV. Applications An d'illustrer les possibilités de la CPV, nous l'avons appliquée à la navigation d'un robot mobile : stabilisa- tion en un point xe d'un robot dans l'espace pour que l'image fournie par la caméra embarquée corresponde avec une image de référence. L'utilisation des caméras omnidi- rectionnelles dans ce genre d'application permet au robot, quelle que soit son orientation, de percevoir la totalité de l'environnement et donc de ne pas perdre de vue les cibles lors d'éventuelles man÷uvres. De plus, les cibles peuvent être plus nombreuses et réparties de façon uniforme dans tout l'espace de travail, améliorant la précision et la robus- tesse du positionnement du robot. Remarque : On n'apporte pas, dans cet article, une contri- bution à la commande des robots mobiles, largement étudiée et dont une synthèse est disponible dans [11]. L'utilisation d'un robot mobile de type char présente un intérêt particu- lier car ses mouvements sont soumis aux contraintes non- holonômes. L'asservissement visuel s'eectue sur 4 primitives de type point réparties uniformément dans l'espace de travail. Le robot mobile de type char, constitué de deux roues mo- trices indéformables (Fig. 4), est équipé d'une caméra om- nidirectionnelle, xée de façon rigide sur la base du robot. Les hypothèses de déplacement sans glissement ainsi que l'existence d'un point de contact unique entre le sol et les roues permettent d'écrire le modèle cinématique discret sui- vant : x(k + 1) = x(k) + Te.Vr.cos(θ(k) + a); y(k + 1) = y(k) + Te.Vr. sin(θ(k) + a); θ(k + 1) = θ(k) + Te.Wr; (10) avec a=T e 2 Wr. Vr et Wr représentent respectivement la vi- tesse longitudinale et rotationnelle du robot, Te la période d'échantillonnage. La posture du robot (position et orien- Fig. 4. Robot mobile de type char tation) est donnée par le vecteur (x, y, θ)T . Le modèle complet, non linéaire, utilisé pour prédire l'image sur l'horizon Np pour une primitive de type point s'écrit alors : imagemod(k + 1) =   αu 0 u0 0 αv v0 0 0 1   .   λX(k + 1) λY (k + 1) 1   (11) avec : λ = ξ+m Z(k+1)+ξ √ X(k+1)2+Y (k+1)2+Z(k+1)2 ; X(k + 1) = Xo − (x(k) + Te.Vr.cos(θ(k) + T e 2 Wr)); Y (k + 1) = Yo − (y(k) + Te.Vr. sin(θ(k) + T e 2 Wr)); Z(k + 1) = Z(k) = Zo. (12) où le vecteur (Xo, Yo, Zo)T est constant et représente la distance initiale entre la cible et la caméra. La profondeur est ensuite estimée, à chaque itération, par le modèle ro- bot+caméra. Pour les simulations présentées ci-dessous, seule la posture initiale du robot est diérente et choisie de façon à ce que les déplacements entre les congurations initiales et nales nécessitent des man÷uvres. Dans tous les cas, on a : e-STA copyright © 2007 by see Volume 4 (2007), N°2 pp 45-50  les positions initiales (dénie par des '+') et désirées (dénie par des 'o') des primitives dans l'image ;  la trajectoire des primitives dans l'image ;  la conguration initiale (en vert) et nale du robot dans le plan XY (les déplacements en marche arrière sont symbolisés par la couleur noire et les déplace- ments en marche avant par la couleur bleue) ;  les commandes appliquées au robot mobile : la vitesse de translation Vr et la vitesse de rotation Wr ;  l'erreur en pixels pour chaque primitive entre la posi- tion courante et la position désirée des primitives dans l'image. L'horizon de prédiction Np est égal à 8. Cette valeur per- met de satisfaire un compromis entre précision et temps de calcul. Si Np est grand, le temps de calcul imparti à la prédiction des primitives sur l'horizon augmente. Si Np est petit, la convergence des primitives mesurées vers celles dé- sirées est moins précise. Le temps de calcul est actuellement de l'ordre de 50ms mais peut être diminué. L'horizon de commande Nc est un paramètre de ré- glage prépondérant. Compte tenu de la contrainte non- holonôme, le robot ne peut pas eectuer un déplacement latéral avec une seule commande : une man÷uvre (marche avant, marche arrière) est indispensable. L'horizon de com- mande permet donc de pallier cette diculté en proposant Nc commandes dierentes à l'instant k pour déplacer le robot à la position souhaitée. Ainsi, il permet de prévoir les man÷uvres indispensables à des déplacements trans- versaux non réalisables en un coup. Remarque : Le calcul de la séquence de commandes permet- tant au robot de passer d'une position à l'instant k à une position à l'instant k+Np qui correspond à la position de l'image de référence, peut être assimilé à une planication de trajectoire implicite. On constate que quelle que soit la posture initiale du ro- bot, celui-ci vient se positionner dans l'espace de travail de façon à ce que l'erreur dans l'image tende vers zéro (Fig. 6, 7, 8 et 9). Dans la conguration particulière, réputée di- cile, où le robot doit eectuer une rotation de 180 , la CPV converge sans diculté vers la position souhaitée aussi bien en simulation (Fig. 8) qu'en pratique (vidéos disponibles). La robustesse de l'approche a été testée en simulation pour des erreurs de modélisation sur le robot et sur la caméra de l'ordre de 15% (Fig. 9). La prise en compte explicite des contraintes non holonômes associée au réglage de l'horizon de commande et de prédic- tion permet alors d'eectuer des taches de navigation par asservissement visuel 2D, sans ajouter de degrés de liberté supplémentaires tel qu'embarquer la caméra sur un bras manipulateur. V. Conclusion et perspectives La problématique de l'asservissement visuel a été for- mulée dans le plan image en terme de problème d'opti- misation non linéaire sous contraintes. C'est une approche globale où le modèle non linéaire, connaissance a priori du procédé (caméra et robot) joue un rôle crucial, similaire à celui de la matrice d'interaction dans l'approche AV 2D classique. L'avantage de la CPV est de ne pas avoir à écrire explicitement la matrice d'interaction. La CPV, combinée à une structure CMI, se révèle robuste vis à vis d'erreurs de modélisation, erreurs quasi inévitables sur la caméra. De plus, la possibilité de prendre en compte explicitement les contraintes dans la synthèse de la loi de commande pré- sente un réel avantage pour des applications réelles. Enn, le choix des paramètres de réglage de la CPV (ho- rizon de prédiction et de commande) est primordial. Dans l'application considérée, l'horizon de commande permet de prévoir les manoeuvres indispensables pour le déplacement du robot mobile non-holonôme. Les résultats expérimentaux sur un robot mobile ont mon- tré que la CPV donnait des résultats très satisfaisants en terme de convergence, de déplacement de la caméra dans le plan et de sollicitation des actionneurs du robot. D'un point de vue théorique, le calcul des commandes est itératif, solution au problème d'optimisation non linéaire. Il s'en suit que l'étude de la stabilité est rendue plus com- plexe. VI. Remerciements Les auteurs remercient Mr Mouaddib (directeur du CREA) pour leur avoir permis de réaliser les expérimen- tations sur le robot Koala de la société K-Team. Références [1] Abdelkader H.H., Mezouar Y., Andre N., Martinet P., Image- based Control of Mobile Robot with Central Catadioptric Came- ras, IEEE-ICRA, pp 3533-3538, Barcelona, Spain, avril 2005. [2] Carvalho J.R.H, Rives P., S-Barbara A., Bueno S.S., Visual Control of a Class of Mobile Robots, IEEE Conf. on Control Ap- plications, Anchorage USA, Septembre 2000. [3] Chaumette F. Avancées récentes en asservissement visuel, Jour- nées nationales de la recherche en robotique, JNRR'03, Pages 103- 108, Clermont-Ferrand, Octobre, 2003. [4] Chaumette, F., Potential problems of stability and convergence in image-based and position-based visual servoing, The Conuence of Vision and Control, Lecture Note in Control and Informations Systems, Vol 237, pp. 66-78, Springer-Verlag, 1998. [5] Courtial E., Dufour P., Touré Y., Commande prédictive non li- néaire sous contraintes : une condition de faisabilité, CIFA-IEEE 2004, Douz, Tunisie, Novembre 2004. [6] Geyer G., Daniilidis K., Catadioptric projective geometry, Int. Journal on computer Vision, 45(3) : pp. 223-243, Decembre 2001. [7] Ginhoux R., Ganglo J., de Mathelin M., Solver L., Arenas San- chez M., Marescaux J., Active Filtering of Physiological Motion in Robotized Surgery Using Predictive Control, IEEE Transactions on Robotics, vol.21, no 1, pages 67-79, février 2005. [8] Hutchinson S., Hager G.D., Corke P.I. A tutorial on visual servo control IEEE Transactions on Robotics ans Automation, 12(5) :651-670, Octobre 1996. [9] Lapresté J.T., Jurie F., Dhome M., Chaumette F. Nouvelle ap- proche pour le calcul du jacobien inverse en asservissement visuel 2D, RFIA 2004, Toulouse, France, Janvier 2004. [10] Martin F., Barreto J. P., Horaud R. Visual servoing/ tracking using central catadioptric images. ISER, pp. 863-869, Bombay, India, Juillet 2002. [11] Morin P., Samson C. Commande de véhicules sur roues non- holonomes. Une sythèse. JNRR'01, Giens, France, Octobre 2001. [12] Qin S.J., Badgwell T. A., A survey of industrial model predictive control technology, Control Eng. Prac., 11(7) :733 764, 2003. Fig. 5. Koala e-STA copyright © 2007 by see Volume 4 (2007), N°2 pp 45-50 −2 −1.5 −1 −0.5 0 0.5 −2.5 −2 −1.5 −1 −0.5 0 0.5 Trajectoire du robot (XY) 150 200 250 300 350 400 250 300 350 400 450 500 550 Trajectoire des primitives dans l image (uv) 0 2 4 6 8 10 12 14 16 −300 −200 −100 0 100 200 300 Evolution de l erreur Secondes Erreurenpixel 2 4 6 8 10 12 14 −1 −0.5 0 0.5 1 Commande Vr et Wr Fig. 6. Simulation 1 (CPV, Nc=5, Np=8) −2.5 −2 −1.5 −1 −0.5 0 0.5 −0.5 0 0.5 1 1.5 2 Trajectoire du robot (XY) 100 150 200 250 300 350 400 250 300 350 400 450 500 550 600 Trajectoire des primitives dans l image (uv) 1 2 3 4 5 6 7 8 9 10 11 −200 −100 0 100 200 Evolution de l erreur Secondes Erreurenpixel 1 2 3 4 5 6 7 8 9 10 −1 −0.5 0 0.5 1 Commande Vr et Wr Fig. 7. Simulation 2 (CPV, Nc=5, Np=8) −1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1 −1.5 −1 −0.5 0 0.5 Trajectoire du robot (XY) 160 180 200 220 240 260 280 300 320 340 360 250 300 350 400 450 500 550 Trajectoire des primitives dans l image (uv) 0 2 4 6 8 10 12 14 16 −200 −100 0 100 200 Evolution de l erreur Secondes Erreurenpixel 2 4 6 8 10 12 14 −1 −0.5 0 0.5 1 Commande Vr et Wr Fig. 8. Simulation 3 (CPV, Nc=5, Np=8) −2 −1.5 −1 −0.5 0 0.5 1 −3 −2 −1 0 1 Trajectoire du modèle (XY) −2 −1.5 −1 −0.5 0 0.5 −3 −2 −1 0 1 Trajectoire du procédé (XY) 200 220 240 260 280 300 320 340 360 380 400 200 300 400 500 Trajectoire des primitives dans l image (uv) 0 2 4 6 8 10 12 14 −200 −100 0 100 200 Evolution de l erreur Secondes Erreurenpixel 2 4 6 8 10 12 −1 −0.5 0 0.5 1 Commande Vr et Wr Fig. 9. Simulation 4 (CPV, Nc=5, Np=8) e-STA copyright © 2007 by see Volume 4 (2007), N°2 pp 45-50