Les réseaux de neurones. Classification

27/08/2017
Publication REE REE 2006-8
OAI : oai:www.see.asso.fr:1301:2006-8:19677
DOI :

Résumé

Les réseaux de neurones. Classification

Auteurs

Sur l’étude du processus d'écriture à la main. Approches classiques et non conventionnelles
Sur l’étude du processus d'écriture à la main. Approches classiques et non conventionnelles
Sur l’unicité de la réponse d’un réseau d’énergie électrique en régime de défauts
Optimisation multicritère par Pareto-optimalité de problèmes d’ordonnancement en tenant compte du coût de la production
Stabilités Comparées de Systèmes Non Linéaires et Linéarisés Basées sur une Description Redondante
Les réseaux de neurones. Application à la modélisation et à la commande des processus
Les réseaux de neurones. Classification
Les réseaux de neurones. Présentation
Stabilité et stabilisation de systèmes discrets à retard
Sur la commande par mode glissant d’un convertisseur multicellulaire série
Recherche automatique de l’architecture d’un réseau de neurones artificiels pour le credit scoring
Chiffrement Partiel des Images Basé sur la Synchronisation de Systèmes Hyperchaotiques en Temps Discret et la Transformée en Cosinus Discrète
Synthèse d’une Commande Stabilisante par Retour d’Etat de Systèmes Linéaires à Retard
Stratégies de Commande de Systèmes Manufacturiers à Contraintes de Temps Face aux Perturbations Temporelles
Etude de la Stabilité d’une Classe de Systèmes de Commande Floue de type Mamdani
Nouvelles conditions suffisantes de stabilisabilité de processus échantillonnés non linéaires
Modélisation multi-physiques d’un actionneur linéaire incrémental pour la motorisation d’une pousse-seringue
Performances comparées de méthodes de commandes par mode de glissement et par platitude d’un papillon motorisé
Etude des Incertitudes dans les Ateliers Manufacturiers à Contraintes de Temps
Modèles discrétisés du système d’écriture à la main par la transformation d’Euler et par RLS
Technique proposée pour le déchiffrage dans un système de transmission sécurisée
Stabilisation de systèmes à retard par un régulateur du premier ordre
Détermination d’attracteurs emboîtés pour les systèmes non linéaires
Modélisation par Réseaux de Petri d’une ligne de traitement de surfaces mono-robot/multi-produits
Domaine de stabilité indépendante du retard d'un système linéaire à commande retardée
Sur le credit scoring par les réseaux de neurones artificiels
Sur l'analyse et la synchronisation de systèmes chaotiques Chen
Comparaison entre les EP et les CF pour l’Optimisation des Systèmes Dynamiques Hybrides
Algorithmes génétiques sequentiels pour la résolution de problèmes d’ordonnancement en industries agroalimentaires
2011-01 04-eSTA-V26.pdf

Métriques

25
11
777.21 Ko
 application/pdf
bitcache://e8064ce4459ae3acf79e30cd7fd71c756325f05c

Licence

Creative Commons Aucune (Tous droits réservés)
<resource  xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
                xmlns="http://datacite.org/schema/kernel-4"
                xsi:schemaLocation="http://datacite.org/schema/kernel-4 http://schema.datacite.org/meta/kernel-4/metadata.xsd">
        <identifier identifierType="DOI">10.23723/1301:2006-8/19677</identifier><creators><creator><creatorName>Mohamed Benrejeb</creatorName></creator></creators><titles>
            <title>Les réseaux de neurones. Classification</title></titles>
        <publisher>SEE</publisher>
        <publicationYear>2017</publicationYear>
        <resourceType resourceTypeGeneral="Text">Text</resourceType><dates>
	    <date dateType="Created">Sun 27 Aug 2017</date>
	    <date dateType="Updated">Sun 27 Aug 2017</date>
            <date dateType="Submitted">Mon 15 Oct 2018</date>
	</dates>
        <alternateIdentifiers>
	    <alternateIdentifier alternateIdentifierType="bitstream">e8064ce4459ae3acf79e30cd7fd71c756325f05c</alternateIdentifier>
	</alternateIdentifiers>
        <formats>
	    <format>application/pdf</format>
	</formats>
	<version>33434</version>
        <descriptions>
            <description descriptionType="Abstract"></description>
        </descriptions>
    </resource>
.

Dossier DU TRAITEMENT NUMÉRIQUE À LA GESTION DES CONNAISSANCES DE NOUVELLES VOIES D'INVESTIGATION ? (21 " partie) Les réseaux de neurones artificiels Les réseaux de neurones. Classification Mohamed BENREJEB 1 2 Ecole Centrale de Li'lle 1, ENIT Tunisie (Ecole Nationale dingéni'eurs de Tunis)' Mots clés Classificationautomatique, Classificationsupervisée, Classification nonsupervisée, Carteauto-organisatrice de Kohonen, Cartestopologiques La classification, comme son nom l'indique, consiste à répartir un ensemble d'objets, décrits par leurs attributs regroupés dans un vecteur, en plusieurs classes tenant compte des caractéristiques fondamentales de ces objets. Nous présentons, dans cet article, deux exemples de réseaux permettant la classification : un exemple utilisant un réseau de neurones multicouches avec classification automatique supervisée, et un exemple correspondant aux cartes topologiques, ou auto organisatrices, de Kohonen. } 1. Classification automatique Considérons un ensemble de P objets 01, 02,..., Op ! caractérisés par n attributs regroupés dans un vecteur x = (XI, X2,---, X,) T. Notons xi - (Xi 1, Xi2, X,,,) T le vecteur des attributs carac- térisant l'objet Oi que nous appellons observation asso- ciée à l'objet Oi. Si nous représentons d'un point de vue géométrique, cha- que observation par un point dans Rn, l'ensemble des observations peut être représenté par un nuage de points dans cet espace que nous appellons espace des observa- tions. L'ensemble des observations peut être regroupé dans un tableau à p lignes et n colonnes, appelé tableau de don- nées. Si les objets appartiennent à un ensemble de K clas- ses, ou catégories Ck, k = 1,2,.... K, il est possible d'asso- cier à ce tableau de données un tableau d'appartenance dont les valeurs 1 ou 0 impliquent respectivement l'ap- partenance ou la non appartenance à la classe. Dans une approche floue, une appartenance partielle est représentée par un nombre compris entre 0 et 1. xi XI... XI, 01 XII Vi... X] n 0, x, 1 x,,... X,, ....,.. 01 x/,l xllî ............. 1.1. Classification automatique supervisée La classification est dite supervisée si le tableau de données, les classes et le tableau d'appartenance sont connus a priori. Le problème de la classification supervisée revient alors à définir pour chaque classe Ck son domaine de décision, ce qui conduit dans l'espace des données à déterminer les sur- faces de décision séparant au mieux les classes. ESSENTIEL Le problème de classifications'avère particulièrement important dans beaucoupde domaines.La classification permet de regrou- per dans un même ensemble des objets ayant des caractéristi- ques proches.Ellepermet également, ayant défini une classede situationsde luiassocieruneclassede décisionsà prendreen vue d'un objectif donné. SYNOPSIS The possibility of classification appears very important in many domains. Classification enables to gather in same sets various objects having similar characteristics and properties. It also enables,havingdefined classesof situationsto associateto them classesof decisionsdefined for a given purpose. REE N,9 Octobre2006 1 . Dossier / DU TRAITEMENT NUMÉRIQUE À LA GESTION DES CONNAISSANCES DE NOUVELLES VOIES D'INVESTIGATION ? (211, partie) Les réseaux de neurones artificiels Attribut Surface de décision OOOOC/A A 00 , A/\ 00/\/\/\01 1 0 O 000000\000000 i b Aitribtit 2 Les algorithmes de classification doivent créer des surfa- ces de séparation de façon à grouper au mieux les obser- vations selon les classes et être les plus simples possible pour permettre une affectation aisée des nouvelles obser- vations aux classes existantes. Ils procèdent en général en deux étapes : extraction des attributs et répartition en classes. Les réseaux de neurones sont sensés effectuer l'une de ces opérations ou les deux. La base de connaissances servant à l'élaboration du clas- sifieur est divisée en base d'apprentissage et en base de test. La première sert à l'estimation des paramètres libres du classifieur et la seconde à tester ses performances, c'est-à-dire à tester sa capacité à classer des observations ne figurant pas dans la base d'apprentissage. 1.2. Classification non supervisée Dans ce cas, l'objectif est d'extraire l'information du tableau de données, c'est-à-dire de déterminer, à partir de ce tableau, la structure des données sans imposer de classe a priori. Il convient donc de découvrir des groupements de classes au sein des données avec trois objectifs : . recherche du nombre K de classes ; . partition de l'ensemble des observations selon ces K classes ; 'définition pour chaque classe Ck d'un domaine de décision. La recherche de relations entre les attributs peut permet- tre par réduction de la dimension, sélection des attributs significatifs, projection..., de réduire le nombre de colon- nes du tableau des observations. 2. Architecture des réseaux de neurones multicouches pour la classification La forme la plus courante est celle de la figure suivante : '-11 --/1/ i XI .-, ï 1 y_.,- 1 b , -L " v' ; C f. ; 48 1 REE N,9 Octobre2006 les fonctions d'activation de la couche cachée pouvant être de type sigmoïde, signe, fonction radiale de base ou tout ou rien. Les fonctions d'activation de la couche de sortie sont, en général, linéaires, suivies d'un dispositif du type WTA (le « Winner Take All ») ou correspondent à des fonctions tout ou rien. ,[Jf]j " % fil 1, --/ i b \1 ---) l IC Dans le cas de fonctions d'activation de type tout ou rien, on retrouve le type de réseau permettant de réaliser le ou exclusif : .V, 0 x-, 0 Le problème peut aussi nécessiter, dans certains cas, un réseau plus complexe de la forme suivante : 2 Y, 1 1 21- -1 1 -1 1 1 Y- >1-1 1 -15 1 1.5 1 - ", 1--l %'1 1 " 1, 1-1 1 1 - - "' -, --,,,f 1 1 La première couche de neurones permet de définir des séparateurs linéaires afin de distinguer les classes de vec- teurs. La deuxième couche réalise la fonction logique ET permettant de définir des zones et la troisième couche sert à regrouper les zones de même nature. 3. Cartes topologiques, ou auto-organisatri- ces de Kohonen Cette architecture de réseau de neurones compétitifs a été proposée par Kohonen en 1982. Elle est basée sur la définition d'un voisinage spatial pour chaque neurone de sortie. Les neurones de la couche sont disposés régulière- ment selon une topologie bien définie de dimension D. Pour D = 1, les neurones sont disposés sur un segment de droite et ont au maximum deux voisins immédiats et pour D 2 les neurones sont disposés selon un plan et ont au maximum quatre voisins immédiats. Les réseaux de neurones. Classification sorties sorties neurones 2 2 2 t 'i v i'Jw 4- connexions nelir ( IA47 neurones Disposilion selon iiii segiiient d (- di-oite, D= 1. Les neurones utilisés ont une fonction d'activation 1 positive croissante,f cr) = -' t+e Pour D 2, chaque neurone, de coordonnées (i,, j) = r, de ') (T la couche de sortie, est reliée n aux composantes du vec- teur d'entrée avec une pondération définie par les vec- teurs poids ,/. Pour un vecteur d'entrée x, notons les coordonnées du neurone telles que : Ili ", = in iin -XII;- c'est-à-dire telles que le vecteur Wysoit le plus proche de x et donne l'excitation maximale pour le vecteur corres- pondant. Les neurones voisins de ce centre d'excitation doivent participer à une adaptation des poids correspon- dant à une évolution des vecteurs Wu en direction du vec- teur d'entrée x et ce de façon d'autant plus fortement que le neurone est proche du neurone de coordonnées v. Notons v'les coordonnées d'un neurone et a (v, v') un coefficient caractérisant la proximité du neurone v'au neurone v, décroissant si v's'éloigne de v en s'annulant au-delà d'un certain voisinage. Notons également îî (t) un coefficient fonction positive décroissante du temps et tendant vers zéro. L'algorithme d'apprentissage non supervisé a pour but de réaliser une application permettant de reconnaître des données voisines caractérisées par l'activation d'un neu- rone précis. Si (f) représente l'entrée présentée à l'instant t, il vient pour la définition des vecteurs poids Wy' : Disposition selon un segment de droite, D-2. On peut par exemple, si on présente pour l'apprentissage lm vecteurs x, prendre : t 17 (/) = 1 - - 17) tili Un autre choix possible serait : 1 Ili 17 (t) = 17) - III' ;, 17, < 17,) Concernant le coefficient de voisinage, on peut prendre par exemple : al (v, v') = exp 2 ul-' I cr,=,j--, (70-.