Du traitement numérique à la gestion des connaissances : de nouvelles vois d'investigation (première partie)

29/08/2017
Auteurs : Alain Appriou
Publication REE REE 2006-7
OAI : oai:www.see.asso.fr:1301:2006-7:19688
DOI :

Résumé

Du traitement numérique à la gestion des connaissances : de nouvelles vois d'investigation (première partie)

Métriques

15
4
454.19 Ko
 application/pdf
bitcache://02268bdbd70c1b11571bb5ce261c677a5e2fee02

Licence

Creative Commons Aucune (Tous droits réservés)
<resource  xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
                xmlns="http://datacite.org/schema/kernel-4"
                xsi:schemaLocation="http://datacite.org/schema/kernel-4 http://schema.datacite.org/meta/kernel-4/metadata.xsd">
        <identifier identifierType="DOI">10.23723/1301:2006-7/19688</identifier><creators><creator><creatorName>Alain Appriou</creatorName></creator></creators><titles>
            <title>Du traitement numérique à la gestion des connaissances : de nouvelles vois d'investigation (première partie)</title></titles>
        <publisher>SEE</publisher>
        <publicationYear>2017</publicationYear>
        <resourceType resourceTypeGeneral="Text">Text</resourceType><dates>
	    <date dateType="Created">Tue 29 Aug 2017</date>
	    <date dateType="Updated">Tue 29 Aug 2017</date>
            <date dateType="Submitted">Fri 10 Aug 2018</date>
	</dates>
        <alternateIdentifiers>
	    <alternateIdentifier alternateIdentifierType="bitstream">02268bdbd70c1b11571bb5ce261c677a5e2fee02</alternateIdentifier>
	</alternateIdentifiers>
        <formats>
	    <format>application/pdf</format>
	</formats>
	<version>33459</version>
        <descriptions>
            <description descriptionType="Abstract"></description>
        </descriptions>
    </resource>
.

PRÉSENTATION 1> KI alba Alain APPRIOU Directeur de Recherche Direction Scientifique Générale de l'ONERA Vice-Présidentchargé des Cltibs Techniqties dela SEE Et Meiiibi-e Senioi- (2002) -ff DU TRAITEMENT NUMERIGUE A LA GESTION m DES CONNAISSANCES. DE NOUVELLES VOIES D.INVESTIGATION.,)U'' tfWw E !) tj' t !! %JM s' (1, èrÉ,, -ie , P.,a, L'indispensable complémentarité, et donc la disparité, des données véhiculées dans les systèmes de systèmes exigent d'exploiter au mieux les spécificités de chacune d'elles, qu'il s'agisse d'observations, de connaissancesa priori, ou d'informations exogènes. Il est en particulier fondamental de gérer correctement les notions d'incerti- tude, d'imprécision, d'incomplétude, ou de fiabilité qui leur sont nécessairementattachées,les différentes infor- mations traitées étant chacune conceptuellement impar- faites. Ceci exige une modélisation, et corrélativement l'emploi d'opérateurs, dansun cadre théorique approprié. Si les probabilités ont vite montré leurs limites pour ce type de problèmes, d'autres théories leur semblent en revanche bien adaptées. Ces théories, toutes élaborées dans les années 60/70,étaient alors assez intuitives, et donnaient lieu à des mises en oeuvreparfois critiquables. Depuis, bon nombre de travaux ont permis de les asseoir sur des basesthéoriques solides, d'affiner leurs concepts d'emploi, et de développer les outils qui permettent d'en assurerune mise en oeuvrerigoureuse. Les trois premiers articles de ce dossier dressentl'état de l'art destrois prin- cipales de ces théories, et analysent les besoins qu'elles permettent respectivement de satisfaire. Dans le premier de ces articles, Didier Dubois et Henri Prade introduisent la notion de sous-ensembles flous initialement proposée par Lotfi Zadeh. Cette théo- rie, dédié au traitement de l'imprécision, c'est-à-dire à la manipulation de grandeurs mal connues, a produit un ensemble assez large d'outils de traitement pour le rai- sonnement, la commande, la décision multicritère, la classification, l'optimisation,... Après avoir posé les fon- dementsde cette théorie, les auteurs positionnent les dif- férents concepts utilisés aujourd'hui dans ce cadre, pour assezvite en discuter les utilisations les plus variées qui peuvent en être faites pour répondre aux besoinsrecensés à cejour. Dans le secondarticle, les mêmesauteursprésententla théorie depossibilités. Cettedernière,formellement propo- séepar le même Lotfi Zadeh dans le prolongement de la théorie dessous-ensemblesflous, a pour objectif de traiter l'incertain, et non plus l'imprécis, c'est-à-dire l'éventualité d'occurrence d'un événement.Les auteursintroduisent les différentes notions manipulables à l'aide de cette théorie, et positionnent en particulier sesvertus par rapport à cer- taines lacunes des probabilités, pour finalement discuter les différents usagesqui peuvent en êtrefaits. Dans le troisième article, Michèle Rombaut propose un aperçu de la théorie des fonctions de croyance. Cette théorie, qui peut être vue comme une généralisation, à la fois desprobabilités et des possibilités, est plus puissante mais aussi plus complexe que ces deux dernières. L'auteur s'appuie sur un certain nombre d'exemples didactiques pour structurer les principaux concepts de cette théorie, puis discute deux applications concrètestrès différentes pour en illustrer la portée pratique. Au-delà des théories de l'incertain, d'autres avancées conceptuelles ont plus récemment émergé, notamment pour traiter les problèmes de plus en plus complexes d'optimisation et d'aide à la décision. Parmi celles-ci les algorithmes classéssous le terme générique de méthodes évolutionnaires constituent une approche originale du problème d'optimisation stochasti- REE No 8 Septembre2006 que. Dans le quatrième article Evelyne Lutton décrit les concepts de base de ces méthodes et les processus algo- rithmiques mis en oeuvre, pour pouvoir ensuite en discu- ter le potentiel pratique. Dans un dernier article Stéphane Canu traite d'une nouvelle approche particulièrement prometteuse qu'il appelle les Séparateurs à Vaste Marge, mais qui est peut- être plus connue par son acronyme, SVM, ou par sa dési- gnation anglo-saxonne, Support Vector Machine. Cet arti- cle élabore de façon progressive, illustrée et didactique, la méthode d'optimisation qui permet, à partir de données discriminantes observées, la classification d'entités selon quatre principes de base bien précis : la fidélité aux don- nées, la régularité de la solution, l'incidence uniquement locale de la décision, et le caractère déterminant des points proches de la frontière. L'auteur met en particulier en évidence la rigueur des développements et la portée universelle de la méthode. Il en précise enfin la mise en ceuvre. Sommaire Dossier Présentation Dossier Par A. Appriou................, La logique floue Par D. Dubois, H. Prade Théorie des possibilités Par D. Dzboi.s, H. Prade... p. 33 p. 35 p. 42 La théorie des fonctions de croyance : une alternative aux probabilités pour la perception et la fusion des données Par M Roiiibatit, E. Rarnasso,F Maussang................................................................. Lévolution artificielle : un outil d'optimisation stochastique Par E. Ltition...................................................................................................................... Apprentissage et noyaux : séparateur à vaste marge (SVM) Pal, S. Cailit...................................................... p. 51 p. 61 p. 69 REE NO 8 Septembre2006