Recherche automatique de l’architecture d’un réseau de neurones artificiels pour le credit scoring

09/12/2016
Publication e-STA e-STA 2016-2
OAI : oai:www.see.asso.fr:545:2016-2:17685
DOI : You do not have permission to access embedded form.

Résumé

Recherche automatique de l’architecture  d’un réseau de neurones artificiels  pour le credit scoring

Média

0:00
available

Métriques

70
14
766.24 Ko
 application/pdf
bitcache://5718b14712dc4c1f92bb07d61e7ea5cd83bd614a

Licence

Creative Commons Aucune (Tous droits réservés)
<resource  xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
                xmlns="http://datacite.org/schema/kernel-4"
                xsi:schemaLocation="http://datacite.org/schema/kernel-4 http://schema.datacite.org/meta/kernel-4/metadata.xsd">
        <identifier identifierType="DOI">10.23723/545:2016-2/17685</identifier><creators><creator><creatorName>Oussama Margheni</creatorName></creator><creator><creatorName>Mohamed Benrejeb</creatorName></creator></creators><titles>
            <title>Recherche automatique de l’architecture  d’un réseau de neurones artificiels  pour le credit scoring</title></titles>
        <publisher>SEE</publisher>
        <publicationYear>2016</publicationYear>
        <resourceType resourceTypeGeneral="Text">Text</resourceType><dates>
	    <date dateType="Created">Fri 9 Dec 2016</date>
	    <date dateType="Updated">Fri 9 Dec 2016</date>
            <date dateType="Submitted">Sun 12 Nov 2017</date>
	</dates>
        <alternateIdentifiers>
	    <alternateIdentifier alternateIdentifierType="bitstream">5718b14712dc4c1f92bb07d61e7ea5cd83bd614a</alternateIdentifier>
	</alternateIdentifiers>
        <formats>
	    <format>application/pdf</format>
	</formats>
	<version>30198</version>
        <descriptions>
            <description descriptionType="Abstract"></description>
        </descriptions>
    </resource>
.

Recherche automatique de l’architecture d’un réseau de neurones artificiels pour le credit scoring Oussama MARGHENI, Mohamed BENREJEB Laboratoire de recherche en automatique (LARA), Ecole Nationale d’Ingénieurs de Tunis BP 37, Tunis, Le Belvédère 1002, Tunisie oussama.margheni@gmail.com , mohamed.benrejeb@enit.rnu.tn Résumé- L'évaluation du risque de crédit est un défi pour toutes institutions financières afin de minimiser les pertes causées par le défaut des emprunteurs, notamment pour un consommateur particulier qui maintient, habituellement, les données recueillies lors de l'ouverture du compte bancaire et, dans le meilleur des cas, lors du remplissage de la demande de crédit. La notation de crédit, ou le credit scoring, est une méthode utilisée pour mesurer le risque de défaut de l'emprunteur. Plusieurs méthodes sont utilisées pour le credit scoring telles que les méthodes statistiques, les méthodes relevant de l'intelligence artificielle ou neuronales. Les réseaux de neurones artificiels constituent une technique fiable qui représente toutefois la difficulté de détermination d’une architecture adéquate au problème. Cet article présente une approche permettant de trouver la meilleure architecture d’un réseau de neurones artificiels pour un modèle de score. Mots-clés— risque de crédit ; credit scoring ; architecture d’un réseau de neurones artificiel ; construction ; I- INTRODUCTION Le crédit est le principal produit que les banques offrent à leurs clients, qui génère la plupart des gains, mais provoque en même temps le plus de pertes en cas de défaut. Le risque de crédit ou risque de contrepartie est le risque de pertes dues à la défaillance d'un emprunteur. La simple augmentation de la probabilité du non payement peut affecter négativement la valeur d'un portefeuille. C’est pourquoi la décision d'accorder ou de refuser un crédit est une décision clé pour une banque. Le risque de crédit pose des problèmes de mesure difficiles. La simple connaissance de l'encours de crédit n’est pas suffisante pour évaluer le risque. Les pertes éventuelles dépendent d'un examen des engagements ainsi que de la probabilité de défaut des contreparties, qui n’est pas facilement quantifiable. Les pertes en cas de défaut dépendent également des garanties et d’une éventuelle récupération après des défauts. En 2005, le Comité de Bâle sur le contrôle bancaire [1] a publié le dispositif révisé d’adéquations des fonds propres « Convergence internationale de la mesure et des normes de fonds propres : cadre révisé » [2] aussi connu sous le nom de « l’accord de Bâle II » ; celui ci présente un ensemble de mesures et de lignes directrices pour limiter les risques bancaires, y compris le risque de crédit. En 2006, dans sa circulaire 2006-19 [3], la Banque Centrale de Tunisie avait imposé aux établissements de crédit et aux banques non- résidentes d’utiliser un processus de sélection des crédits et de disposer d'un système permettant de mesurer ces risques. Le credit scoring est la prévision du comportement d'un emprunteur à partir de l'historique des autres emprunteurs de la banque. Les clients sont classés dans différentes catégories en fonction de leur comportement lors du remboursement de crédit. Le nouveau demandeur de crédit est associé à l'une de ces classes en fonction de ses caractéristiques. Tout d'abord, les clients sont classés en deux catégories. La classe de défaut contient les emprunteurs qui ont un défaut de paiement de leurs crédits. Est considéré comme un défaut, selon le comité de Bâle, un retard de paiement de 90 jours ou un abandon total de la dette [2]; La classe du non défaut contient les emprunteurs avec paiement régulier sans incidents significatifs. Ensuite, la classification est affinée dans d'autres sous-classes qui représentent le score du client. On peut donc dire que les modèles de credit scoring relèvent en fait d’une problématique de classification [4] [5] [6]. Les modèles de score ont intéressé de nombreux chercheurs et professionnels dont certains utilisent des techniques statistiques comme la régression logistique (LRA), l'analyse discriminante linéaire (LDA) [7], la recherche opérationnelle [8], des techniques de l’intelligences artificielle telles que les systèmes experts, les réseaux de neurones artificiels (ANN), les Support Vector Machines (SVM) et les algorithmes génétiques [9] ainsi que d'autres modèles hybrides qui utilisent des combinaisons de ces diverses techniques [10]. Depuis le milieu des années 90, ANN devient une alternative importante dans la prédiction financière. De nombreux chercheurs restent intéressés par son haute précision de la prédiction et son pouvoir de généralisation [11]. La difficulté de la conception d’un modèle de score avec ANN réside dans l’identification de l’architecture à utiliser. Le résultat du réseau varie en fonction des différents paramètres. Les deux technique utilisées sont la construction et l’élagage, dans les deux approche plusieurs architectures sont testées jusqu’à trouver celle qui donne le meilleur résultat parmi les combinaisons testées. Le problème de ces approches est que la sélection est restreinte aux architectures testées quelque soit leur nombre qui est généralement limité. Notre étude cherche à concevoir une approche permettant de trouver l’architecture recherchée d’une façon automatique et plus fiable. Le document est structuré en cinq sections. Après l'introduction, la deuxième section expose les travaux similaires. Dans la troisième partie, l'ensemble des données utilisées dans cette et sont prétraitement sont décrits. La quatrième section présente l'approche proposée. La dernière section expose les résultats de l'approche présentée et la compare avec d’autres résultats. II- TRAVAUX SIMILAIRES Les réseaux de neurones artificiels ont été utilisés en tant que modèles de notation de crédit depuis les années 1990, Desai, Crook et Overstreet [14] ont développé des modèles de notation de crédit avec ANN en utilisant un ensemble de 1962 consommateurs de crédit. ANN a la meilleure performance comparé aux modèles LDA et LRA. Ouest [15] a comparé la performance de cinq modèles ANN de notation de crédit avec LDA, LRA, k plus proches voisins, Estimation de la densité du noyeau et classification et arbres de régression (CART). Malhotra et Malhotra [16] ont obtenu des résultats similaires en utilisant un ensemble de données de 1078 emprunteurs. Margheni et Benrejeb [17] ont utilisé ANN dans un ensemble de 998 emprunteurs d'une banque tunisienne, et ont comparé les résultats au modèle de score utilisé par cette banque qui combine un modèle de régression non linéaire à un système expert. Les résultats obtenus par les ANN étaient nettement meilleurs. D’autres chercheurs ont proposé des approches hybrides combinant les ANN avec des systèmes experts [18] [19], avec la Régression multi variée par spline adaptative (MARS)[20], la logique floue[21][22][23], La régression logistique[24], etc. Dans ces travaux ainsi que dans les autres problèmes traités par l’approche neuronale, le problème du choix de l’architecture est abordé de la même façon : un certain nombre d’architectures avec des paramètres différents sont testés, le nombre varie en fonction de l’étude, allant de quelques réseaux à des centaines, soit par construction, en commençant par un petit nombre de couches cachée et de neurones et augmentant à chaque fois, soit par élagage, commençant par un grande nombre et diminuant à chaque fois [25] . Le choix définitif est fait sur la base des résultats obtenus, autrement dit, la meilleure architecture n’est pas la meilleure en absolu, mais la meilleure parmi les testées [26] [27]. III- DONNEES A. Description des données Les données utilisées sont recueillies chez une banque tunisienne. Parmi l’ensemble de données existantes dans la base client, nous avons collectés 33 champs d’informations personnelles et bancaires des clients et s’il y’a eu ou pas un défaut de payement lors du remboursement du crédit. B. Prétraitement de l’échantillon Dans cette phase de prétraitement des données, les champs à majorité vides ont été éliminés. Le calcul de la matrice de corrélation entre les différents champs à permis d’en éliminé ceux qui ont une forte corrélation. Certaines valeurs brutes ont été remplacées par des valeurs calculées plus significatives et pour plus de standardisation tel que le champ date de naissance qui est remplacé par l’âge, ou les champs capacité de payement, montant de remboursement et revenus mensuels qui sont remplacés par le ration montant remboursé par rapport à la capacité de remboursement, etc. Finalement l’ensemble de 10 champs suivants décrivant 989 emprunteurs est gardé : 1) Sexe ; 2) Age ; 3) Niveau scolaire ; 4) Situation de travail ; 5) Ancienneté à l'emploi ; 6) Capacité de remboursement ; 7) Situation de logement ; 8) Ancienneté au logement ; 9) Ancienneté du compte ; 10) Zones géographique. L’ensemble des données est partagé en trois sous ensemble de 60%, soit 593 lignes, pour l’apprentissage du modèle, 20% (198 consommateur) pour la validation et 20% (les 198 restants) pour le test. IV- CONSTRUCTION D’UN RESEAU DE NEURONES ARTIFICIELS A. Paramètres d’un réseau de neurones artificiel Lors de la construction d’un réseau de neurones artificiels, plusieurs paramètres doivent être choisis. Ces paramètres sont les suivants : − Nombre de couches cachées ; − Nombre de neurones par couche cachée ; − Fonction d’activation de chaque couche ; − Fonction d’apprentissage ; La taille de l’échantillon, son partage entre apprentissage, validation et test ainsi que le nombre de cycle d’apprentissage impactent aussi les résultats [25]. TABLEAU I: Fonctions d'apprentissage de la neural network toolbox de Matlab trainbfg BFGS quasi-Newton backpropagation. trainbr Bayesian regularization. traincgb Powell-Beale conjugate gradient backpropagation. traincgf Fletcher-Powell conjugate gradient backpropagation. traincgp Polak-Ribiere conjugate gradient backpropagation. traingd Gradient descent backpropagation. traingda Gradient descent with adaptive learning rate backpropagation. traingdm Gradient descent with momentum backpropagation. traingdx Gradient descent with momentum and adaptive learning rate backprop. trainlm Levenberg-Marquardt backpropagation. trainoss One-step secant backpropagation. trainrp Resilient backpropagation (Rprop). trainscg Scaled conjugate gradient backpropagation. trainb Batch training with weight and bias learning rules. trainc Cyclical order incremental training with learning functions. trainr Random order incremental training with learning functions. TABLEAU II : Fonctions d'activation de la neural network toolbox de Matlab Fonction Matlab Fonction mathématique Représentation graphique hardlim Tout ou rien purelin Linéaire (affine) satlin Saturation linéaire logsig Sigmoïde tansig Arctangeante radbas Gaussienne A. la boîte à outils « neural netwok toolbox » de Matlab[28] La boite à outils « neural network toolbox » est une bibliothèque qui offre un ensemble de fonctions permettant la création et la manipulation des RNA tel que des fonctions d’activation, des algorithmes d’apprentissage, des fonctions de construction de réseaux de neurones, d’apprentissage, de simulation, etc. Les fonctions d’apprentissage proposées par la boîte à outils sont décrites dans le tableau I et les fonctions d’activation dans le tableau II précédents. B. Recherche de la meilleure architecture du réseau de neurones Le résultat du réseau de neurones artificiels dépend fortement de son architecture. La résolution d’un problème en utilisant les réseaux de neurones passe par une étape de recherche de l’architecture qui donne le meilleur résultat du problème donné. Afin de trouver la meilleure architecteur d’un réseau de neurone artificiel, deux approches peuvent être utilisées : 1) La construction : consiste à commencer par un réseau de neurones à un nombre de neurones réduit et d’augmenter le nombre en répétant l’apprentissage et le test pour chaque nouveau réseau et garder le résultat. Apres un certain nombre d’essais, c’est l’architecture qui a donné le meilleur résultat sera utilisée pour le problème en question. 2) L’élagage : cette méthode est simplement l’inverse de la construction, elle commence par un réseau avec un grand nombre de neurones et une réduction progressive de ce nombre et faites, l’apprentissage et le test sont répétés pour chaque nouveau réseau et les résultats sont enregistrés jusqu’à un certain seuil, puis le réseau ayant donné le meilleur résultat est sélectionné. Dans les deux cas, le principe est de tester plusieurs architectures, en jouant sur les différents paramètres. V- APPROCHE PROPOSEE Dans notre approche nous avons écrit un programme qui automatise l’approche de construction. Ce programme accepte comme entrées le nombre de couches cachées, le nombre maximal de neurones dans les couches cachées, les fonctions d’activation et les fonctions d’apprentissage à tester. En utilisant la boite à outils « neural network toolbox » de Matlab, nous bénéficions de 6 fonctions d’activations et de 16 fonctions d’apprentissage (tableau I et II). La fonction de construction d’un réseau de neurone artificiel accepte comme arguments : − L’ensemble de données d’entrée ; − L’ensemble de données de sortie (cible) ; − La fonction d’activation de chaque couche cachée et de la couche de sortie ; − La fonction d’apprentissage. Ce programme teste toutes les combinaisons possibles entre ces différents paramètres. Ceci revient à tester un grand nombre de réseaux qui s’exprime comme le produit des trois composantes suivantes : − Nombre de combinaisons numériques possibles ; − Nombre de combinaisons de fonctions d’activation possibles ; − Nombre de fonctions d’apprentissage possibles. Le nombre de neurones dans la couche d’entrée est égal au nombre d’entrées, et le nombre de neurones dans la couche de sortie est égal au nombre de sorties. Le nombre de combinaisons numériques possibles des couches cachées est le nombre maximal des neurones dans ces couches (n_max) exposant le nombre de couches (n_cc), soit : n_max n_cc La fonction d’activation est la même pour chaque couche, la fonction de construction du réseau prend en paramètres la fonction de chaque couche cachée et la fonction de la couche de sortie, le nombre de combinaisons possible devient donc : n_Fact n_cc+1 avec n_Fact le nombre de fonctions d’activation possibles, et n_cc le nombre de couches cachées. Le total des combinaisons possibles devient donc : n_max n_cc * n_Fact n_cc+1 * n_Fapp où n_Fapp est le nombre de fonctions d’apprentissage possibles. Nous avons appliqué ce programme au cas des réseaux à une couche cachée avec 20 neurones au maximum dans cette couche. Le nombre de combinaisons générées par le programme est Soit 11 520 réseaux de neurones artificiels différents. Les résultats obtenus sont présentés dans la partie qui suit. A. Résultats des réseaux de neurones artificiels construits Le programme a généré 11 520 réseaux de neurones artificiels différents. Nous avons gardé le nombre de neurones de la couche cachée, la fonction d’activation de la couche cachée, la fonction d’activation de la couche de sortie, la fonction d’apprentissage du réseau et le taux de bon classement obtenu par ce réseau. Les résultats sont détaillés dans ce qui suit en fonction des paramètres. Le tableau III et la figure 1 montrent la distribution des taux de bon classement selon le nombre de neurones da la couche cachée. Le tableau IV donne la variation du taux de bon classement en fonction des fonctions d’activations combinées entre la couche cachée et la couche de sortie, une variation illustrée par la figure 2. Le tableau V et la figure 3 présentent la variation du résultat selon la fonction d’apprentissage utilisée. TABLEAU III : TAUX DE BON CLASSEMENT EN FONCTION DU NOMBRE DE NEURONES DE LA COUCHE CACHEE Nombre neurones de la couche cachée Nombre de RNA testés Taux de bon classement min max 1 576 28,79 76,77 2 576 27,78 78,28 3 576 27,27 77,27 4 576 25,76 78,28 5 576 28,79 78,79 6 576 26,26 78,28 7 576 28,79 77,27 8 576 26,26 79,29 9 576 26,26 78,28 10 576 29,29 79,80 11 576 29,29 79,80 12 576 26,26 77,78 13 576 28,79 79,29 14 576 26,77 76,77 15 576 25,25 82,32 16 576 28,79 76,26 17 576 24,24 81,82 18 576 26,26 80,30 19 576 32,83 76,26 20 576 25,76 78,79 TOTAL 11 520 24,24 82,32 FIG. 1. TAUX DE BON CLASSEMENT EN FONCTION DU NOMBRE DE NEURONES DE LA COUCHE CACHEE TABLEAU IV : TAUX DE BON CLASSEMENT EN FONCTION DE LA COMBINAISON DES FONCTIONS D’ACTIVATION Code Fonction d’activation Nombre de RNA testés Taux de bon classement min max 1 purelin purelin 320 48,48 78,28 2 purelin hardlim 320 25,25 34,34 3 purelin radbas 320 24,24 81,82 4 purelin logsig 320 24,75 81,31 5 purelin satlin 320 25,25 82,32 6 purelin tansig 320 27,27 82,32 7 hardlim purelin 320 27,27 74,75 8 hardlim hardlim 320 26,26 34,85 9 hardlim radbas 320 28,79 73,74 10 hardlim logsig 320 26,26 73,74 11 hardlim satlin 320 26,26 73,74 12 hardlim tansig 320 26,26 73,74 13 radbas purelin 320 63,13 79,80 14 radbas hardlim 320 26,26 34,85 15 radbas radbas 320 26,26 79,29 16 radbas logsig 320 26,26 79,80 17 radbas satlin 320 26,26 77,78 18 radbas tansig 320 31,82 80,30 19 logsig purelin 320 65,15 79,29 20 logsig hardlim 320 26,26 34,85 21 logsig radbas 320 26,26 78,28 22 logsig logsig 320 26,26 78,79 23 logsig satlin 320 27,27 78,28 24 logsig tansig 320 25,76 79,29 25 satlin purelin 320 61,62 78,79 26 satlin hardlim 320 26,26 34,85 27 satlin radbas 320 25,76 78,28 28 satlin logsig 320 26,26 79,29 29 satlin satlin 320 26,26 78,28 30 satlin tansig 320 26,26 79,29 31 tansig purelin 320 66,16 78,28 32 tansig hardlim 320 26,26 34,85 33 tansig radbas 320 27,27 77,78 34 tansig logsig 320 26,26 78,79 35 tansig satlin 320 26,77 78,79 36 tansig tansig 320 26,26 79,80 TOTAL 11 520 24,24 82,32 Fig. 2. TAUX DE BON CLASSEMENT EN FONCTION DE LA COMBINAISON DES FONCTIONS D’ACTIVATION TABLEAU V : TAUX DE BON CLASSEMENT EN FONCTION DE LA FONCTION D’APPRENTISSAGE Méthode d’apprentissage Nombre de RNA testés Taux de bon classement min max trainbfg 720 24,24 80,81 trainb 720 25,25 78,79 trainbr 720 25,25 82,32 trainc 720 25,25 82,32 traincgb 720 24,24 81,31 traincgf 720 24,24 80,30 traincgp 720 25,25 81,31 traingd 720 25,25 77,78 traingdm 720 25,25 77,78 traingda 720 25,25 78,79 traingdx 720 25,25 79,80 trainlm 720 25,25 79,80 trainoss 720 24,75 78,79 trainr 720 25,25 81,82 trainrp 720 25,25 79,29 trainscg 720 25,25 78,79 TOTAL 11 520 24,24 82,32 FIG. 3. TAUX DE BON CLASSEMENT EN FONCTION DE LA FONCTION D’APPRENTISSAGE Le meilleur taux de bon classement atteint est de 82,23%, réalisé par deux réseaux de neurones à une couche cachée contenant 15 neurones. Le tableau IV montre que cette performance est réalisée par deux combinaisons différentes des fonctions d’activation. Le tableau V montre que deux fonctions d’apprentissage différentes permettent d’atteindre ce taux. TABLEAU VI : RESULTATS DE LA CLASSIFICATION DE L'ENSEMBLE DE TEST PAR LES RESEAUX AYANT LE MEILLEURES TAUX Réseau testé numéro 8131 8148 Bon clients classés comme bons 140 141 Mauvais clients classés comme mauvais 23 22 Bons clients classés comme mauvais 27 28 Mauvais clients classés comme bons 8 7 VI- CONCLUSION Les résultats obtenus par l’approche relative à la mise en œuvre proposée dépassent les résultats obtenus dans des études ultérieures qui étaient de 78,28% [17] et 77,77% [29] malgré le nombre important des architectures testés dans ces études. Ceci montre que quelque soit le nombre d’architectures testées, il est nécessaire malgré tout de poursuivre les investigations pour déterminer d’autres architectures pouvant être mieux adaptées au problème étudié. Couvrir toutes les architectures possibles des réseaux de neurones artificiels à une couche cachée pour un problème donné garantit de trouver la meilleure combinaison. Cependant, un tel algorithme est d’une grande complexité et nécessite une optimisation. REFERENCES [1] Basel Committee on Banking Supervision, http://www.bis.org/bcbs/about.htm. [2] Basel Committee on Banking Supervision: International Convergence of Capital Measurement and Capital Standards, http://www.bis.org/publ/bcbs118a.pdf. [3] Banque centrale de tunisie http://www.bct.gov.tn/bct/siteprod/documents/cir200619.p df. [4] N.C. Hsieh, “An integrated data mining and behavioral scoring model for analyzing bank customers,” Expert Systems with Applications, vol. 27, pp. 623–633, 2004. [5] T.S. Lee, C.C. Chiu, Y.C. Chou and C.J. Lu, “Mining the customer credit using classification and regression tree and multivariate adaptive regression splines,” Computational Statistics and Data Analysis, vol. 50, pp. 1113–1130, 2006. [6] N. Seddiqi, “Credit risk scorecards, Developing and implementing intelligent credit scoring,” John Wiley & Sons, Inc., Hoboken, New Jersey, 2006. [7] K.L. Erkki, “Predicting a corporate credit analyst’s risk estimate by logistic and linear models,” International Review of Financial Analysis, vol. 8:2, pp. 97–121, 1999. [8] M. Psillakia, I.E. Tsolasb and D. Margaritis, “Evaluation of credit risk based on firm performance,” European Journal of Operational Research, vol. 201, Issue 3, pp. 873–881, 2010. [9] A. Bahrammirzaee, “A comparative survey of artificial intelligence applications in finance: artificial neural networks, expert system and hybrid intelligent systems,” Neural Computing & Applications, vol. 19, 1165–1195, 2010. [10] B. Twala, “Combining classifiers for credit risk prediction,” Journal of Systems Science and Systems Engineering, vol. 18(3), pp. 292-311, 2009. [11] S. Akkoç, “An empirical comparison of conventional techniques, neural networks and the three stage hybrid Adaptive Neuro Fuzzy Inference System (ANFIS) model for credit scoring analysis: The case of Turkish credit card data,” European Journal of Operational Research, vol. 222, pp. 168–178, 2012. [12] L.A. Zadeh, “Fuzzy sets,” Information and Control, vol. 8, pp. 338-353, 1965. [13] A. Capotorti and E. Barbanera, “Credit scoring analysis using a fuzzy probabilistic rough set model,” Computational Statistics & Data Analysis, vol. 56, Issue 4, pp. 981–994, 2012. [14] V.S. Desai, J.N. Crook and G.A. Overstreet, “A comparison of neural networks and linear scoring models in the credit union environment,” European Journal of Operational Research, vol. 95, pp. 24–37, 1996. [15] D. West, “Neural network credit scoring models,” Computers and Operations Research, 27, pp. 1131–1152, 2000. [16] R. Malhotra and D.K. Malhotra, “Evaluating consumer loans using neural networks,” Omega, vol.31 (2), pp. 83– 96, 2003. [17] O. Margheni, and M. Benrjeb, “Sur le credit scoring par les réseaux de neurones artificiels,” e-STA, vol.27, 2011. [18] H. Abdou, J. Pointon and A. El-Masri, “Neural nets versus conventional techniques in credit scoring in Egyptian banking,” Expert Systems with Applications, vol. 35, pp. 1275–1292, 2008. [19] A. Bahrammirzaee, A.R. Ghatari, P. Ahmadi and K. Madani, “Hybrid credit ranking intelligent system using expert system and artificial neural networks,” Applied Intelligence, vol. 34, pp. 28–46, 2011. [20] T.S. Lee and I.F. Chen, “A two-stage hybrid credit scoring model using artificial neural networks and multivariate adaptive regression splines,” Expert Systems with Applications, vol. 28, pp. 743–752, 2005. [21] D. Nauck, F. Klawonn and R. Kruse, “Combining neural networks and fuzzy controllers,” Lecture Notes in Computer Science, vol.695, Fuzzy Logic in Artificial Intelligence, pp. 35–46, 1993 [Proceedings of 8th Austrian AI conference, June 1993]. [22] J.J. Buckley and Y. Hayashi, “Fuzzy neural networks: A survey,” Fuzzy Sets and Systems, vol. 66, pp. 1–13, 1994. [23] S. Piramuthu1, “Financial credit-risk evaluation with neural and neurofuzzy systems,” European Journal of Operational Research, vol. 112, pp. 310–321, 1999. [24] O.O. Odeh, M.A. Featherstone and S. Das, “Predicting credit default: comparative results from an artificial neural network, logistic regression and adaptive neuro-fuzzy inference system,” International Research Journal of Finance and Economics, vol. 42, pp. 7–18, 2010. [25] D. K. Gaud and P. Jayaswal , “effects of artificial neural network parameters on rolling element bearing fault diagnosis,” International Conference on Futuristic Trends in Engineering, Science, Humanities, and Technology (FTESHT-16), vol. 1, pp. 33–38, 2016. [26] P. Borne, M. Benrejeb et J. Haggège. “Les réseaux de neurones artificiels : présentation et applications, ” Technip, Paris, 2007. [27] A. Abraham, “Handbook of Measuring System Design,” John Wiley & Sons, Oklahoma, 2005. [28] H. Demuth, M. Beale, “Neural Network Toolbox user’s guide,” MathWorks, Massachussets, 2002. [29] O. Margheni, and M. Benrjeb, “Credit Scoring of Personal Loans based on Adaptive Neuro-Fuzzy Inference System and Artificial Neural Networks”, 2nd International Conference on Automation, Control, Engineering and Computer Science (ACECS-2015), [Proceedings of Engineering & Technology (PET)], 2015. [30] N. Seddiqi, “Credit risq scorecards: Developping and implementing intelligent credit scoring,” Wiley, New Jersey, 2006. [31] Arnaud de Servigny et Ivan Zelenko, “Le risque de crédit, nouveaux enjeux bancaires, ” Collection Gestion Sup, Dunod, Paris, 2010.