Huit idées reçues sur le(s) modèle(s) de l’erreur humaine de James Reason

27/12/2014
Auteurs :
OAI : oai:www.see.asso.fr:1301:2014-5:12016
se connecter (si vous disposez déjà d'un compte sur notre site) ou créer un compte pour commander ou s'inscrire.
 

Résumé

Huit idées reçues sur le(s) modèle(s) de l’erreur humaine de James Reason

Métriques

2
0
604.95 Ko
 application/pdf
bitcache://78d1b35ba30e3c6f8c7eb33dfdbeff70a997c812

Licence

Creative Commons Aucune (Tous droits réservés)
<resource  xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
                xmlns="http://datacite.org/schema/kernel-4"
                xsi:schemaLocation="http://datacite.org/schema/kernel-4 http://schema.datacite.org/meta/kernel-4/metadata.xsd">
        <identifier identifierType="DOI">10.23723/1301:2014-5/12016</identifier><creators><creator><creatorName>Justin Larouzée</creatorName></creator><creator><creatorName>Franck Guarnieri</creatorName></creator></creators><titles>
            <title>Huit idées reçues sur le(s) modèle(s) de l’erreur humaine de James Reason</title></titles>
        <publisher>SEE</publisher>
        <publicationYear>2014</publicationYear>
        <resourceType resourceTypeGeneral="Text">Text</resourceType><dates>
	    <date dateType="Created">Sat 27 Dec 2014</date>
	    <date dateType="Updated">Tue 17 Apr 2018</date>
            <date dateType="Submitted">Tue 13 Nov 2018</date>
	</dates>
        <alternateIdentifiers>
	    <alternateIdentifier alternateIdentifierType="bitstream">78d1b35ba30e3c6f8c7eb33dfdbeff70a997c812</alternateIdentifier>
	</alternateIdentifiers>
        <formats>
	    <format>application/pdf</format>
	</formats>
	<version>37808</version>
        <descriptions>
            <description descriptionType="Abstract"></description>
        </descriptions>
    </resource>
.

REE N°5/2014 83 QUELQUES APPROCHES INNOVANTES DANS LA PRÉVENTION ET LA GESTION DES RISQUES DOSSIER 2 Introduction James Reason est un psychologue an- glais essentiellement connu pour la pater- nité du modèle d'accidents dit « modèle du fromage suisse ». Ce modèle porte la thèse selon laquelle un accident dans un système sociotechnique découle de la combinaison malheureuse de conditions présentes dans l'organisation en amont de l'accident (dites « latentes ») et d'une situation dangereuse (souvent initiée par une action humaine qualifiée d'« erreur active »). Ce modèle a contribué à une nouvelle compréhension des accidents (ou paradigme) dans le domaine des Safety Sciences [1]. En 2014, il est tou- jours cité et utilisé dans de nombreux domaines industriels. Pourtant, le de- gré de connaissance et de maîtrise du modèle par ses utilisateurs pose ques- tion [2,3,4]. Cet article aborde d'une manière originale ce fameux modèle en discutant ce qu'il n'est pas. Pour ce faire, nous avons choisi de discuter huit « idées reçues ». Il fait suite à une analyse systématique des travaux de Reason (au nombre de 149), des publications d'autres chercheurs en lien direct avec le « modèle du fromage suisse » et de deux précieux entretiens avec James Reason, le 7 janvier 2014 et son prin- cipal collaborateur, James Wreathall, le 10 octobre 2014. Nous espérons fournir Huit idées reçues sur le(s) modèle(s) de l’erreur humaine de James Reason Par Justin Larouzée, Franck Guarnieri MINES ParisTech, PSL Research University, Centre de recherche sur les Risques et les Crises This paper directed to engineers, researchers and PhD students concerned one way or another by the issues of industrial safety and needing to use the theories or work of the English psychologist James Reason, theorist and practitioner of the global concept of human error. This paper, which requires additional rea- ding of James Reason’s essential works, intends to provide evidence to exceed eight preconceived ideas about the work of the latter, mainly directed to the etiological model of accidents known as "Swiss cheese model". ABSTRACT Figure 1 : Version populaire du modèle d’accident de Reason ou “Swiss Cheese Model”. 84 REE N°5/2014 QUELQUES APPROCHES INNOVANTES DANS LA PRÉVENTION ET LA GESTION DES RISQUES DOSSIER 2 des axes de réflexions qui permettraient une utilisation plus éclairée des travaux de cet auteur incontournable des Safety Sciences. Après une brève présentation de l'au- teur et de ses travaux, nous aborderons des idées reçues concernant les ori- gines du modèle « du fromage suisse » (au nombre de trois), ses fondements théoriques (au nombre de trois) et ses usages possibles (au nombre de deux). James Reason, ses travaux et ses modèles James Reason est né en Angleterre en 1938. En 1967 il soutient sa thèse puis conduit de nombreuses recherches sur la désorientation sensorielle et le mal des transports. En 1977 il rejoint l'université de Manchester en tant que professeur de psychologie. La carrière scientifique de Reason (1967-2013) lui a valu de nombreuses reconnaissances (il est notamment Commandeur de l'ordre de l'Empire britannique). James Reason est l'auteur de 128 ar- ticles et chapitres d'ouvrages collectifs et 21 livres (contribution quantitative- ment significative dans le champ des sciences du risque). Durant sa carrière, Reason a exploré cinq grands champs de recherche. Il consacre 15 années au phénomène du mal des transports avant de s'intéresser aux erreurs du quo- tidien. Après 10 années d'observation, il propose un classement de ces erreurs (ex : erreurs d'action ou de réflexion). La fin des années 1980 et la publica- tion du livre l'Erreur Humaine [5] sont marquées par des accidents tels que l'explosion de la centrale nucléaire de Tchernobyl. Les travaux de Reason ren- contrent ceux d'un ingénieur nucléaire américain (John Wreathall) et s'orientent vers la sécurité des systèmes industriels. La collaboration du psychologue et de l'ingénieur produit un modèle normatif d'un système productif générique basé sur ses composantes principales (orga- nisation, technique et opérateurs). Rea- son adosse sa classification des erreurs aux différentes « couches » du système pour expliquer les accidents industriels. A cette époque, les enquêtes sur les grands accidents, font émerger l'idée que l'acci- dent n'est pas uniquement imputable à l'erreur d'un opérateur (facteur humain). Ses origines remontent aux rouages des systèmes. James Reason fait alors évo- luer son modèle d'accident au gré de dif- férentes collaborations (et toujours avec John Wreathall) et participe à différents programmes industriels de recherche sur les erreurs, les accidents et leurs préven- tion. Ses travaux rencontrent un succès grandissant dans divers milieux indus- triels de 1990 à 2000. En 2000, James Reason débute des travaux sur la réduction du risque en mi- lieu hospitalier. Il publie dans le pres- tigieux journal British Medical Journal (BMJ) une nouvelle représentation de son modèle [6]. Simplifié, celui repré- sente les défenses alignées d'un sys- tème comme des tranches de fromage suisse (figure 1). Chaque défense pré- sente des lacunes (trous du fromage) qui peuvent être le fait d'erreurs hu- maines, de problèmes techniques, de mauvaise maintenance ou de décisions managériales. Si les lacunes se com- binent (alignement des trous) un danger potentiel peut porter atteinte à l'intégrité (physique, économique ou structurelle) du système. C'est l'accident. Idées reçues sur les origines du modèle Cette section revient sur la genèse du modèle, ce qui a motivé sa création, les formes successives qu'il a connu dans son évolution (et dans le temps) mais aussi sur les différents acteurs de sa création. Si Reason a parsemé ses publications d'éléments de genèse, cette section se veut novatrice en sou- lignant une dimension fondamentale et négligée : l'alliance entre le psychologue et le monde de l'ingénierie. Nous affir- mons que c'est cette alliance qui est à l'origine d'une représentation graphique (modèle) pragmatique et fonctionnelle, à même d'expliquer la popularité du modèle et des théories qu'il supporte. Idée reçue n°1 : les travaux de Reason se limitent à la sécurité industrielle S'il est essentiellement connu pour ses travaux sur les accidents industriels (notamment dans les domaines du nu- cléaire et de la sécurité aérienne) ou dans le milieu hospitalier, James Rea- son a traité de nombreux sujets durant sa carrière de psychologue [1]. Il rédige en 1967 une thèse sur la désorientation sensorielle et le mal des transports, elle sera suivie de la publication de nom- breux articles et deux livres sur le sujet. Au début des années 1970, il s'intéresse aux erreurs du quotidien (oublis, ratés dans la réalisation des actions, lapsus). Durant cette nouvelle période de re- cherche, Reason entreprend une taxino- mie des erreurs humaines. C'est la série d'accidents industriels de 1980 à 1990 qui l'amène à travailler sur les implica- tions des erreurs humaines dans la sé- curité industrielle. Jusqu'à la publication, en 2013, de son dernier livre, Reason a également travaillé sur les notions de culture, de rapport à la règle et de travail en équipe. Idée reçue n°2 : il (n') y a (qu') un modèle de Reason Il est courant de se référer au « modèle du fromage suisse » ou au « modèle de Reason » pour qualifier le modèle éti- ologique d'accidents organisationnels publié par Reason. Parler du « modèle de Reason » occulte cependant le fait qu'il existe, en réalité, des modèles de Reason. Cette pluralité s'exprime à deux niveaux, (1) James Reason a publié de nombreux modèles normatifs de l'er- reur humaine ne portant pas sur les REE N°5/2014 85 Huit idées reçues sur le(s) modèle(s) de l’erreur humaine de James Reason accidents organisationnels1 et (2) le modèle d'accident connu sous le nom du fromage suisse a connu quatre évo- lutions majeures entre sa première ver- sion [5] et la version la plus populaire [6] (figure 1). Chacune des évolutions porte sur la représentation mais égale- ment les termes employés et finalement la « vision » de l'accident. Certaines sont plus appropriées à des fins explicatives (enquête accident, formation, commu- nication), d'autres ont des portées plus exploratoires (diagnostic proactif, études de sûreté,...). Par commodité, le reste de 1 Deux exemples sont le modèle générique d’er- reur humaine GEMS (General Error Modeling System), et une taxinomie des actes non sûrs. cet article conservera l'appellation « le modèle de Reason » pour évoquer la version publiée en 2000. Idée reçue n°3 : le modèle « de Reason » a été créé (uniquement) par Reason James Reason évoque deux con- tributeurs significatifs à la création et à l'évolution de son modèle d'accident organisationnel. Le premier est l'ingénieur nucléaire, spécialiste des facteurs humains John Wreathall. Reason raconte2 avoir travaillé avec Wreathall à la modélisation d'un système productif fonctionnel, avant de 2 Entretien avec James Reason, 7 janvier 2014. pouvoir envisager en modéliser les dé- faillances possibles. De cette collabora- tion est née en 1987, sur la nappe en papier d'un restaurant3 , la première ver- sion du modèle4 . Cette collaboration en- tre un psychologue et un ingénieur est à même d'expliquer d'une part la parenté entre la représentation en plaques et les concepts de défense en profondeur (pilier de la doctrine de sûreté nu- 3 Le pub « Ram’s Head » à Disley, Cheshire, Angleterre. 4 James Reason entendait initialement représen- ter les défenses d’un système comme une série de “sash windows” (fenêtres à guillotines ty- piques des maisons anglaises) dont les stores (ouverts ou fermés) auraient représenté l’in- tégrité. Figure 2 : Historique des contributions à la création du modèle du fromage Suisse. Au centre, les cases grisées représentent les principaux jalons intel- lectuels ayant précédé la publication du modèle Mk IV souvent appelé « modèle de Reason ». Les cases blanches représentent les contributeurs ou influents de ce chemin intellectuel. 86 REE N°5/2014 QUELQUES APPROCHES INNOVANTES DANS LA PRÉVENTION ET LA GESTION DES RISQUES DOSSIER 2 cléaire) et d'autre part l'énorme succès du modèle auprès de l'industrie (pro- priété qui n’est pas partagée par tous les modèles contemporains du modèle de Reason). Le second est Rob Lee, psychologue australien spécialisé dans la sécurité aérienne (ancien directeur du Bureau of Air Safety Investigation — BASI à Cam- bera). Reason le crédite de l'appellation « fromage suisse » du modèle. En 2000, Reason commence des travaux de re- cherche sur la réduction du risque en milieu hospitalier5 , il souhaite alors pro- duire « quelque chose de nouveau ». C'est l'appellation de Rob Lee qui le con- duit à publier cette version décalée de son modèle d'accident. Hasard ou coup de génie, l'aspect « mnémotechnique » du gruyère contribuera largement à la diffusion rapide et globale de ses idées. La figure 2 resitue les principales étapes et contributions au modèle. Idées reçues sur les fonde- ments théoriques du modèle Cette section revient sur la théorie qui sous-tend le modèle. Publié en 1990, le modèle souffre de son « âge » et plus particulièrement de son adéquation avec l'évolution des systèmes sociotech- niques. Il arrive aussi qu'on lui reproche son manque de « dynamique » au sens des théories des systèmes et de la com- plexité. Enfin, on le suspecte de ne s'in- téresser qu'à l'organisation au dépend de l'humain, un comble pour un modèle dit de « l'erreur humaine ». Trois idées reçues en découlent : Idée reçue n°4 : le modèle de Reason est dépassé et n'explique plus notre monde Cette idée est basée sur le présup- posé que le modèle du fromage suisse a une visée performative (diagnostic, 5 Travaux qui lui vaudront en 2003 le titre de Comander de l’ordre de l’Empire Britannique. enquête,...) et opérationnelle. Elle pos- tule que ce modèle, conçu dans les années 1990 n'est plus à même d'expli- quer les accidents industriels actuels en raison des évolutions des systèmes et des organisations. S'il est indéniable que l'industrie et les organisations ont forte- ment évolué en un quart de siècle, c'est présupposé de cette idée reçue (visée performative du modèle) qu'il convient d'éclairer. Le modèle du fromage suisse (à l'in- star des autres versions du « modèle d'accident » de Reason) possède en réal- ité une visée normative. Il est fondé sur la modélisation de « tout système productif fonctionnel » [5]. In fine, le modèle pose une vision des types d'erreurs respons- ables d'un accident que Reason qualifie d'approche « système » (l'accident est le fruit d'interactions complexes, de condi- tions latentes, d'erreurs patentes et de défaillances des défenses) il s'oppose ainsi aux approches historiques « per- sonnelles » (l'erreur comme un produit émergent de l'activité mentale) et « lé- gales » (l'erreur comme le fait de négli- gences ou d'irresponsabilités, sujette à sanctions). Cette approche est devenue un paradigme des Safety Sciences qui n'est, aujourd'hui, pas remis en cause. Les nouvelles générations d'outils (d'en- quête, de diagnostic) à disposition des professionnels du facteur humain portent toujours en eux (à des degrés divers), les fondements des travaux de Reason. Idée reçue n°5 : le modèle de Reason est linéaire L'approche systémique se distingue de l'approche linéaire (causale, cartésienne). Dans une logique linéaire, un problème peut se décomposer en sous-problèmes élémentaires pouvant être traités séparé- ment. Dans une logique systémique, un problème ne peut être résolu que dans sa globalité. En conséquence, l'approche systémique rend les analyses complexes et produit généralement un « ensem- ble de possibilités » plutôt qu'une unique explication. Une des critiques récurrentes du modèle d'accident de Reason est qu'il porterait une vision statique, linéaire et causale de l'accident [7]. A notre sens, il s'agit de remarques liées à un biais de représentation. La version populaire du modèle n'est pas sans évoquer, à l'œil, la représentation de l'accident d'Heinrich (figure 3). Il s'avère pourtant que dans ses écrits et dans la conception épistémique du modèle, Reason adopte une logique systémique. Selon lui, l'origine de l'ac- cident se situe dans le fonctionnement d'un système donné, le mécanisme de sa réalisation est complexe et les dommages qu'il engendre dépendent de l'état du sys- tème au moment où il survient. L'amalgame « modèle(s) de Reason » = « modèle du fromage suisse » = « théorie des dominos » est donc un raccourci conséquent. Comme l'adage populaire le suggère, la figure 4 [8] vaut mieux qu'un Figure 3 : Représentation de l’accident selon Heinrich (1931). Aussi connue sous le nom de théorie des dominos, cette vision de l’accident (causale) est aujourd’hui remise en cause pour son excessive simplification des phénomènes accidentels. REE N°5/2014 87 Huit idées reçues sur le(s) modèle(s) de l’erreur humaine de James Reason long discours pour illustrer le fait que le modèle « du fromage suisse » n'est que la partie émergée de l'iceberg des travaux de Reason. Nous l'avons évoqué dans l'idée reçue n°4, les modèles d'accident de Reason apportent une explication de la complexité des accidents industriels et ne constituent pas des outils de préven- tion ou d'analyse en eux (visée norma- tive et non performative). Les utiliser comme des outils conduit intuitivement à vouloir traiter les blocs (organisation, espace de travail, personnes, défenses) séparément et ainsi à dénoncer une ap- proche linéaire. Comprendre que ces modèles ne sont pas décomposables, que ces blocs sont liés par des rétro- actions complexes, que les trous dans les défenses ne sont pas statiques mais évoluent dans le temps, confirme le fon- dement systémique de ces modèles. Enfin, est-ce que pouvoir classer de manière irréfutable et définitive les modèles de Reason dans la famille sys- témique ou linéaire renseignerait sur la validité ou l'utilité de ses modèles ? Cela ne correspondrait-il pas à avoir une approche linéaire des Safety Sci- ences (une théorie succédant à une au- tre sans rétroaction, interaction) ? Cette idée reçue doit être questionnée de façon critique : a-t-elle été avancée pour améliorer la sûreté des systèmes ou ac- compagne-t-elle la publication d'outils nouveaux avec pour ambition de tuer le père ? Il est temps d’accepter que l'approche systémique doive renoncer à bâtir une théorie universelle des sys- tèmes qui intégrerait toutes les théories spécifiques des différentes disciplines. Une telle théorie universelle, que Walliser qualifiait « d'esprit de système », enfer- merait tout objet dans un moule rigide, artificiel et immuable. Nous affirmons donc tout autant que les modèles de Reason sont des modèles systémiques (pionniers de surcroît dans les Safety Sciences) et surtout que la question du statut du modèle est vaine. Idée reçue n°6 : le modèle de Reason néglige l'opérateur pour (ne) s'intéresser (qu') à l'orga- nisation La recherche des causes « profondes » (antérieures ou distantes de l'erreur qui déclenche l'accident) se voit parfois at- tribuer deux biais : (1) celui de blâmer le management et d'absoudre l'opérateur et (2) celui de chasser des chimères car les causes « profondes » obéissent à la règle « plus on en cherche, plus il y en a ». Reason se trouve être le premier à publier un avertissement sur la ten- dance « rechercher toujours plus loin » [9] (p.18). Il réitère ces avertissements dans les nombreuses conférences qu'il donne au cours des années 2000. Il affirme regretter l'invention du terme « erreur latente » [5] qu’il remplace, sui- vant les conseils de John Wreathall6 , par celui de « condition latente » [9]. Ce nou- vel élément prend en compte la ratio- nalité limitée des acteurs (notamment managers) qui implique qu'une déci- sion, sans conséquence sur la sûreté, prise à un temps et un lieu donné d'une organisation peut contribuer au dérou- lement d'une séquence accidentelle en un temps et un lieu différents de cette organisation. Cependant, Reason persiste et signe : en matière de sûreté, con- centrer les efforts curatifs sur l'opéra- teur de première ligne est équivalent à 6 Entretien avec John Wreathall, 10 octobre 2014. Figure 4 : Adaptation du modèle Mk II (Lee, 2011). Cette figure replace la version « fromages suisse » au sein d’un ensemble de travaux qui ont conduit à façonner une vision nouvelle de l’accident. 88 REE N°5/2014 QUELQUES APPROCHES INNOVANTES DANS LA PRÉVENTION ET LA GESTION DES RISQUES DOSSIER 2 écraser des moustiques un par un pour s'en débarrasser. Ces efforts sont vains et ne permettent, au mieux, que de re- tarder l'occurrence de l'évènement red- outé (accident ou piqure) : un autre moustique viendra aussi certainement qu'un autre opérateur commettra une erreur dans le même contexte (de tra- vail local et organisationnel). Une solu- tion plus probante est la recherche et le traitement des causes « profondes » (or- ganisationnelles) qui s'apparenterait à la recherche et à la destruction du nid de moustiques. Il est enfin surprenant de lire que le modèle de Reason amène à négliger l'erreur de l'opérateur lorsque l'on connaît la quantité de travaux que le psychologue a réalisé entre 1977 et 2000 sur les erreurs, les contourne- ments des procédures ou les travaux en équipe. Idées reçues sur l’utilisation du modèle Cette section revient sur les utilisa- tions (possibles, effectives, souhaitées) du modèle. La version la plus popu- laire repose sur l'alignement de trous, un principe somme toute intuitif, l'il- lustration par des tranches de from- age, singulière, renforce sa dimension mnémotechnique. Il découle de ces caractéristiques que le modèle de Rea- son a connu une utilisation massive et dogmatique depuis les années 2000. Ce modèle répondant à un besoin in- dustriel (comprendre les accidents pour en éviter la récurrence) de nombreuses utilisations en ont été faites, avec le temps et l'usage, deux idées reçues se sont imposées. Idée reçue n°7 : le modèle de Reason est dédié à un type d'organisation spécifique Le nucléaire, l'aérien et le médical sont les trois types d'organisation qui ont joué un rôle fondateur pour les travaux de Reason. Le nucléaire a été le lieu du développement : Reason a travaillé sur la sûreté nucléaire et la catastrophe de Tchernobyl a (tristement) contribué à la visibilité de ses écrits. De plus et comme indiqué précédemment, c'est à la collabo- ration avec un ingénieur nucléaire que l'on doit le premier modèle [5]. Au cours des années 1990, l'aviation civile et le con- trôle aérien ont été des organisations pi- onnières dans l'adoption de ses modèles d'accidents organisationnels et ont con- tribué au développement des théories de Reason7 (notamment sur les condi- tions latentes en étudiant la maintenance dans l'aéronautique). Enfin, en abordant la réduction des risques en milieux hos- pitaliers au tout début des années 2000, Reason publie la version qui deviendra populaire du modèle et acquiert son ul- time niveau de notoriété [6]. 7 En tant que directeur du bureau d’investiga- tion aérienne (BASI) australien, Rob Lee incite ses enquêteurs à utiliser le « modèle de Rea- son » durant les années 1990. Le Capitaine Dan Maurino introduit en 1993 le modèle Mk I au monde de l’aéronautique civile [3] (p. 21). Toutefois, le livre L’Erreur Humaine [5] a fait l'objet de traductions dans cinq langues, James Reason a donné près de 300 conférences relatives à ses modèles d'accidents autour du monde et il a publié plus de 30 articles ou chapitres d'ouvrages qui s'y référent. Ses travaux ou des dérivés directs de ses travaux (outils d'analyse d'accidents ou de diagnostics proactifs de sûreté) ont été (et sont toujours) utilisés dans de très nombreux types d'organisation. Cela s'explique justement par la visée norma- tive et non performative de ses modèles. Le tableau 1 présente une liste (non ex- haustive) des différentes applications de ses travaux. Idée reçue n°8 : pour éviter l'acci- dent, il faut « boucher les trous » des tranches Last but not least : il est une idée tenace consistant à penser que les modèles de Reason (du moins, le modèle du fromage suisse) ont pour objectif final de « trouver et reboucher Domaine d’application Référence indicative Modèle ou dérivés Aviation - Maurino (1993) - Shappell (2000) - Walker (2003) - Reason et al. (2006) - SCM - HFACS - ATSB Model - MESH Maritime - Ren et al. (2008) - SCM, réseaux Bayésiens Médecine - Vincent et al. (1998) - Reason et al. (2001) - Lederman & Parkes (2005) - Méthode ALARM - SCM - SCM Militaire - Jennings (2008) - DOD-HFACS (depuis 2005) Nucléaire - Reason et al. (2006) - SCM, PAOWF Pétrole - Hudson et al. (1994) - Doran & Van Der Graaf (1996) - TRIPOD-DELTA - TRIPOD-BETA Rails - Reason et al. (2006) - Baysari et al. (2008) - REVIEW - SCM, HFACS Routes - Salmon et al. (2005) - SCM Autres domaines - Henderson, (2007) livraisons - Lubnau et al. (2004) pompiers - Holtermann (2010) justice - Lenné et al. (2012) minier -Larouzée et al. (2014) barrages - SCM - SCM - CCPS - HFACS - SCM Tableau 1 : Liste (non exhaustive) des domaines d’application des travaux de James Reason. Pour les références complètes, voir [2]. REE N°5/2014 89 Huit idées reçues sur le(s) modèle(s) de l’erreur humaine de James Reason les trous ». Voici l'exemple parfait du biais de représentation... Et de la méconnais- sance des travaux de James Reason. James Reason insiste sur le fait que les conditions latentes, à l'instar des agents pathogènes dans un organisme vivant, sont nécessaires mais non suff- isantes au déroulement d'une séquence accidentelle (ou d'une maladie pour l'organisme). Il ajoute que les trous ne sont qu'un artefact de représenta- tion qui symbolise la concordance (dy- namique et fortuite) d'un ensemble de défaillance de natures différentes. Ces « trous » (qui n'en sont pas au sens phy- sique du terme) devraient être imaginés mouvants, s'ouvrant et se refermant au gré des programmes de prévention, de maintenance, etc. Rappelons une dernière fois que les modèles (norma- tifs) de Reason ont permis un change- ment de paradigme dans les années 1990. En tant que tels, ces modèles n'avaient pas d'autre but (c'est pourquoi Reason ne fournit pas de pistes pour « boucher les trous »). Ces travaux explicatifs conduisent na- turellement à des travaux curatifs. Pour prévenir l'accident, Reason a donc con- tribué à la création de plusieurs outils spécifiques. C'est par exemple le cas de la méthode Tripod-Béta qui permet de réaliser des enquêtes accident pour nourrir le retour d'expérience et en éviter la récurrence [10] ou de la méthode Tripod-Delta qui permet de réaliser des diagnostics proactifs de l'état de sûreté d'une organisation [11, 12]. D'autres out- ils tels qu'ICAM (Incident Cause Analy- sis Method) ou l'HFACS (Human Factor Analysis and Classification System) n'ont pas été développés par Reason mais sont directement inspirés de ses travaux et ont, eux, des visées performatives. Conclusion Il est largement admis que les travaux de Reason ont contribué à un changement de paradigme dans les Safety Sciences [13]. Un de ses modèles d'accidents, popularisé sous le nom de « modèle du fromage suisse » est aujourd'hui encore largement cité et utilisé. Les confusions ou « idées reçues » listées dans cet article naissent d'un usage, qui n'est pas toujours accompagné de la connaissance des fon- dements épistémologiques, théoriques ou scientifiques du modèle. Perneger publie, en 2005, un in- téressant travail sur le modèle du fro- mage suisse. Il tente de déterminer si la métaphore du « fromage suisse » est aussi bien comprise qu’elle est uti- lisée. Il montre que la signification du modèle n'est pas univoque et que par conséquent “invoking the Swiss cheese model will not necessarily lead to effec- tive communication, even among qual- ity and safety professionals. [...]. The danger is that people today use the label “Swiss cheese model” without realizing that its meaning varies from one person to the next“ [4]. Terminons cet exercice de clarification par une allégorie. Considérons James Reason comme un ingénieur en mé- canique automobile. Ses travaux de psy- chologue (1967-1987) sont équivalents à de la recherche et développement en mécanique fondamentale. La péri- ode de création d'un modèle d'accident (1987-1990) correspondrait à la concep- tion puis la fabrication d'un prototype de moteur. Ce moteur rencontrant un franc succès, Reason est amené à le dével- opper, le faire évoluer (1990-2000) ; en parallèle, de nouvelles voitures (ou- tils d'analyse) sont créées, certaines par Reason et ses équipes, d'autres par d'autres constructeurs (chercheurs, pro- fessionnels du facteur humain). Ces voitures peuvent avoir des carrosseries différentes, elles utilisent un même « principe » de moteur (le modèle d'ac- cident organisationnel) développé par Reason. En somme, le moteur répond à un besoin primaire : transformer un carburant en énergie mécanique. La voiture, elle, utilise cette énergie pour remplir la fonction « se déplacer ». Dif- férentes voitures (outils, méthodes FH) peuvent utiliser le même moteur (théorie de Reason) pour des finalités différentes. Il existe en effet des voi- tures citadines, routières, 4x4, etc. (et les méthodes Tripod-Béta, Tripod-Delta, ICAM, etc.). S'il est possible d'utiliser une voi- ture sans connaissance en mécanique (et d'utiliser une « méthode facteur hu- main » en suivant strictement le guide d'utilisateur, sans connaissance en psy- chologie cognitive, en systémique, en ergonomie, en sociologie) il sera beau- coup plus délicat de critiquer voire de chercher à optimiser le moteur lui- même. Cette allégorie laissera le lecteur juge du bienfondé de vouloir « se dé- placer » n'utilisant qu'un moteur (sans la voiture qui va autour) ou de vouloir « prévenir les accidents » en utilisant « le fromage suisse ». Références [1] F. Guarnieri, D. Besnard (2013), Redécouvrir l’erreur humaine de James T. Reason. Préface de L’erreur humaine. Paris. Presse des Mines, Collection Economie et gestion. [2] J. Larouzee, F. Guarnieri., D. Besnard (2014), Le(s) modèle(s) de l’erreur humaine de James Reason. Papier de recherche du CRC de MINES Paristech. décembre 2014. [3] J. Reason, E. Hollnagel, J. Paries (2006), Revisiting the “Swiss Cheese” Model of Accidents. EEC Note No. 13/06. European Organisation for the Safety of Air Navigation. October 2006. [4] T. Perneger (2005), The Swiss cheese model of safety incidents: are there holes in the metaphor? BMC Health Services Research 5:71. [5] J. Reason (1990, éd. franç. 2013), L’erreur humaine. Presses des Mines, Economie et Gestion, 404 p. 90 REE N°5/2014 QUELQUES APPROCHES INNOVANTES DANS LA PRÉVENTION ET LA GESTION DES RISQUES DOSSIER 2 [6] J.Reason(2000),HumanError:models andmanagement. BMJ 2000, 320:768- 70. [7] S. Dekker (2006), Past the edge of chaos. Technical Report 2006-03. Lund University, School of Aviation ; Sweden. [8] R. Lee (2011), Integrated Safety Management Systems - Lessons from the aviation industry. Australian University Safety Association Con- ference, July 2011. [9] J. Reason (1997), Managing the Risks ofOrganizationalAccidents.Aldershot, UK: Ashgate Publishing Limited. [10] J. A. Dora, G. C. Van Der Graaf (1996), Tripod-BETA: Incident inves- tigation and analysis. Society of Petroleum Engineers. SPE Health, Safety and Environment in Oil and Gas Exploration and Production Conference, 9-12 June 1996, New Orleans, Louisiana. [11] P.Hudson,J.Reason,W.A.Wagenaar, P. D. Bentley, M. Primrose & J. P. Visser (1994), Tripod Delta: proactive ap- proach to enhanced safety. Journal of petroleum technology n°1. Pages 58 à 62. [12] J.Cambon,F.Guarnieri,J.Groeneweg (2006), Towards a new tool for measuring Safety Management Systems performance. Proceedings of the second resilience engineering symposium 370 p. [13] F. Guarnieri, J. Cambon, I. Boissières (2008), De l’erreur humaine à la défail- lance organisationnelle : essai de mise en perspective historique = From Human Error to Organizational Failure : a Historical Perspective. La Revue de l’Electricité et de l’Elec- tronique, Société de l’Électricité, de l’Électronique et des Technologies de l’Information et de la Communication, 2008, 8, p. 67-76. LES AUTEURS Justin Larouzée est ingénieur en géologie, spécialisé dans les risques naturels. Il conduit une thèse sur les facteurs organisationnel et humain dans les études de dangers des barrages hydroélectriques d’EDF avec le Centre de recherche sur les risques et les crises de MINES ParisTech. Franck Guarnieri dirige le Centre de recherche sur les risques et les crises de MINES ParisTech. Il conduit des recherches sur le management de la sécurité industrielle et de la sûreté nucléaire.