L’imagerie médicale du 20e siècle

17/07/2016
Auteurs :
Publication REE REE 2016-3
OAI : oai:www.see.asso.fr:1301:2016-3:17156
contenu protégé  Document accessible sous conditions - vous devez vous connecter ou vous enregistrer pour accéder à ou acquérir ce document.
Prix : 10,00 € TVA 20,0% comprise (8,33 € hors TVA) - Accès libre pour les ayants-droit
 

Résumé

L’imagerie médicale du 20e siècle

Métriques

9
4
705.4 Ko
 application/pdf
bitcache://70ba0b537ffee1f889eadb97bb21a91ce69dba9c

Licence

Creative Commons Aucune (Tous droits réservés)
<resource  xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
                xmlns="http://datacite.org/schema/kernel-4"
                xsi:schemaLocation="http://datacite.org/schema/kernel-4 http://schema.datacite.org/meta/kernel-4/metadata.xsd">
        <identifier identifierType="DOI">10.23723/1301:2016-3/17156</identifier><creators><creator><creatorName>Jean-Louis Coatrieux</creatorName></creator><creator><creatorName>Patrick Bourguet</creatorName></creator><creator><creatorName>Jacques de Certaines</creatorName></creator><creator><creatorName>Serge Mordon</creatorName></creator><creator><creatorName>Léandre Pourcelot</creatorName></creator></creators><titles>
            <title>L’imagerie médicale du 20e siècle</title></titles>
        <publisher>SEE</publisher>
        <publicationYear>2016</publicationYear>
        <resourceType resourceTypeGeneral="Text">Text</resourceType><dates>
	    <date dateType="Created">Sun 17 Jul 2016</date>
	    <date dateType="Updated">Thu 26 Jan 2017</date>
            <date dateType="Submitted">Fri 10 Aug 2018</date>
	</dates>
        <alternateIdentifiers>
	    <alternateIdentifier alternateIdentifierType="bitstream">70ba0b537ffee1f889eadb97bb21a91ce69dba9c</alternateIdentifier>
	</alternateIdentifiers>
        <formats>
	    <format>application/pdf</format>
	</formats>
	<version>28559</version>
        <descriptions>
            <description descriptionType="Abstract"></description>
        </descriptions>
    </resource>
.

87 REE N°3/2016 ❱❱❱❱❱❱❱❱❱❱❱ RETOUR SUR Jean-Louis Coatrieux, Patrick Bourguet, Jacques de Certaines, Serge Mordon, Léandre Pourcelot Introduction Une véritable révolution en imagerie médicale a bien eu lieu au cours du siècle écoulé avec l’imagerie par rayons-X, les ultrasons, l’imagerie par résonance magnétique et l’imagerie de médecine nucléaire. Le corps humain restait jusqu’alors opaque et il fallait la chirurgie pour en apprendre les organes et iden- tifier la nature et l’étendue des pa- thologies qu’il cachait. Cette révolution est venue en premier lieu de la physique. Cepen- dant, la physique n’aurait pas suffi à elle seule. Les mathématiques, l’électronique, la chimie, l’informa- tique et d’autres disciplines encore devaient joindre leurs efforts avec la médecine pour réussir. Résu- mer ce siècle et cette aventure en quelques pages est une gageure et cet article ne prétend pas à une quelconque exhaustivité. Elle re- prend les principales découvertes en s’attachant à distinguer vraies ruptures et innovations incrémen- tales, chercheurs reconnus et in- venteurs oubliés. De la radiographie au scanner X Lorsque nous parlons de l’imagerie par rayons X, c’est la première et fameuse image produite inci- demment par Wilhelm Roentgen qui fait référence (figure 1). Cette image d’une main, supposée être celle de son épouse Bertha, date de 1895 et en montre les structures osseuses. Cette image projetée, bidimen- sionnelle, cumule les atténuations le long des rayons issus d’une source à rayons X et traversant successive- ment les tissus qui se retrouvent ainsi superposés dans le plan du détecteur. Roentgen obtiendra pour cette découverte le Prix Nobel de physique en 1901. Cette radiographie va profiter d’améliorations successives sur les tubes à rayons X, les collimateurs, l’amplificateur de brillance et les détecteurs pour évoluer vers des systèmes de mieux en mieux résolus. Le passage de l’analogique au numérique va démultiplier son impact et les applications cliniques. Sous sa forme conven- tionnelle, elle reste un examen de première intention, peu coûteux. Par la rapidité d’acquisition qu’elle permet (quelques dizaines d’images par seconde), elle se place aussi comme un outil incontournable dans les salles de chirurgie ou d’imagerie intervention- nelle au sens large. Associée à des produits de contraste opaques aux rayons X, injectés dans le réseau vasculaire, elle s’appellera plus tard « angiographie » et offrira la possibi- lité de distinguer les vaisseaux des autres structures anatomiques et de détecter les sténoses et les ané- vrismes, de guider en temps réel les poses d’endoprothèses et d’élec- trodes de stimulation. C’est aussi cette radiographie qui sera à la base des premières opérations chirur- gicales robotisées en particulier pour le prélèvement d’échantillons tissulaires (biopsies). C’est encore elle qui, aujourd’hui, prend la forme d’une imagerie rotationnelle rapide (plus d’une centaine d’images sur 120° en trois à quatre secondes). Le couple « source-détec- teur » cependant était né avec Roentgen. L’incon- vénient de la radiographie 2D restait cependant manifeste. E. Thompson tente d’obtenir des images 3D en exploitant une technique stéréoscopique par acquisition de deux vues décalées de quelques degrés. K. Mayer, à Cracovie, propose en 1916 des images « stratigraphiques » par déplacement de la source, le détecteur restant fixe. C. Baese dépose un brevet basé sur l’idée d’un mouvement simul- tané source-détecteur. Un autre brevet datant de 1922 par A. Bocage parle déjà d’imagerie de coupes. B.G. Ziedses des Plantes introduit le concept de « planigraphie ». Ces travaux seront concrétisés par L’imagerie médicale du 20e siècle Figure 1 : Le tout premier cliché radiologique a été réalisé le 22 décembre 1895 et a nécessité une pose de 20 min, ce qui explique une partie de ses imperfections ! Il a été publié dans la revue Nature le 26 janvier 1896. 88 REE N°3/2016 ❱❱❱❱❱❱❱❱❱❱❱ RETOUR SUR J. Massiot en 1935 avec son tomographe vertical ou « bio- tome ». Ces noms de chercheurs et d’inventeurs sont main- tenant bien oubliés. Seuls deux noms sont crédités de la découverte du « CT scanner » (CT pour Computed Tomogra- phy) : A.M. Cormack et G.N. Hounsfield, prix Nobel de phy- siologie ou de médecine en 1979. Le principe est simple et basé sur l’acquisition de projections au cours d’une rotation du couple source-détecteur autour du corps. Un autre facteur concomitant va jouer un rôle considérable dans leur réalisa- tion, la disponibilité des calculateurs, car des algorithmes sont alors nécessaires pour reconstruire l’image 2D par rétropro- jection des mesures de projections. Si la transformée propo- sée par N.H. Abel en 1826 n’a eu longtemps que des échos épisodiques, celle de J. Radon publiée en 1917, va être large- ment utilisée dans les premières générations de scanner. Les années 1960 sont celles des bancs expérimentaux mais dès 1972, le premier scanner EMI de tomographie axiale, basé sur les travaux de Hounsfield, est installé en clinique. Nous allons assister dès lors à une avalanche de nouveaux modèles proposés par des constructeurs américains comme européens. Le marché est en effet gigantesque. Les innova- tions vont se succéder à un rythme soutenu pour gagner en temps d’acquisition (l’alternative offerte par l’Electron Beam CT dans les années 80 visera au même objectif), améliorer la résolution spatiale comme la qualité des images et réduire les temps de calcul. La géométrie parallèle des faisceaux de rayons X passe à une géométrie en éventail (1976) asso- ciée à une barrette linéaire de capteurs toujours plus nom- breux. Les acquisitions de projections par une rotation suivie d’une translation sont remplacées par une rotation mainte- nue constante et un mouvement continu de translation du patient : c’est le scanner spiralé (1989). Les avancées sur les détecteurs permettront ensuite de remplacer les barrettes linéaires par des matrices 2D (scanner à multidétecteurs) : de quatre lignes en 1998, elles passeront à 64 en 2004 pour atteindre 320 aujourd’hui. Il est intéressant de noter que cet accès direct au 3D au moyen d’un faisceau conique a été exploré bien avant. C’est le cas du DSR (Dynamic Spatial Reconstructor) conçu à la Mayo Clinic, USA, par l’équipe d’E. Ritman et opérationnel dès 1981. C’est aussi le cas du morphomètre, un projet d’envergure nationale en France, conduit dans les années 80 par General Electric, le CEA-Leti, Rennes et Lyon. Le morphomètre intro- duisait de plus le concept du scanner à source duale puisque deux couples source-détecteur étaient utilisés ! Les enjeux aujourd’hui sont de plusieurs ordres. Outre les évolutions technologiques, de nouvelles applications cli- niques sont visées comme par exemple la caractérisation de tissus se différenciant en densité selon l’énergie utilisée, l’accès à une imagerie volumique dynamique ou 4D (3D + temps) dont la cible majeure est le cœur mais aussi l’ima- gerie de perfusion. Un autre problème, de santé publique cette fois, concerne l’effet cumulé d’irradiation. Les scanners à faible dose de rayons X feront donc très certainement par- tie de ces enjeux. La physique comme les algorithmes de reconstruction y auront leur place. Il est peu probable cepen- dant qu’ils reprennent les « chambres à fils » inventées par Georges Charpak et qui lui ont valu le Nobel de physique en 1992. L’apparition du tomodensimètre a eu d’autres consé- quences immédiates sur le diagnostic et la thérapie. Les méthodes de traitement d’image capables de segmenter précisément les différentes structures, de détecter les lé- sions, de les localiser dans l’espace du corps, de caractériser quantitativement leurs formes ont connu un développement sans précédent dans les applications cliniques. L’émergence pratiquement simultanée de la synthèse d’image a trouvé là matière à restituer des rendus surfaciques 3D qui, rapide- ment, ont été supplantés par des rendus volumiques. Ces techniques se sont naturellement déployées vers la prépa- ration d’interventions chirurgicales à travers des plannings simulant les gestes à accomplir. L’imagerie par rayons X (du scanner au rotationnel) comme les autres modalités dont il est question par la suite, par leur complémentarité sur le plan morphologique comme fonctionnel, diagnostic comme inter- ventionnel, vont dès lors tenir un rôle central en médecine. Les ultrasons Dès que nous parlons d’ultrasons, c’est le sonar (Sound Navigation Ranging) et le nom de P. Langevin qui nous viennent en tête. Si c’est effectivement lui qui a conçu en 1917 le premier générateur d’ultrasons, il faut reconnaître le rôle majeur de quelques précurseurs dont, parmi beaucoup d’autres, L. Spallanzani qui en a soupçonné l’existence en observant le vol de nuit des chauves-souris (1794), Lord Ray- leigh qui a décrit les principes physiques sous-jacents aux vibrations (càd ondes) ultrasonores en 1877 mais aussi les frères Curie avec la découverte en 1880 des effets piézoé- lectriques de certains cristaux. Il a fallu cependant attendre les années 1950 pour voir ces techniques ultrasonores appli- quées à la médecine (par exemple le somatoscope en 1954 aux USA) et les années 1970 pour une utilisation en routine clinique. Les ultrasons sont non ionisants, non dangereux, fa- ciles à mettre en œuvre et ils permettent une visualisation en temps réel des organes et du sang circulant. Ils se propagent assez bien dans les tissus mous, avec une atténuation sen- siblement proportionnelle à leur fréquence. Les fréquences utilisées vont de 3 à 40 MHz. La différence d’impédance REE N°3/2016 89 L’imagerie médicale du 20e siècle acoustique (produit de leur densité par la vitesse de propa- gation des ultrasons) à l’interface entre deux structures est à l’origine des échos (imagerie de réflexion donc, a contrario d’une imagerie de transmission ionisante pour les rayons X). L’imagerie échographique et le Doppler Les transducteurs jouent bien entendu un rôle essentiel. Ils sont à base de céramiques ferroélectriques, à la fois émet- teurs et récepteurs d’ultrasons. De nouveaux capteurs au silicium, basés sur l’effet diélectrique, sont en cours de déve- loppement. On peut envisager dans l’avenir la production de rétines à ultrasons avec des densités de cellules de l’ordre du millier par cm². L’image échographique est constituée d’une série de lignes d’exploration obtenues par balayage de la zone d’intérêt. Ces balayages peuvent être mécaniques ou électroniques. Ces derniers comprennent les techniques de déphasage (phased array) où les impulsions électriques d’émission transmises à chaque transducteur élémentaire sont déphasées (retardées) entre elles pour orienter le front d’onde entre -45° à +45°. On peut superposer des retards supplémentaires pour courber le front d’onde et réaliser ainsi une focalisation électronique à l’émission et à la réception (focalisation dynamique en poursuite d’échos). Le balayage électronique par commutation sur une barrette plane ou convexe de transducteurs associe quant à lui une déflexion électronique pour réaliser des balayages composés (super- position d’images obtenues sous différents angles), ou pour optimiser les acquisitions en mode Doppler. De nouvelles techniques de traitement de signal permettent de réaliser une image à chaque tir ultrasonore, c’est-à-dire à une ca- dence de plusieurs milliers d’images par seconde. L’échographie, principalement utilisée à ses débuts comme moyen d’exploration d’organes à travers la peau, s’est déployée ensuite et grâce à des capteurs de plus en plus miniaturisés vers des approches endocavitaires. Ainsi, des sondes de 10 à 20 mm de diamètre sont utilisées au niveau de l’œsophage, du rectum ou du vagin et de moins de 1 mm pour les études endovasculaires. Il était logique de voir cette imagerie rivaliser avec les autres modalités en particulier dans l’accès au 3D. D’abord réalisée par déplacement mécanique du transduc- teur, des progrès substantiels ont été accomplis au moyen de capteurs matriciels avec reconstruction par plans de coupe. Plusieurs appareils commercialisés aujourd’hui possèdent la possibilité d’une représentation surfacique en temps réel pour le fœtus et le cœur (imagerie 4D). Lesannées1960vontaussivoirapparaîtrel’imagerieDoppler. L’effet Doppler correspond à une variation de fréquence F entre les ultrasons incidents (fréquence F) et les ultrasons réflé- chis (fréquence F’) par les structures en mouvement comme les globules rouges du sang. Pour des fréquences ultrasonores de 2 à 10 MHz, F se situe dans la gamme des fréquences audibles. Lors de la réflexion des ultrasons sur un ensemble de particules en mouvement, le signal Doppler présente un spectre de fréquences détectables par un analyseur de spectre. Chaque composante du spectre a une amplitude fonction du nombre de particules se déplaçant à une vitesse déterminée dans l’artère. Deux principes ont été mis en œuvre : les appa- reils à émission continue largement utilisés pour l’exploration de vaisseaux superficiels (vaisseaux du cou et des membres en particulier) et des rétrécissements valvulaires cardiaques et les appareils à émission pulsée permettant d’évaluer la vitesse du sang à plusieurs profondeurs simultanément. Cette dernière ouvre vers une cartographie des vitesses d’écoulement selon la direction de déplacement qui, représentée sur une échelle colorée modulée par l’énergie (Doppler puissance), peut être superposée aux coupes échographiques en échelle de gris. Avancées récentes : microbulles et élastographie Les microbulles de gaz encapsulé, d’un diamètre de quelques microns, injectées par voie intraveineuse, consti- tuent un puissant réflecteur des ultrasons. Les applications diagnostiques sont nombreuses : l’image de la vascularisa- tion des tissus, la caractérisation des tumeurs, l’exploration de la fonction cardiaque et du flux coronaire, etc. Ces mi- crobulles pourront dans l’avenir transporter des molécules à visée thérapeutique, délivrées localement par rupture de la capsule des microbulles au moyen d’impulsions ultrasonore de moyenne puissance. Quant à l’élastographie (mesure de l’élasticité tissulaire), la solution la plus élégante consiste à générer dans les tissus une onde de cisaillement par ultra- sons focalisés et à étudier sa vitesse de propagation qui dé- pend directement de la rigidité des structures rencontrées. Cette technique nécessite l’utilisation d’une imagerie ultra- rapide, de plusieurs milliers d’images par seconde, pour car- tographier la vitesse de l’onde de cisaillement (Cf. l’entreprise française SuperSonic Imagine). Cette méthode donne éga- lement des résultats spectaculaires en cartographie Doppler pour le suivi de phénomènes vasculaires dynamiques dans des organes comme le cerveau. Ce tour d’horizon est loin de traduire la richesse des applications cliniques des ultrasons. Il ne mentionne ni la seconde vocation des ultrasons, la thérapie par ultrasons de puissance, ni l’échographie interventionnelle avec guidage de ponctions ou de gestes thérapeutiques et pas plus que la télé-échographie, autant de chapitres qui mériteraient une place équivalente à ce que nous avons présenté ici. 90 REE N°3/2016 ❱❱❱❱❱❱❱❱❱❱❱ RETOUR SUR L’oeil du médecin augmenté par les dispositifs optiques L’œil du médecin est certainement le dispositif optique le plus important en médecine. C’est un dispositif très effi- cace pour l’étude de la peau, mais inadapté pour l’étude des organes internes. Pendant longtemps, l’accès à l’intérieur du corps humain a nécessité un acte chirurgical. Pour qu’un regard exercé puisse observer un organe, c’est-à-dire que la lumière réfléchie par l’organe puisse être analysée par un œil humain, il fallait faire usage du bistouri ! Cependant, des objets qui à l’œil nu demeureraient invi- sibles, sont révélés par plusieurs méthodes non invasives qui, selon les cas, font appel à des principes physiques forts dif- férents : rayons X, résonance magnétique nucléaire, ultrasons ou émission de positons évoqués dans cet article. Dans cette palette d’outils d’imagerie, la lumière s’était jusqu’à présent signalée par son absence : les photons de longueurs d’onde du visible ou du proche visible étaient inutilisables à cet effet. Mais, sous l’impulsion de progrès dans la technologie des sources de lumière et des détecteurs, la situation évolue rapidement. La lumière offre un avantage considérable sur les rayons X : son innocuité. Cette propriété physique entraîne des conséquences potentielles évidentes : simplicité de mise en œuvre des appareils, possibilité de renouveler l’examen sans risque, etc. Mais ne rêvons pas : à cause de sa forte absorp- tion par les tissus biologiques, la lumière ne peut prétendre supplanter ou même concurrencer toutes les techniques existantes. Aujourd’hui, elle est considérée comme un com- plément utile, et seulement dans certains cas, un concurrent sérieux. Il est d’ailleurs difficile de parier sur le succès des diverses filières. Dans les laboratoires de recherche, l’heure est encore au foisonnement des principes techniques. Plu- sieurs applications ont suscité l’élaboration de prototypes, quelques-uns ont atteint le stade de l’évaluation clinique ; enfin certains ont conduit à de véritables appareils médicaux qui sont progressivement mis en œuvre dans les hôpitaux. Techniques endoscopiques L’idée d’aller voir l’intérieur de la cavité stomacale remonte au milieu du 19° siècle et l’Institut d’optique a longtemps conservé dans une vitrine le premier endoscope, tube rigide en inox, dont l’introduction dans l’œsophage exigeait de scier la dentition supérieure du patient ! De véritable instrument de torture, l’endoscope est devenu, dès les années 30 du siècle passé, beaucoup plus supportable et désormais, grâce notamment à la fibre optique et à la souplesse qu’elle auto- rise, l’endoscopie s’est généralisée à tous les orifices naturels, ou artificiels comme dans la laparoscopie (ou coelioscopie). On peut également mentionner le cathétérisme, auto ex- périmenté dès 1929 par le Dr Werner Fosmann. Après avoir développé dans les années 40 l’utilisation des sondes intra-ar- térielles, le Dr Courmand a partagé avec lui (et avec Dickinson Richards) le prix Nobel de médecine en 1956. De nos jours, avec les progrès de la miniaturisation et la mise au point de caméras, l’endoscopie est souvent associée aux techniques d’imagerie les plus diverses (optique, rayons X, échographie). Avec les prélèvements qu’elle réalise, l’endoscopie a per- met à la médecine interne de bénéficier, via l’histologie, des progès de la microscopie optique, par exemple du contraste de phase (Zernicke , prix Nobel de Physique 1953) ou plus récemment microscopie confocale ou imagerie polarimé- trique multispectrale1 . Grâce au développement des fibres optiques, nombre d’actes invasifs ont été éliminés. Par l’in- termédiaire de l’endoscope, tout se passe comme si l’œil du médecin était transporté au sein des organes (figure 2). Le moyen est spectaculairement efficace et a bouleversé 1 Voir par exemple Jihad Zallat Progrès dans l’imagerie polarimétrique (REE 2015-3 p 109). Figure 2 : Capsule endoscopique – A : Capsule endoscopique permettant d’explorer l’intestin grêle. Ce dispositif intègre une ou deux caméras, une source de lumière et un émetteur (Dimensions : 11 mm x 26 mm) – B : capsule dans l’intestin grêle – Source : Given imaging. A B REE N°3/2016 91 L’imagerie médicale du 20e siècle nombre de pratiques médicales, et aussi chirurgicales, grâce à la robotique médicale2 . L’endoscopie à bande spectrale étroite, qui repose sur l’éclairage du tissu par une série de spectres dont les bandes d’émission sont choisies pour prendre en compte les spectres d’absorption différents des structures observées constitue une avancée intéressante. La chromoendoscopie avec grossissement, associant coloration des muqueuses et endoscopie avec zoom, améliore elle aussi la détection des lésions. L’endoscopie a récemment considérablement pro- gressé grâce au développement des vidéocapsules. Une fois la capsule avalée, elle prend des photographies du système digestif et les envoie via des électrodes à un boîtier que porte le patient. Ce type d’endoscopie est principalement utilisé pour examiner l’intestin grêle. L’endoscope ou le microscope chirurgical ne donnent pas accès à des caractéristiques des tissus qui, du point de vue de la lumière, soient différentes de celles qui sont simple- ment analysables par l’œil. Afin d’améliorer la sélectivité et la spécificité, il est possible de, recueillir les photons qui sont émis par un mécanisme de fluorescence (figure 3). Le prin- cipe de de la fluorescence est basée sur l’excitation d’une molécule (fluorophore) qui conduit à une émission de lu- mière spécifique. Il existe aujourd’hui plusieurs fluorophores disposant de l’AMM (fluorescéine sodique, vert d’indocya- nine). En oncologie clinique, les techniques de fluorescence peuvent être utilement mises à profit pour le dépistage de lésions cancéreuses débutantes, indétectables par l’endosco- pie classique. On assiste aussi à l’émergence de la chirurgie guidée par l’imagerie de fluorescence. Dans ce cas le chirur- gien réalise une exérèse plus complète de la tumeur, tout en limitant les atteintes lésionnelles sur les tissus sains. Il faut 2 La REE a récemment publié plusieurs articles sur ce thème, notam- ment : Clément Vidal La robotique d’assistance à la chirurgie – l’avè- nement de la co-manipulation (REE 2015-2 p. 78) et Jacques Marescaux & Michele Diana La chirurgie de demain (REE 2016-2 p. 25). rappeler que même dans les unités hautement spécialisées, 50 % des interventions sont classées comme non réussies car les échantillons excisés révèlent des marges positives à l’examen histopathologique. Perspectives de la tomographie et de la transillumination Pour obtenir des informations sur la présence de tumeurs dans des tissus biologiques, il est aussi possible d’émettre des photons et de recueillir ceux qui traversent les tissus. Au bout de leur parcours, l’analyse des diverses modifications qu’ils ont subies dessine une image de la structure interne traver- sée : l’ensemble des techniques fondées sur ce principe très général est regroupé sous le nom d’imagerie optique d’or- ganes par transillumination, appelée “optical computed to- mography”. Schématiquement, on peut distinguer trois types de photons. Les premiers, les photons dits « balistiques », se propagent en ligne droite et parviennent donc les premiers sur le détecteur. On sait qu’ils sont rares, mais on peut cal- culer leur temps de vol théorique : à la vitesse de la lumière, 170 picosecondes sont nécessaires pour traverser en ligne directe 5 cm de tissu biologique. La deuxième « espèce » de photon est appelée « quasi-balistique ». Plus imagé, l’adjec- tif anglais qui leur est appliqué, snake-like, (serpentine en français) indique que leur trajectoire reproduit le dessin d’un serpent. Ces photons subissent des modifications de trajec- toires limitées et sont donc peu retardés : pour les mêmes 5 cm d’épaisseur, ils sont détectés entre 240 et 290 ps. Si l’on sait fabriquer l’équivalent d’un obturateur ne s’ouvrant que pendant ce court instant, on imagine que l’image recueil- lie sera contrastée : une « ombre » se dessinera là où ne seront pas parvenus les photons absorbés par une tumeur. La résolution spatiale de l’imagerie optique a elle aussi considérablement progressé et des sociétés françaises y jouent un rôle important. Si la microscopie confocale est une technique de microscopie bien connue des histologistes, la Figures 3 : Résection chirurgicale d’un glioblastome - A : image en lumière blanche - B : image en lumière bleue. La fluorescence rose permet de visualiser la tumeur résiduelle – Le patient a reçu du Gliolan 3 heures avant l’intervention chirurgicale – Source : Pr. Reyns, CHRU de Lille. A B 92 REE N°3/2016 ❱❱❱❱❱❱❱❱❱❱❱ RETOUR SUR microscopie confocale fibrée ou endomicroscopie est une modalité émergente d’imagerie dont l’ambition est de re- pousser ses limites en transférant les techniques de micros- copie confocale de laboratoire à l’endoscopie. Elle fournit une biopsie optique, c’est à dire une image microscopique du tissu, in vivo, in situ, sur un champ de vue de quelques cen- taines de micromètres, à différents niveaux de profondeur. Enfin, il faut citer la tomographie optique cohérente (ou OCT pour Optical Coherence Tomography) qui vient de connaitre un développement particuliè- rement rapide, en particulier dans le do- maine de l’ophtalmologie, pour l’examen des détails structurels de la rétine. En une quinzaine d’années environ, cette tech- nique est passée de la preuve de concept à une disponibilité commerciale, au point de trouver maintenant un système d’OCT dans une proportion significative des ca- binets d’ophtalmologie. Portées par cet exemple, de nouvelles applications de cette technique émergent ces dernières années, grâce à l’amélioration et à la décli- naison de la méthode. Au sein du domaine de l’OCT, la tomographie optique cohé- rente plein champ – ou OCT plein champ ou encore FFOCT (Full-Field Optical Coherence Tomography) – présente des caractéristiques remarquables, en particulier en termes de résolution et de simplicité instrumentale, permettant d’envi- sager son application au domaine du diagnostic du cancer. La médecine nucléaire La fin du 19e et le début du 20e siècle furent aussi marqués par la radioactivité et par Marie Curie. A côté de son utilisation militaire ou de la production d’énergie, la radioactivité a vu depuis se développer un domaine spécifique de l’imagerie médicale, la médecine nucléaire. Le principe en est simple. On choisit une molécule dont on connaît le devenir dans l’organisme (par exemple le glucose qui est utilisé par les cel- lules cancéreuses comme substrat énergétique indispensable à leur prolifération). Couplée chimiquement à un radioisotope émetteur gamma, cette molécule radiomarquée, autrement appelée « radiopharmaceutique », est injectée au patient. Les photons gamma qu’elle émet sont détectés à l’extérieur du corps au moyen d’une caméra gamma. Celle-ci permet de déterminer la distribution en 3D de la radioactivité et son évolution au cours du temps. Cette radioactivité étant liée à la molécule étudiée, on peut suivre en temps réel et en 3D la distribution de cette molécule dans l’organisme et par là-même déterminer son métabolisme au niveau de tous les organes. On parle alors d’imagerie métabolique, en complé- ment de l’imagerie dite morphologique du scanner X. L’aventure commence en 1947, lorsque Kallman découvre le détecteur à scintillation, suivi en 1948 par Hofstadter qui découvre le NaI qui sera le cristal utilisé jusqu’à nos jours dans les caméras gamma. Le premier radioisotope uti- lisé en médecine fut l’iode-131. Une simple sonde placée en regard du cou mesurait la radioactivité au niveau de la glande thyroïde en fonction du temps. L’iode entrant dans la fabrication des hormones thyroïdiennes, la courbe ainsi obtenue était représen- tative du métabolisme thyroïdien. Dans les années 50 apparaît le scintigraphe à balayage. La sonde équipée d’un collima- teur permettant de « focaliser » la mesure de la radioactivité sur une petite surface, est alors fixée sur un bras motorisé qui, se déplaçant au-dessus de l’organe étudié, « balaye » ligne par ligne la surface de ce dernier. Cet appareil permettait de faire une mesure point par point et l’on obte- nait alors une image en projection de la distribution de radioactivité au sein d’un organe. La résolution d’un tel appareil était alors largement supérieure à deux centimètres… La première grande avancée est due à un chercheur de Berkeley, Hal Anger, qui imagina en 1957 la caméra gamma, encore aujourd’hui la machine de référence en médecine nucléaire (figure 4). Les premiers exemplaires furent com- mercialisés par la société Nuclear Chicago Corp à partir de 1962, bientôt suivie par Picker. Le cristal détecteur de NaI faisait alors quatre pouces de diamètre (10 cm) et 6 mm d’épaisseur, la caméra disposant de sept photomultiplica- teurs. Chaque détection d’un photon apparaissait sous forme d’un spot sur un écran cathodique qui impressionnait un film polaroïd. L’image de l’organe était obtenue après un temps d’acquisition de plusieurs minutes. Le champ de la caméra devait progresser rapidement, le cristal passant à 20 cm de diamètre, puis dès 1964 à 30 cm et ½ pouce (1,2 cm) d’épaisseur. Parallèlement, Stang et Richards de l’université de Brookhaven mettaient au point en 1960 le générateur de technetium 99m. Ce radioisotope qui émet un gamma pur de 140 keV était parfaitement adapté à la caméra d’Anger, d’où son succès. Il est devenu le radioisotope de référence le plus couramment utilisé en routine clinique ; il permet le marquage de centaines de molécules utilisables dans des pa- thologies très variées (osseuse, cardiaque, cérébrale, rénale, hépatique, pulmonaire, etc.). Le générateur de technetium Figure 4 : Caméra d’Hal Anger en 1958. C’est une soixantaine d’années après les premières radiographies X, le premier dispositif de caméra à scintillation, dont le principe est encore à la base des dispositifs actuels (un cristal ‘’scintillant’’ transforme les photons gamma en lumière). REE N°3/2016 93 L’imagerie médicale du 20e siècle 99m fonctionne à partir de la décroissance du molybdène 99. Le molybdène ayant une période de plusieurs jours, le générateur peut être à demeure dans les hôpitaux et per- mettre le radiomarquage à la demande. Une première révolution voyait le jour dans les années 70 avec l’introduction croissante de l’informatique et du trai- tement des données. La technique tomodensitométrique d’Hounsfield fut transposée en médecine nucléaire permet- tant d’obtenir des tomoscintigraphies. Le détecteur de la la caméra gamma étant plan, la reconstruction conduisait direc- tement à une représentation en 3D de la radioactivité au sein du corps humain. Les algorithmes initiaux de reconstruction par rétroprojection filtrée (théorème de Radon) ont été rem- placés par des méthodes itératives plus rapides, optimisables et permettant d’introduire en temps réel des corrections phy- siques (atténuation, diffusion Compton, effet de volume par- tiel, etc.). Les caméras gamma actuelles dites SPECT (Single Photon Emission Computed Tomography) sont équipées de deux têtes identiques, permettant l’acquisition tomogra- phique en rotation sur 180°, voire seulement 90° (en explo- ration cardiologique). Une deuxième révolution est intervenue dans les années 90 avec la vulgarisation des caméras à émission de posi- tons (TEP). Alors que le principe datait déjà des années 70, son utilisation était restée confidentielle, réservée à l’explo- ration du système nerveux central. La mise en évidence de la grande efficacité du glucose marqué au fluor-18 (18FDG) pour la détection des lésions cancéreuses, amenait une explosion du marché des caméras TEP. Ceci a eu pour ef- fet de stimuler la recherche et le transfert d’innovation sur les caméras TEP utilisées en clinique. Les caméras ont été ainsi dotées de cristaux de plus en plus rapides ou sensibles (BGO, LSO…). Elles sont désormais dotées de logiciel de cor- rection de temps de vol améliorant la résolution intrinsèque (voisine du millimètre) et de quantification de la distribution de radioactivité permettant le suivi dans le temps. La dernière révolution, probablement la plus importante sur le plan clinique est intervenue au changement de siècle avec l’apparition de machines « hybrides ». Les caméras gam- ma SPECT ou TEP sont désormais couplées avec un scanner (CT) ou une IRM. Les machines TEP-IRM de dernière géné- ration (figure 5) permettent ainsi l’acquisition simultanée des deux modalités, ce qui représente une vraie prouesse tech- nologique compte tenu des contraintes fortes liées à l’envi- ronnement de chacune d’entre elles. En un même temps, le clinicien accède ainsi à des informations de nature morpho- logique (anatomie), fonctionnelle et métabolique, l’examen ‘’corps entier’’ ne durant qu’une vingtaine de minutes ! L’avenir est prometteur. Ainsi la caméra d'Anger a déjà fait place aux caméras munies de détecteurs à semiconducteurs. Celles-ci, utilisées aujourd’hui en cardiologie, ont une sensi- bilité bien supérieure aux caméras classiques, permettant de réduire de moitié les temps d’acquisition. Si les détecteurs actuels (CZT) sont encore de taille modeste, les industriels planchent déjà sur des modèles permettant de faire des ac- quisitions « corps entier »… L’imagerie par résonance magnétique On situe souvent à tort la découverte de la résonance magnétique nucléaire (RMN) en 1946. En réalité, la décou- verte de la RMN est largement antérieure mais ce n’était alors qu’un problème de physiciens cherchant à mettre en évidence et quantifier le moment magnétique des noyaux atomiques. Entre 1920 et 1940, des physiciens comme W. Guerlach et O. Stern en 1922 (prix Nobel en 1943) ou I. Rabi en 1938 (prix Nobel en 1944) ont fait progresser ce domaine mais avec des technologies ne permettant pas d’applications sur des échantillons solides. Ce n’est en effet qu’en 1946 qu’une Figure 5 : Évaluation de la masse tumorale active. La complémentarité des images TEP et IRM permet de différencier le tissu tumoral résiduel de la radionécrose dans une tumeur cérébrale traitée – A : image IRM – B : image TEP obtenue avec un traceur tumoral – C : fusion des deux modalités. 94 REE N°4/2012 ❱❱❱❱❱❱❱❱❱❱❱ RETOUR SUR technique efficace de détection par l’induction d’un courant électrique dans une antenne lors d’une variation du champ magnétique et l’étude des phénomènes de relaxation, propo- sée par F. Bloch et E. Purcell (prix Nobel en 1952) permirent les applications, d’abord en chimie puis en biologie et méde- cine. Du domaine réservé des physiciens dans les années 50, la RMN est alors passée à celui des chimistes dans les années 60, avant de devenir à la fin des années 70 une méthode fondamentale pour l’imagerie (IRM) et la spectroscopie (SRM) in-vivo (imagerie spectroscopique) ou ex-vivo (analyse spec- trométrique de liquides biologiques ou de biopsies). Le principe fondamental de la RMN est relativement simple à résumer avec une approche quantique, même si sa réalisation expérimentale est difficile. Les spins nucléaires d’un échantillon placé dans un champ magnétique homo- gène (B0 ), par exemple dans le cas du proton, noyau majo- ritairement utilisé en IRM, se répartissent en deux niveaux quantiques de spins respectivement parallèles et antiparal- lèles au champ magnétique inducteur. On envoie alors un champ radio-fréquence RF (B1), à une fréquence donnée par la relation de Planck-Einstein h et correspondant à l’écart entre les deux niveaux quantiques. Les spins sont alors placés dans un état excité et reviennent à l’équilibre par deux phénomènes de relaxation dépendant du milieu : la relaxation spin-réseau (T1) et la relaxation spin-spin (T2). Les trois principaux paramètres conditionnant l’intensité du signal dans chaque pixel 3D (ou voxel) de l’IRM sont donc le T1, le T2 et la densité de spins N(H). Le choix de séquences complexes d’impulsion RF (le plus souvent utilisant l’écho de spin) permet de pondérer l’image prioritairement en T1, T2 ou N(H). Le problème technique pour obtenir une image est alors le codage spatial du signal. On utilise pour cela des gradients du champ magnétique B0 qui permettent par la fréquence et la phase de coder chaque point de l’échantillon par une transformée de Fourier bi (2D-FT) ou tri-dimension- nelle (3D-FT). L’idée d’appliquer la RMN à la médecine a été initiale- ment développée par R. Damadian. Dans un article célèbre publié dans la revue Science en 1971, il a montré que les temps de relaxation mesurés ex-vivo dans un tissu cancéreux étaient très différents de ceux du tissu sain de référence. Il a ensuite tenté de développer l’imagerie et a réalisé en 1977 sur lui-même la première image du corps humain mais avec un temps d’acquisition et une résolution spatiale peu compatibles avec une application médicale de routine. Il créa ensuite une entreprise commercialisant des appareils d’IRM à aimant permanent, le système Fonar. Hélas, ses convic- tions religieuses créationnistes et son souci de développer un business rentable autour de l’instrumentation IRM, l’ont mar- ginalisé dans la communauté universitaire et opposé à son grand rival, P. Lauterbur. C’est pourquoi, la tentative au dé- but des années 80 de lui faire attribuer conjointement avec P. Lauterbur un prix Nobel a échoué. Le président Reagan lui attribuera en 1988, ainsi qu’à Lauterbur, la National Medal of Technology, mais ce n’est qu’en 2003 qu’un prix Nobel pour la découverte de l’IRM sera attribué à P. Lauterbur et P. Mansfield, Damadian étant « oublié ». Par rapport à d’autres techniques d’imagerie médicale, l’IRM présente à la fois des avantages et des inconvénients. Par rapport à la tomodensitométrie, elle présente l’avantage d’analyser les tissus mous riches en protons mobiles (eau libre ou eau liée aux biomolécules), d’où son intérêt en on- cologie, alors que les rayons X détectent prioritairement les tissus durs comme les os. Par rapport à la scintigraphie ou à la caméra à positons, elle présente l’avantage de ne pas nécessiter l’injection d’un traceur radioactif. Contrairement à ces deux méthodes, l’IRM ne met pas en jeu de radiations ionisantes. Par contre, l’IRM du fait d’une instrumentation complexe reste une technique chère notamment par rap- port au scanner X et surtout à l’échographie. De plus sa sensibilité est très faible dans la mesure où le signal dé- tecté provient de la différence entre les spins parallèles et antiparallèles, soit d’un spin sur un million. Cette limitation provient du mode de détection établi par Bloch et Purcell en 1946, date depuis laquelle les progrès considérables, quelques milliers en rapport signal/bruit, ont été dus à l’ins- trumentation : antennes de détection et notamment les ré- seaux d’antennes, qualité des impulsions RF, traitement du signal et de l’image, développement d’agents de contraste paramagnétiques (d’ailleurs surutilisés), développement d’appareils adaptés pour l’IRM interventionnelle, qualité des aimants supraconducteurs et montée en intensité du champ magnétique B0 . Toutefois, cette montée d’intensité du champ magnétique, passant en 30 ans pour les IRM hospitalières, de 0,3 à 3 T (Tesla) n’a sans doute pas eu que des avantages, bloquant pour des raisons commerciales la filière des IRM écono- miques à bas champ. Une étude commanditée dans les an- nées 80 par le ministère français de la santé avait conclu que les deux voies à développer étaient d’une part des appareils à bas champ et bas prix pour l’IRM de routine dans certaines localisations, domaine où à l’époque une entreprise fran- çaise, Magnetech, avait une certaine avance technologique, et d’autre part une montée en champ (1,5 et aujourd’hui 3T) pour l’imagerie rapide, par exemple la ciné-IRM en cardio- logie, la neuro-imagerie ou l’imagerie spectroscopique. Les bas champs avaient une moindre sensibilité, donc des temps d’acquisition plus longs mais le contraste intrinsèque entre REE N°3/2016 95 L’imagerie médicale du 20e siècle tissus biologiques est plutôt meilleur à bas champ qu’à fort champ. L’instrumentation dominante à l'époque, utilisant un champ de 0,5 T, présentait simultanément les inconvénients en sensibilité des bas champs et les coûts d’instrumenta- tion liés aux aimants supraconducteurs à fort champ. C’est pourtant la filière à 0,5 T (maintenant disparue) que le gou- vernement décida de soutenir, contribuant sans doute ainsi au naufrage de l’industrie française d’imagerie médicale et au rachat de la CGR (Compagnie générale de radiologie) française par l’américain GE. La France souffre aujourd’hui, notamment par rapport à la plupart des pays européens, d’un déficit flagrant en nombre d’installations d’IRM. L’IRM présente-t-elle des dangers potentiels pour le patient ? Dans un champ magnétique intense, la réorien- tation de systèmes plurimoléculaires, comme par exemple les membranes cellulaires, peut induire des effets biologiques réversibles, par exemple des activations ou désacti- vations de biomolécules intramem- branaires ; cela a été maintes fois démontré comme cela l’avait été par P.G. de Gennes (Prix Nobel en 1991) pour les cristaux liquides. Toutefois, cet effet biomoléculaire d’un champ magnétique ne paraît pas dangereux dans les conditions actuelles d’acquisi- tion IRM, contrairement aux effets de rotation ou de déplacement d’implants métalliques ferromagnétiques, voire au dérèglement d’implants actifs comme certains pacemakers. Un autre danger vient du champ RF B1 dont les effets thermiques sont bien connus mais difficiles à modéliser et dont les effets potentiels non-thermiques sont très mal connus. Même s’il n’y a pas de radiations ionisantes, l’IRM implique donc le respect de certaines règles de précaution. Outre le gain en sensibilité avec la montée en champ, des progrès considérables ont été réalisés en IRM depuis 30 ans. Citons par exemple les utilisations sophistiquées de gradients de champ pour l’IRM de diffusion (DTI ou “Diffusion Tensor Imaging”), l’imagerie 3D (figure 6), la ciné-IRM (on sait faire des acquisitions à la vitesse du cinéma), l’angiogra- phie et l’élastographie par IRM… L'IRM obtenue par d'autres noyaux que le proton se développe aussi, par exemple celle du 23 Na qui devient intéressante depuis qu’elle sait distin- guer le sodium intra-cellulaire du sodium extra-cellulaire. Un autre domaine majeur est la SRM ouvrant sur l’imagerie spectroscopique qui construit des cartographies moléculaires du corps humain, au moins pour certaines molécules, qui sont déjà largement appliquées en neuro-oncologie. La SRM du 31 P permet de suivre le métabolisme énergétique et de mesurer in-vivo des vitesses de réaction enzymatique par les techniques de transfert d’aimantation… On peut penser qu’aujourd’hui, les techniques mises en œuvre en routine hospitalière ne représentent qu’environ 10 % de ce que l’on est déjà capable de faire. Quelles seraient, au-delà des nombreux progrès incré- mentaux depuis 30 ans, les potentielles innovations de rup- ture qui révolutionneraient l’IRM ? L’une d’entre elles serait le développement de matériaux supraconducteurs fiables à température ambiante dont on rêve depuis les travaux de K. Müller et J. Bednorz (prix Nobel en 1987) ; cela per- mettrait des IRM à fort champ avec une instrumentation d’aimant moins complexe et un coût de fonctionnement réduit ainsi qu’un développement aisé d’antennes supra- conductrices. L’autre innovation majeure serait de rompre avec le mode de dé- tection développé en 1946 par Bloch et Purcell et de gagner ainsi un facteur 106 en sensibilité : au début des années 90, deux équipes, l’une américaine et l’autre franco-polonaise, en ont montré la possibilité théorique. J.A. Sidles et D. Rugar ont ainsi réalisé une nano-IRM dans des conditions techniques très particulières (film moléculaire dans l’Hé- lium liquide) et exigeant des gradients de champ magnétique incompatibles avec des organismes vivants et tech- niquement très complexes à produire au-delà de volumes microscopiques. A l’heure des nanotechnologies, ce fut quand même une avancée majeure, sinon pour l’IRM ou la SRM in-vivo, du moins pour l’espoir d’une nano-IRM inframoléculaire. A seu- lement une trentaine d’années d’existence, l’IRM est proba- blement encore loin d’avoir exploité toutes ses potentialités. Conclusion Le 21e siècle sera-t-il aussi fécond ? Des modalités d’images plus rapides encore, à ultra-haute résolution en espace et en temps, moins irradiantes, mieux contrastées, certainement. Des systèmes plus intégrés que séquentiellement couplés, des dispositifs miniaturisés pour des explorations locales et sélectives à très haute résolution ? L’arrivée en force de la génomique, de la protéomique signera-t-elle des marqueurs fonctionnels plus efficaces pour des examens in-vivo ? Figure 6 : Un exemple d’image 1RM 3D. Coupe 2D extraite d’une IRM 3D acquise à 3T en 10 minutes avec une résolution de 1 mm3 . Source : CHU de Rennes. 96 REE N°3/2016 ❱❱❱❱❱❱❱❱❱❱❱ RETOUR SUR Tout est possible et c’est sans doute pour cela que la re- cherche reste une passion pour ceux qui en font métier. Il ne faudra pas croire pour autant qu’un patient se réduira à quelques images, aussi belles et significatives soient-elles. La véritable médecine personnalisée de demain sera celle qui sera aussi capable de le comprendre comme une individua- lité à part entière, dans sa complexité simplement humaine. Pour en savoir plus Masson Ed., 2013 apprentissage, Elsevier Masson Ed., 2011 la neuro-imagerie. La pensée sous l’œil de l’IRM, Odile Jacob Ed., 2012 2004 guidés par la fluorescence - juin-juillet 2015 (Chapitre 7.2 de l’ouvrage coordonné par Nicolas Treps et Sciences, 2010) Jean-Louis Coatrieux est directeur de recherche émérite à l’INSERM (Institut national de la santé et la recherche médicale) dont il a dirigé le laboratoire Traitement du signal et de l’image de Rennes jusqu’en 2003. Fellow IEEE, EAMBES, AIMBE, il a été de 1996 à 2001 éditeur-en-chef de la revue IEEE Transactions on Biomedical Engineering ; il a été distingué par la IEEE Millenium Award (2000) et la IEEE Career Achievement Award (2006). Il a publié plus de 200 articles en revues et il est docteur Honoris Causa de SouthEast University (Chine). Patrick Bourguet est professeur émérite de biophysique et médecine nucléaire à l’université de Rennes 1. Ancien directeur du Centre régional de lutte contre le cancer de Rennes, il est éga- lement ancien président de l’Association européenne de médecine nucléaire (EANM) ; il est l’auteur de près de 150 articles essentiel- lement dans le domaine de l’imagerie nucléaire en cancérologie. Jacques de Certaines est biophysicien. Après un séjour post- doctoral à Harvard Medical School, il a fait l’essentiel de sa car- rière à l’université de Rennes. Il y a dirigé le laboratoire de RMN en biologie et médecine à la faculté de médecine ainsi que le département biologie du centre anti-cancéreux. Auteur de quatre ouvrages et de 120 publications internationales sur les applica- tions biomédicales de la RMN, il a aussi produit avec le CNED un film de vulgarisation scientifique (prix du film scientifique au New-York festival). Jacques de Certaines a été adjoint au maire de Rennes en charge de la recherche et a présidé le Technopole de Rennes Atalante de 1998 à 2006. Il est co-auteur de deux essais sur les enjeux de l’économie régionale « Secoue-toi, Bretagne » (2013) et « Bretagne en crise ? » (2015). Serge Mordon est directeur de recherche à l’INSERM, dont il dirige à Lille l’unité U 1189 (thérapies laser assistées par l’image pour l’oncologie). Depuis 1981, ses recherches concernent l’étude, la modélisation et le développement de nouvelles appli- cations médicales des lasers ; elles ont concerné de nouveaux instruments lasers pour la dermatologie et la chirurgie. Il est ré- dacteur associé de la revue Lasers in Surgery and Medicine et membre du Board de l’American Society for Lasers in Medicine and Surgery ; il préside la Société francophone des lasers médi- caux. Il enseigne dans plusieurs universités et a été nommé, en janvier 2015, Finland Distinguished Professor. Léandre Pourcelot est ingénieur de formation. Sa thèse et ses travaux de recherche ont porté sur l’étude des flux sanguins par effet Doppler et ont conduit à des dispositifs utilisés en chirur- gie et médecine. En particulier il est à l’origine de l’échographie Doppler et des appareils utilisés par les astronautes depuis 1982. Professeur à l’université de Tours, il complète ses études en de- venant médecin et se tourne vers la médecine nucléaire ; il a dirigé pendant un quart de siècle le département de médecine nucléaire et ultrasons du CHU local. Léandre Pourcelot a cofondé plusieurs entreprises mettant en œuvre des travaux qui lui ont valu de nombreuses distinctions de l'Académie nationale de mé- decine, de l’Académie des sciences, ainsi que de la SEE dont la médaille Ampère lui a été décernée en 1997. LES AUTEURS