Les réseaux de télécommunications optiques : construction, évolution et perspectives

26/08/2017
OAI : oai:www.see.asso.fr:1301:2012-1:19593
DOI :

Résumé

Les réseaux de télécommunications optiques : construction, évolution et perspectives

Métriques

18
7
489.4 Ko
 application/pdf
bitcache://9acfb5c56d9a39641a81d9f7e0d7e1d5364a9029

Licence

Creative Commons Aucune (Tous droits réservés)
<resource  xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
                xmlns="http://datacite.org/schema/kernel-4"
                xsi:schemaLocation="http://datacite.org/schema/kernel-4 http://schema.datacite.org/meta/kernel-4/metadata.xsd">
        <identifier identifierType="DOI">10.23723/1301:2012-1/19593</identifier><creators><creator><creatorName>Michel Joindot</creatorName></creator><creator><creatorName>Irène Joindot</creatorName></creator></creators><titles>
            <title>Les réseaux de télécommunications optiques : construction, évolution et perspectives</title></titles>
        <publisher>SEE</publisher>
        <publicationYear>2017</publicationYear>
        <resourceType resourceTypeGeneral="Text">Text</resourceType><dates>
	    <date dateType="Created">Sat 26 Aug 2017</date>
	    <date dateType="Updated">Sat 26 Aug 2017</date>
            <date dateType="Submitted">Wed 19 Sep 2018</date>
	</dates>
        <alternateIdentifiers>
	    <alternateIdentifier alternateIdentifierType="bitstream">9acfb5c56d9a39641a81d9f7e0d7e1d5364a9029</alternateIdentifier>
	</alternateIdentifiers>
        <formats>
	    <format>application/pdf</format>
	</formats>
	<version>33329</version>
        <descriptions>
            <description descriptionType="Abstract"></description>
        </descriptions>
    </resource>
.

24 ◗ REE N°1/2012 Lasers, fibres et télécommunications Michel Joindot Irène Joindot Introduction L’optique est devenue en trente ans une technique majeure dans les réseaux de télécommunications : ce sont les fibres et les composants optiques qui rendent possible aujourd’hui la transmission de débits d’infor- mations énormes aussi bien dans les réseaux natio- naux qu’entre les continents, et permettent ainsi de répondre à la demande liée à la croissance du trafic de données, lui-même associé au développement de l’Internet à haut débit. Mais c’est aussi la fibre opti- que qui permettra d’apporter jusque chez le client un raccordement à haut débit, à plusieurs Gbit/s, voire plusieurs dizaines de Gbit/s. L’hégémonie actuelle et les perspectives qui s’ouvrent à la transmission optique n’ont été possi- bles que grâce à un effort considérable de recherche conduit entre 1960 et 1990, qui a permis la mise au point des diverses briques de base (fibres, lasers…) nécessaires à la réalisation d’un système de trans- mission. Cette période est largement relatée dans les trois autres articles et nous n’y reviendrons pas. Rappelons simplement que la fibre optique, consti- tuant fondamental de la transmission optique, ne se- rait rien sans cette source de lumière qu’est le laser, et plus précisément le laser à semi-conducteur. Aux propriétés classiques de cohérence et de directivité, propres à tout laser, le laser à semi-conducteur ajoute sa compacité, son intégrabilité dans les équipements et sa capacité à être modulé directement par un cou- rant électrique. Cet article relatera d’abord l’histoire de la pénétra- tion de la technique de transmission optique dans les réseaux, depuis les années 80 jusqu’à aujourd’hui. Nous montrerons comment les progrès techniques qui se sont poursuivis de manière incessante ont conduit à une explosion en termes de capacités, ab- solument inconcevable dans les réseaux d’autrefois et à une révolution dans l’architecture de ceux-ci. Nous essayerons également de dessiner ce que pourraient être les évolutions futures. La pénétration de l'optique dans les réseaux dans la période 1980-1995 : des premiers systèmes optiques à l’avènement du multiplexage en longueur d’onde - Les premiers systèmes Les premiers systèmes de transmission optique sur fibre apparaissent au début des années 80 dans Les réseaux de télécommunications optiques : construction, évolution et perspectives For thirty years, optical communications have completely transformed the telecommunication networks. This paper describes the history of optical communications, the introduction of the first systems at the beginning of the 80s, the continuous technical improvements leading to the absolute domination of the optical technology in the backbone networks, and the advent of Wavelength Division Multiplexing (WDM) associated with the optical fiber amplifier, which paved the way to an enormous capacity increase of the installed fiber networks. We describe the always increased performance of the WDM technology up to the last developments which offer the possibility of transmitting several Tbit/s on a single fiber and make the issue of the ultimate fiber capacity in terms of information theory meaningful. It is also shown how the transformation of backbone networks is far beyond the increase of the transmission links capacity and concerns the traffic nature (data instead of voice) as well as the architecture. The introduction of the optical fiber into the access networks opens the way to very high bandwidth connections for users: the history of optical access is described, the latest developments and perspectives are presented, the major differences with core networks, especially as far as cost is concerned, are evocated. abstract REE N°1/2012 ◗ 25 Les réseaux de télécommunications optiques : construction, évolution et perspectives ce que l’on appelle alors le réseau interurbain, c’est-à-dire le réseau qui relie les pôles nationaux ou régionaux, par oppo- sition au réseau de distribution, qui est la partie terminale desservant l’abonné. Il s’agit de systèmes numériques, c’est- à-dire que des répéteurs-régénérateurs opto-électroniques répartis le long de la ligne de transmission régénèrent le si- gnal optique lorsqu’il atteint un certain niveau de distorsion. Le signal optique est alors transformé en un signal électrique dans une photodiode (c’est ce que l’on appelle la détection directe), l’information est extraite, et les données remodulent une onde optique envoyée sur le pas suivant. Ces premiers systèmes offraient un débit de 34 ou 140 Mbit/s par fibre, avec un pas de régénération de 40 km environ. A l’époque, les réseaux interurbains reposent sur deux techniques de transmission, le câble coaxial et le faisceau hertzien ([1], [2], [3]) : ces réseaux sont par ailleurs en cours de numérisation et une part notable de la transmission utilise encore les techniques analogiques. Nous ne considérerons ici que les systèmes numériques. Les systèmes numériques sur câble coaxial (140 et 560 Mbit/s par paire) ont un pas de régénération de 4 km environ à 140 Mbit/s et même de moins de 2 km à 560 Mbit/s. Cette né- cessité de régénérer le signal aussi fréquemment est la consé- quence de la grande sélectivité en fréquence du câble coaxial, qui entraîne des sévères distorsions des signaux transmis. Les faisceaux hertziens numériques transmettent typique- ment 8 canaux à 140 Mbit/s, avec un pas de régénération de 50 km environ (c’est la distance moyenne entre tours hert- ziennes dans le réseau). L’hertzien est donc très nettement plus favorable que le câble en ce qui concerne le nombre de points de régénération sur une liaison donnée. L’objectif affiché des exploitants du réseau est à cette épo- que un partage équilibré du trafic entre les deux types de systèmes, hertzien et sur câble, permettant une sécurisation des uns par les autres. En effet, la radio et le câble ne sont pas affectés par le même type de défauts, les câbles sont essentiellement sujets à des coupures accidentelles, qui né- cessitent une intervention pour réparation, la radio est en revanche sujette à des aléas de propagation, qui sont par définition « auto-réparables ». La fibre optique s’impose rapidement face au câble coaxial grâce à son pas de régénération beaucoup plus élevé : la réduction dans un rapport dix du nombre d’équipements de régénération en ligne diminue évidemment de manière considérable le coût et la complexité des systèmes. De plus, compte tenu des dimensions d’une fibre qui sont beaucoup plus faibles que celles d’une paire coaxiale, le diamètre d’un câble optique est, à capacité égale, très inférieur à celui d’un câble à paires coaxiales. Si l’optique présente un avantage évident par rapport au câble coaxial, elle n’a pas en revanche d’avantage déterminant vis-à-vis du faisceau hertzien, ni en termes de capacité, ni en termes de pas de régénération. On assistera donc à l’élimination rapide du câble coaxial et à une période de coexistence entre la fibre optique et les faisceaux hertziens. Au fil des années, les caractéristiques des systèmes de trans- mission optique ont considérablement évolué : on est passé des fibres multimodales aux fibres monomodales et des lasers à semi-conducteur émettant à 850 nm (qu’on savait fabriquer d’abord) aux lasers émettant à 1 300 nm (pour ne pas être gêné par la dispersion chromatique) puis à 1 550 nm (pour bénéficier du minimum d’atténuation lorsqu’on eut appris à compenser la dispersion chromatique). On trouvera plus d’in- formations sur les systèmes optiques de cette période dans les références [3], [4], [5]. On a pris l’habitude pour désigner ces trois bandes spec- trales autour de 850, 1  300, et 1  550 nm, de parler des fenêtres des télécommunications. La première n’est plus aujourd’hui utilisée, la bande des 1 550 nm encore appelée bande C est quasiment la seule utilisée dans les réseaux de transmission. Quelques démonstrations ont cependant été faites à 1 300 nm, notamment en utilisant des amplificateurs à semi-conducteur. La bande des 1 300 nm sera en revan- che utilisée dans les réseaux d’accès optiques, où deux lon- gueurs d’onde bien distinctes sont affectées à la transmission du réseau vers le client d’une part, du client vers le réseau d’autre part. Nous y reviendrons. - La réception cohérente Comme la radio à ses débuts, la transmission optique bu- tait sur la mauvaise sensibilité de la détection directe, qui est limitée par le bruit thermique de l’électronique de détection. Par ailleurs, la photodiode, sensible uniquement à la puissance du signal qui l’illumine, ne peut évidemment pas détecter une modulation de phase, et celle-ci ne peut être employée dans les systèmes utilisant la détection directe. L’idée est alors apparue de recourir à la réception « co- hérente », c’est-à-dire de faire battre le signal reçu avec un oscillateur local (récepteur hétérodyne), pour retrouver en fréquence intermédiaire un signal électrique porteur de la même modulation que le signal optique incident. Le batte- ment est simplement réalisé en détectant la somme du si- gnal reçu et d’une porteuse pure issue d’un oscillateur local. La figure 1 illustre les principes comparés de la détection di- recte et de la réception hétérodyne, sur laquelle on trouvera plus d’informations dans [6]. Cette approche familière au monde de la radio présente deux avantages essentiels : 26 ◗ REE N°1/2012 Lasers, fibres et télécommunications • Tout d’abord la sensibilité du récepteur est considérable- ment améliorée  : à condition d’augmenter suffisamment la puissance de l’oscillateur local, il est possible de faire du bruit de grenaille de celui-ci la principale contribution de bruit et d’écraser ainsi le bruit thermique de l’électronique. • Ensuite, la réception hétérodyne permet d’utiliser tout l’éventail des modulations utilisées en radio, modulations d’amplitude, de phase, de fréquence et toutes les modu- lations « hybrides » (par exemple les modulations d’ampli- tude sur deux porteuses en quadrature, désignées sous l’acronyme MAQ ou en anglais QAM Quadrature Amplitude Modulation). La recherche sur ce sujet sera très active dans la décennie 1980-1990, donnant lieu à de nombreuses réalisations dans des laboratoires académiques et industriels. Le Centre Natio- nal d’Etudes des Télécommunications (CNET) conduira par exemple en 1985/86 un projet dit « Monomode », qui visait à transmettre 280 Mbit/s sur une porteuse optique en utilisant la modulation de phase différentielle à quatre états (DQPSK Differential Quadrature Phase Shift Keying) et la réception hétérodyne avec une fréquence intermédiaire à 1,5 GHz. Aucun développement commercial n’intervint pourtant, et ce pour deux raisons. D’une part, l’intégration des récepteurs, incluant l’oscillateur local (laser) et les dispositifs de contrôle de la polarisation (puisque les polarisations du signal incident et de l’oscillateur local doivent être alignées), était difficile avec les techniques disponibles à l’époque. D’autre part, les amplificateurs à fibre dopée, que nous évoquerons plus loin, apporteront le gain de sensibilité qui était l’un des intérêts de la réception cohérente. - L’hégémonie de l’optique dans les réseaux interurbains  Au début des années 1990, les progrès conjoints de l’électronique et de l’optique permettent de réaliser des sys- tèmes optiques à très grande capacité par rapport à tout ce qui existait jusque là. Il s’agit de systèmes numériques, trans- portant un débit de 2,5 Gbit/s par fibre, et autorisant un pas de régénération de 80 km environ (soit environ 20 dB de pertes entre émetteur et récepteur). Ils utilisent des lasers DFB à 1 550 nm à modulation directe. Il faut noter que ce débit de 2,5 Gbit/s, bien que très élevé par rapport à celui des systèmes optiques antérieurs et des faisceaux hertziens, reste très faible par rapport à la capacité potentielle de la fibre. La portée est essentiellement limitée par les pertes, et elle est déterminée par l’écart entre la puissance émise et la puissance minimale requise à l’entrée du récepteur pour garantir une certaine qualité de transmission, c’est-à-dire une certaine probabilité d’erreur. La distance de l’ordre de 100  km est beaucoup trop faible pour que la dispersion chromatique affecte les impulsions transmises de manière significative : dans le cas de la fibre standard qui équipe la plupart des réseaux, avec une dispersion de 17 ps/(nm.km), les limitations dues à la dispersion commencent à apparaître autour de 1 000 km. Enfin, la puissance émise est bien trop faible pour que les effets non-linéaires aient une quelconque influence. La fibre optique apparaît donc alors comme un milieu de transmission absolument idéal, qui ne distord pas les si- gnaux transmis et présente une totale stabilité dans le temps (contrairement aux faisceaux hertziens affectés par des éva- nouissements sélectifs et non sélectifs). Entre 1990 et 1993 se constitue en France un réseau inte- rurbain de câbles optiques, utilisant des systèmes à 2,5 Gbit/s, avec un pas de régénération moyen de 80 km environ. Dès lors, les faisceaux hertziens ne peuvent plus concurrencer la fibre optique, qui apporte un avantage déterminant en termes de capacité et de qualité de transmission. La période de coha- bitation que nous avons évoquée laisse donc la place à l’hé- gémonie absolue de l’optique dans les réseaux interurbains, que l’on désigne désormais sous le nom de réseaux « cœur » (en anglais “backbone networks”). - La pénétration de l’optique dans les réseaux intercontinentaux : les premiers câbles sous- marins optiques Des câbles transatlantiques existent bien depuis le XIXe siècle, mais ce sont exclusivement des câbles télégraphi- ques : le premier a été posé le 5 août 1868 entre le Royau- me-Uni et les USA. Le premier câble téléphonique (TAT1), transportant 36 voies, entre en service seulement en sep- tembre 1956, donc près de cent ans plus tard : il s’agit d’un câble métallique coaxial. S’il a fallu attendre aussi longtemps, Figure 1 : Principes comparés de la détection directe et de la réception hétérodyne. REE N°1/2012 ◗ 27 Les réseaux de télécommunications optiques : construction, évolution et perspectives c’est que le signal téléphonique, contrairement au signal télé- graphique, exige des répéteurs pour franchir les 6 500 km de la traversée de l’Atlantique Nord. Ce n’est donc que lorsque des tubes à vide suffisamment fiables ont été disponibles que le premier câble téléphonique a pu être posé. Six autres suivront, tous analogiques, les transistors devenus des com- posants fiables remplaçant les tubes à vide. En 1988 est posé le premier câble optique (TAT 8) [7]. Il compte deux paires de fibres et transporte 280 Mbit/s par paire (soit 40 000 voies téléphoniques en tout), et les ré- générateurs sont espacés de 40 km. La longueur d’onde est 1 300 nm. Trois autres câbles optiques seront posés, mais cette fois la longueur d’onde est de 1 550 nm, selon l’évolu- tion suivie également par les systèmes terrestres. L’optique qui s’impose dans les réseaux interurbains natio- naux tend également à jouer un rôle hégémonique dans les liaisons intercontinentales. - L’optique dans les réseaux d’accès des années 80 à la fin des années 90 : des espérances mais pas de concrétisation Dès le début de la transmission optique, le remplacement par une fibre optique du fil de cuivre qui reliait depuis des décennies l’abonné à son autocommutateur de rattache- ment était dans les esprits ; au cours des années 70 et 80, la transmission d’images semblait promise à un grand avenir à relativement court terme et les premiers visiophones avaient été développés à titre expérimental. Il était évident que la transmission des images imposerait une augmentation très importante des débits non seulement dans les réseaux à lon- gue distance mais également dans le réseau de distribution, qui par ailleurs restait encore très largement analogique. La transmission de tels débits (plusieurs centaines de kbit/s, voire des Mbit/s) était a priori incompatible avec les caractéristiques de la ligne d’abonné en cuivre. Des recher- ches sur le raccordement optique étaient menées et des démonstrations expérimentales entreprises. Il est très impor- tant de garder à l’esprit que l’application de l’optique, comme de n’importe quelle technique, au réseau de distribution, impose des composants bon marché et que les contrain- tes économiques sont sans rapport avec celles qui prévalent dans le cas d’équipements pour les réseaux à longue dis- tance. En d’autres termes, une solution applicable dans le réseau « cœur » n’est pas nécessairement transposable dans le réseau de distribution. Ce n’était pas cependant l’avenir envisagé dans les années 70, à savoir le développement de la transmission d’images chez l’abonné, qui allait se réaliser : à la fin des années 1980, Internet qui était jusque là confiné au monde des universi- tés devient un réseau public, tandis que les premiers ordina- teurs « portables » apparaissent. Ce sont là les prémices d’une évolution radicale des réseaux de télécommunications, dans lesquels la transmission des données va devenir de plus en plus dominante par rapport à la voix, qui représentait le trafic traditionnel de la téléphonie. Un besoin de connexion numérique de l’abonné pour ac- céder à Internet se manifeste donc : il sera d’abord satisfait par les modems dits « RTC » (réseau téléphonique commuté) qui permettent la transmission de 56 kbit/s dans la bande de fréquence de 4 kHz occupée par une voix téléphonique. La perspective de débits beaucoup plus élevés laisse entrevoir la possibilité de services beaucoup plus riches : le développe- ment de l’accès à Internet passe donc par une augmentation du débit transmis par la ligne d’abonné, et l’optique apparaît naturellement à même de satisfaire ce besoin. Toutefois une nouveauté technique allait stopper le dé- veloppement potentiel de la distribution par fibre optique : à la fin des années 80, les progrès du traitement du signal et de l’électronique associée permirent en effet l’apparition de la technique ADSL (Asynchronous Digital Subscriber Line) qui augmentait de manière considérable le débit transmissible sur une ligne d’abonné en cuivre. Il devenait alors possible de transmettre plusieurs centaines de kbit/s jusque chez l’abonné et les évolutions ultérieures de l’ADSL et des techniques (VDSL, XDSL) permettront même d’atteindre plusieurs Mbit/s ; il faut toutefois noter que le débit qui peut être transmis dépend for- tement de la distance entre l’autocommutateur et le terminal de l’abonné, ce qui n’est pas le cas avec une fibre optique. Quoi qu’il en soit, l’ADSL permettait de répondre au dé- veloppement du trafic Internet et de proposer des services nouveaux sans changement de l’infrastructure ; il constituait pour les opérateurs une valorisation considérable du patri- moine constitué par le cuivre enterré. Cette innovation technique répondant au besoin du mo- ment contribuera à mettre en sommeil, pendant un certain temps, les idées de raccordement optique. L’optique a cependant été utilisée à partir de 1986 dans les réseaux de vidéocommunications, pour le transport de canaux de télévision, analogiques ou numériques (réseaux câblés). Des essais de raccordement d’abonnés par fibre op- tique ont été entrepris dès 1988. La révolution du multiplexage en longueur d’onde - L’introduction de l’amplificateur optique à fibre ([8], [9]) Autour de 1995, la question de l’amplification demeurée non résolue trouve, avec l’amplificateur à fibre dopée, une 28 ◗ REE N°1/2012 Lasers, fibres et télécommunications solution qui débouche très vite sur un produit industriel. Grâce à sa large bande d’amplification, l’amplificateur optique est capable d’amplifier simultanément plusieurs porteuses optiques transportées par une fibre, et il possède même la propriété de réaliser cette opération sans interférence entre les différents canaux. Ceci rend possible la mise en œuvre du multiplexage en longueur d’onde (en anglais WDM  : Wavelength Division Multiplexing) : un ensemble de N fibres portant chacune une porteuse optique est remplacé par une fibre unique transpor- tant N canaux. Les N régénérateurs associés aux N fibres sont remplacés par un amplificateur à fibre unique qui amplifie simultanément les N canaux. La figure 2 illustre la révolution apportée par le WDM. Cette approche est économiquement très intéressante, car le coût de l’amplificateur est partagé entre les canaux qu’il amplifie ; en d’autres termes, le coût de l’amplificateur est bien inférieur à celui de N régénérateurs. - L’amplificateur optique à fibre dopée En 1964, Elias Snitzer de Polaroïd, met en évidence la possibilité d’amplifier un signal dans une fibre dopée au néo- dyme et dépose un brevet sur l’amplificateur optique (Opti- cal Amplifier). Les recherches se poursuivent sur ce sujet, en vue de réaliser des lasers et amplificateurs pour télécommu- nications optiques à la longueur d’onde de 1 060 nm. Mais le développement des diodes laser à 1 300, puis 1 550 nm, met ces études en sommeil. En 1985, l’université de Southampton et les Bell Laboratories démontrent la possibilité de l’amplification dans la bande des 1 550 nm dans des fibres dopées à l’erbium. Le développe- ment des diodes de pompe (diodes laser à semi-conducteur) fera de l’amplificateur à fibre dopée à l’erbium (en anglais EDFA Erbium Doped Fiber Amplifier) un produit réellement utilisable. La figure 3 représente la structure d’un amplificateur à fi- bre dopée : le signal de la pompe à 980 nm introduit dans la fibre grâce à un multiplexeur, crée l’inversion de population qui permet l’amplification du signal à 1 550 nm. La bande d’amplification de l’EDFA est la bande C, s’étendant de 1 530 à 1 560 nm. En dopant la fibre avec d’autres maté- riaux de la famille des terres rares que l’erbium (thulium, praséo- dyme, néodyme), il est possible de couvrir d’autres bandes. Des démonstrations ont été effectuées en laboratoire, mais l’EDFA reste en pratique le seul amplificateur utilisé dans les systèmes WDM, qui travaillent dans leur immense majorité en bande C. - Impact sur la structure des systèmes et des réseaux L’association du multiplexage en longueur d’onde et de l’amplificateur à fibre dopée introduit un bouleversement complet dans la structure des systèmes et des réseaux « cœur ». Comme nous l’avons dit, le recours au multiplexage en longueur d’onde permet de réduire de manière très im- portante le coût de la transmission. Par ailleurs, cette techni- que rend possible une politique d’investissement progressif et adapté aux besoins (résumé par le slogan “pay as you grow” en anglais), puisqu’il est possible d’ajouter progressive- ment des canaux dans un système WDM au fur et à mesure de la croissance de la demande. En contrepartie, le remplacement des régénérateurs par des amplificateurs conduit à une accumulation des défauts : c’est d’une certaine manière un retour aux vieilles techniques de transmission analogique. En effet, en transmission numé- rique, le régénérateur reconstitue à la fin de chaque pas un signal aussi « propre » que le signal émis, la mémoire des défauts subis sur les pas précédents se traduisant par des erreurs. Dans le cas des systèmes amplifiés, au contraire, les défauts apportés par la propagation vont s’accumuler. Chaque amplificateur est une source de bruit d’émission spontanée amplifiée et les bruits des amplificateurs successifs s’ajou- tent, ce qui apporte une première limitation de la distance de transmission sans régénération. Les dispersions chromatiques des différents pas d’am- plification s’ajoutent également. Les effets non linéaires ne peuvent plus être négligés, car les distances de transmission sont considérablement augmentées (on passe de 100 km à plusieurs centaines, voire milliers de kilomètres), et les Figure 2 : Illustration de la révolution apportée par le multiplexage en longueur d’onde. Figure 3 : Amplificateur à fibre dopée. REE N°1/2012 ◗ 29 Les réseaux de télécommunications optiques : construction, évolution et perspectives puissances d’émission doivent aussi être augmentées afin de garantir la valeur requise du signal à bruit : par exemple, une puissance de 100 mW (soit 20 dBm, puissance de sortie typique d’un amplificateur dans un système WDM) injectée dans une fibre de 80 µm2 de surface (typique de la fibre G.652) induit une densité de puissance de 1,25 kW/mm2 ! La dernière source de dispersion est la dispersion modale de polarisation (PMD Polarization Mode Dispersion) condui- sant à des phénomènes de trajets multiples (superposition de versions décalées dans le temps du signal transmis). En conclusion, avec le remplacement des régénérateurs par des amplificateurs, la fibre n’est plus un « tuyau » idéal, transmettant les signaux sans les distordre, et ceci d’autant plus que le débit augmente. Différentes solutions sont mises en œuvre pour remédier à cette accumulation de défauts. Une technique très cou- ramment employée aujourd’hui est la fibre à compensation de dispersion chromatique (Figure 4) qui permet d’introduire une dispersion cumulée opposée à celle de la fibre de ligne. Dans les systèmes couramment installés, les sites d’am- plification sont constitués par deux amplificateurs qui en- cadrent un morceau de fibre compensatrice, l’insertion de cette dernière entre deux étages d’amplification permettant de masquer le facteur de bruit dû aux pertes de la fibre de compensation (Figure 5). A côté de la bande C (1 530-1 560 nm), la fenêtre spectrale la plus facilement utilisable est la bande L (1 565-1 625 nm), et il a été proposé de réaliser des systèmes couvrant les ban- des C et L ensemble. La bande S (1 500-1 530 nm) a fait l’objet de quelques études, mais elle est beaucoup moins favorable en raison des pertes plus élevées de la fibre. Tou- tefois, l’absence d’amplificateurs à fibre dopée couvrant à la fois les bandes C et L réduit l’intérêt potentiel de cette ap- proche : le seul gain économique serait le partage de la fibre. En contrepartie, les dispositifs de séparation et de regroupe- ment des bandes à l’entrée et en sortie des sites d’amplifica- tion apportent une complexité et un coût supplémentaires, ainsi qu’une pénalité sur le bilan de liaison en raison des per- tes qu’ils induisent. Les systèmes WDM proposés aujourd’hui par les constructeurs couvrent la bande C et l’objectif est de transmettre la capacité maximale dans cette bande. - Lasers adaptés au multiplexage en longueur d’onde La mise au point de lasers fiables a été une condition indispensable au développement des télécommunications par fibre optique dans la période 1980-1995 ; le laser reste bien entendu un élément clé des systèmes WDM, mais de nouvelles propriétés lui sont en outre demandées. Avec l’arrivée du multiplexage en longueur d’onde, la longueur d’onde du laser, qui n’était pas un paramètre im- portant avec les systèmes antérieurs, devient une grandeur essentielle : chaque canal a sa source, à une longueur d’onde bien précise qui doit être contrôlée et stabilisée, en raison notamment de la présence de filtres dans les dispositifs de multiplexage et de démultiplexage. Par ailleurs, l’opérateur de télécommunications qui exploite une liaison en WDM doit dis- poser dans son stock de maintenance d’autant de lasers (en fait de transpondeurs) qu’il y a de canaux. Cette contrainte confère un très grand intérêt aux lasers accordables, dont la longueur d’onde peut être ajustée sur une certaine bande de fréquences, voire sur toute la bande du multiplex. L’accorda- bilité est donc une propriété essentielle pour une application des lasers en télécommunications, du moins dans le domai- ne des systèmes WDM. Pour cette application, la rapidité du changement de fréquence n’est pas un critère important : il suffit simplement d’adapter la longueur d’onde du laser à celle du canal sur lequel il sera installé, sachant qu’elle n’a plus de raison de varier ensuite. Dans d’autres applications en revanche, il est demandé au laser de pouvoir changer rapidement de longueur d’onde. D’une manière générale, une application en télécommu- nications impose une structure monolithique  : en d’autres termes, le composant ne doit pas comporter d’éléments physiques discrets imposant un alignement optique qui reste toujours très délicat. L’accordabilité est obtenue grâce à des structures « multisections ». Un laser DBR avec une section de phase permet une accordabilité sur quelques nanomètres. Des structures du type SGDBR (Sampled Grating Distri- buted Bragg Reflector) permettent une accordabilité sur une plage pouvant aller jusqu’à 40 nm, c’est-à-dire sur toute la bande C. La figure 6 montre une telle structure dont la com- plexité illustre les efforts de recherche et développement qui Figure 4 : Compensation de dispersion. Figure 5 : Schéma de principe d’un site d’amplification. 30 ◗ REE N°1/2012 Lasers, fibres et télécommunications ont permis d’y aboutir : l’accordabilité est obtenue grâce à deux réseaux de Bragg de chaque côté de la cavité, ainsi que par la section de phase. Un amplificateur à semi-conducteur intégré dans la structure permet de compenser les pertes. De plus, dans les systèmes actuels, le laser est intégré avec le modulateur externe : l’ensemble du laser et du modulateur externe constitue ce que l’on appelle un Laser Modulateur Intégré (en anglais ILM Integrated Laser Modulator). 1995-2010 : l’explosion de la capacité basée sur la technique du multiplexage en longueur d’onde Depuis l’apparition du WDM en 1995, la capacité des ré- seaux « cœur » désormais exclusivement optiques a connu une augmentation énorme, dans un contexte de non moins forte croissance des besoins en capacité. L’évolution du tra- fic mondial est marquée non seulement par une forte crois- sance, mais aussi par un changement radical de nature. Le trafic de données, lié à Internet augmente de 50 % par an et dépasse depuis 2004, celui de la voix, qui était le marché traditionnel des télécommunications (Figure 7). - La montée en capacité des systèmes Le multiplexage en longueur d’onde permet, comme nous l’avons vu, d’augmenter considérablement la capacité des fi- bres des réseaux et de valoriser ainsi l’infrastructure des opé- rateurs : une fibre qui transportait avant l’avènement du WDM une porteuse optique modulée à 2,5 Gbit/s peut désormais acheminer, comme nous le verrons, des centaines de Gbit/s. Les premiers systèmes WDM installés en 1995 compor- taient quatre canaux à 2,5 Gbit/s, séparés de 8 nm (environ 1 000 GHz). Très vite, le resserrement des canaux, et donc l’augmentation de leur nombre va permettre d’augmenter les capacités, et l’on envisage alors des systèmes WDM à 16 ou 32 canaux, voire plus, transportant chacun 2,5 Gbit/s. Cepen- dant, dès le début des années 2000, c’est une autre voie qui va être prise, celle de l’augmentation du débit par canal, avec l’apparition des premiers systèmes transportant un débit de 10 Gbit/s par canal, et avec un espacement entre canaux de 50 GHz. Entre 1995 et le début des années 2000, le débit total transmissible sur une fibre augmente de 120 % par an, grâce à l’augmentation du nombre de canaux des systèmes à 10 Gbit/s par canal. Le codage correcteur d’erreurs est devenu une fonction es- sentielle : les systèmes WDM à 10 Gbit/s font largement appel au code de Reed Solomon (255,239) qui apporte un gain de 6 dB environ en rapport signal à bruit au prix d’un sur-débit de 7 % environ. C’est grâce à ce gain que le passage de 2,5 à 10 Gbit/s a pu se faire sans modifier l’infrastructure, parce que l’augmentation du rapport signal à bruit imposée par l’augmenta- tion du débit est exactement compensée par le gain du code. C’est avec ces systèmes que se bâtiront les réseaux « cœur » optiques. Parallèlement à l’augmentation de la capa- cité transmise, on assiste grâce au progrès des équipements, à une augmentation de la portée optique (distance possible sans régénération) qui atteignent maintenant plusieurs mil- liers de km. Les systèmes disponibles en 2011 offrent cou- ramment une capacité de 800 Gbit/s (80 × 10 Gbit/s avec 50 GHz d’espacement) sur une distance de 2 000 km. On trouvera sur cette période plus d’informations dans les réfé- rences [10] et [11]. Dans la première moitié des années 2000 sera conduit un très important effort de recherche et développement sur des systèmes WDM offrant un débit de 40 Gbit/s par canal, effort qui sera largement l’œuvre de « start up » fondées au moment de la « bulle Internet » par des équipes issues des Figure 6 : Laser multi-sections de type SGDBR. Figure 7 : Evolution du trafic mondial de 1980 à 2020 Source : R.W. Tkach ECOC 2006. REE N°1/2012 ◗ 31 Les réseaux de télécommunications optiques : construction, évolution et perspectives grands constructeurs traditionnels. Mais dans le contexte de crise des années suivant l’éclatement de la bulle, il ne se trou- vera pas à l’époque d’opérateurs pour acquérir de tels systè- mes. Compte tenu du fait que le passage de 10 à 40 Gbit/s rend le signal plus sensible aux défauts de transmission, des solutions innovantes par rapport aux systèmes traditionnels étaient mises en œuvre, qu’il s’agisse de la modulation ou de la compensation de certains défauts. Si la famille des systèmes à 2,5 Gbit/s par canal a été totalement évincée par celle des systèmes à 10 Gbit/s, il est certain qu’il n’en sera pas de même pour le passage de 10 à 40 Gbit/s, et que les deux débits sont appelés à coexister : une demande forte aujourd’hui de la part des opérateurs est d’avoir la possibilité d’insérer des canaux à 40 Gbit/s dans un multiplex à 10 Gbit/s, afin d’augmenter la capacité d’une artère sans devoir remplacer tout le système. C’est pour- quoi les équipementiers offrent aujourd’hui des systèmes qui permettent à la fois la transmission de canaux à 10 et à 40 Gbit/s, et spécifient des règles d’ingénierie relatives à la coexistence des deux débits au sein d’un même multiplex. Il est également tout à fait imaginable de remplacer complète- ment les canaux à 10 Gbit/s par des canaux à 40 Gbit/s ou d’installer un système comportant uniquement des canaux à 40 Gbit/s. Afin que la bande occupée par un canal reste compatible avec les 50 GHz qui sont aujourd’hui la règle, les canaux à 40 Gbit/s font appel à une modulation à quatre états : ils bénéficient en fait du renouveau de la réception cohérente, que nous évoquerons plus loin. Pour illustrer l’état de l’art actuel, nous citerons à titre d’exemple les performances de deux systèmes disponibles sur le marché en 2010, produits par Alcatel Lucent, rassem- blées dans le tableau 1. Ils peuvent être équipés de canaux à 10 ou 40 Gbit/s, la portée étant réduite dans le deuxième cas puisque le rapport signal à bruit doit être plus élevé. Au-delà de 40 Gbit/s, des recherches seront menées sur la transmission à 160 Gbit/s, au sein de laboratoires acadé- miques et de projets coopératifs, mais aucun système ne sera développé. La figure 8 résume l’évolution de la capacité des systèmes optiques au cours des années passées jusqu’en 2004. La par- tie horizontale de la flèche montre jusqu’en 1995, l’augmen- tation du débit sur un seul canal : on est ainsi passé de 34 à 140 Mbit/s, puis 2,5 Gbit/s et même 10 Gbit/s, puisque des démonstrations sur un seul canal ont été faites à ce débit, même si elles n’ont pas débouché sur des produits, compte tenu de l’arrivée du WDM. Puis la montée verticale correspond à l’apparition du WDM avec l’ajout de plusieurs longueurs d’onde ou canaux sur la même fibre, qui conduit à une aug- mentation rapide et très importante de la capacité des fibres. La troisième partie de la flèche rend compte de l’augmentation simultanée du nombre de canaux et du débit par canal. - Les systèmes sous-marins optiques ([12], [13]) En 1996, les deux câbles TAT 12 et 13 sont les premiers systèmes sous-marins optiques amplifiés. Leur capacité est Figure 8 : Evolution de la capacité des systèmes WDM (H. Kogelnik ECOC 2004). Système 1 Système 2 Capacité Portée Capacité Portée 92×10 Gbit/s 2 500 km 128×10 Gbit/s 4 000 km 80×40 Gbit/s 1 800 km 64×40 Gbit/s 1 000 km Tableau 1 : Performances de deux systèmes commerciaux disponibles en 2010 (exemple). 32 ◗ REE N°1/2012 Lasers, fibres et télécommunications de 5 Gbit/s par paire de fibres sur une seule longueur d’onde. On notera que dans le domaine terrestre, il n’a jamais existé de systèmes utilisant l’amplification sans recours au multi- plexage en longueur d’onde. Enfin, c’est en 2001 qu’avec TAT 14 apparaît le premier système sous-marin WDM (64×10 Gbit/s, soit 9 700 000 voies téléphoniques). On mesurera l’extraordinaire augmen- tation de la capacité offerte depuis le premier câble télépho- nique, avec ses 36 voies ! Un réseau de câbles sous-marins enserre aujourd’hui la terre avec un faisceau de câbles particulièrement important sur deux routes, celle qui joint l’Europe et la côte Est des Etats-Unis d’une part, celle qui joint l’Extrême Orient à la côte Ouest des Etats-Unis d’autre part. S’y rajoutent des câbles qui relient l’Europe à l’Asie par la Mer Rouge. Ces câbles sont les liens qui permettent l’acheminement des flux de trafic, majoritairement de données, à travers le monde. La figure 9 donne une vue d’ensemble de ce réseau et montre bien la prédominance des deux routes mentionnées plus haut, ainsi que les liens entre l’Europe et l’Asie. Pour illustrer ce que représente ce réseau, donnons quel- ques exemples de systèmes : • Sea Me We 3 (entré en service en 1999) relie l’Europe, le Moyen Orient et l’Asie. Avec une longueur de 39 000 km, il réalise la plus longue liaison, comporte deux paires de fibres, et achemine 8 × 2,5 Gbit/s par paire ; • FLAG Atlantic 1 (entré en service en 2001) transporte 2,4 Tbit/s par paire de fibres sur la route transatlantique ; • Sur la même route, Apollo (entré en service en 2002) com- porte quatre paires de fibres et transporte 80 × 10 Gbit/s par paire ; • Enfin, Sea Me We 4 (entré en service en 2005) relie l’Europe, le Moyen Orient et l’Asie. Il a une longueur de 20 000 km, comporte deux paires de fibres, et achemine un débit de 64 × 10 Gbit/s par paire. La figure 10 montre l’évolution de la capacité totale sur la route transatlantique entre 1956, date d’entrée en service du premier câble, et 2009, d’où il ressort que cette capacité a été multipliée par un facteur 100 000 en 50 ans. - Les contraintes des opérateurs dans les réseaux  « cœur » Il est important de noter que les réseaux terrestres s’appuient sur une infrastructure construite pour des systèmes monocanal à 2,5 Gbit/s installés entre 1990 et 1995, donc avant l’apparition du WDM. Il se trouve que la fibre choisie à l’époque par la majo- rité des opérateurs, à savoir la fibre standard G.652, se révèle très bien adaptée au multiplexage en longueur d’onde. Une exigence fondamentale des opérateurs est la compatibilité des généra- tions successives de systèmes avec l’infrastructure existante : par exemple, il faut conserver les sites d’amplification existants sans en ajouter aucun, alors que l’augmentation du rapport signal à Figure 9 : Carte du réseau sous-marin mondial (Source : Telegeography). REE N°1/2012 ◗ 33 Les réseaux de télécommunications optiques : construction, évolution et perspectives bruit requise par la montée en débit pourrait théoriquement être satisfaite par des sites d’amplification plus nombreux. Ce sont donc les progrès réalisés dans les équipements (amplificateurs, compensateurs de défauts, amélioration de la sensibilité des récepteurs, choix approprié de modula- tions…) qui rendront possible cette compatibilité Il faut bien sûr citer le codage correcteur d’erreurs, qui joue un rôle essentiel : c’est lui qui a permis par exemple d’installer des systèmes à 10 Gbit/s à la place des systèmes à 2,5 Gbit/s, permettant un gain de 6 dB environ sur le rap- port signal à bruit requis, gain qui correspond exactement à la pénalité subie en multipliant le débit par quatre. Pour les réseaux sous-marins, la contrainte de l’infrastruc- ture existante était autrefois inexistante, car le câble et les équipements, construits ensemble, avaient la même durée de vie. Aujourd’hui, il est devenu en revanche courant d’opé- rer des remises à niveau (en anglais «  upgrade  ») sur les systèmes sous-marins, pour augmenter la capacité, en mo- dernisant les équipements sans toucher à l’infrastructure. On va par exemple tirer parti d’un nouveau schéma de modula- tion en remplaçant des transpondeurs anciens par de nou- veaux qui permettront un débit plus élevé, sans pour autant changer ni le câble, ni les amplificateurs. La contrainte de compatibilité du réseau terrestre se retrouve donc ici. D’une manière plus générale, il n’y a plus de spécificité forte des réseaux intercontinentaux par rapport aux réseaux nationaux, comme c’était le cas autrefois  : c’est d’ailleurs la raison pour laquelle nous avons choisi de les présenter séparément pour en faire l’historique. Il reste bien sûr des différences liées par exemple à la longueur des liaisons, à l’alimentation des répéteurs (qui sont télé alimentés dans les systèmes sous-marins), aux types de fibres employées. Mais les débits sont les mêmes, ils obéissent aux mêmes normes, et la recherche et développement se fait aujourd’hui chez les industriels au sein des mêmes équipes [32]. - Le redémarrage de l’accès optique ([14], [15]) Bien que l’ADSL déjà évoqué permette de répondre pour un temps aux demandes d’accès à Internet à haut débit, la croissance continue de la demande en débit a remis l’accès optique sur le devant de la scène, d’autant plus que les pro- grès technologiques permettent maintenant de réaliser des lasers à bas coût qui peuvent être installés chez l’abonné. Ils utilisent la modulation directe, contrairement à ceux des sys- tèmes WDM des réseaux « cœur » qui font nécessairement appel à la modulation externe. Les paramètres importants sont la bande de modulation et aussi la linéarité dans certai- nes applications spécifiques. Les recherches sur les réseaux d’accès optiques vont donc redevenir très actives à partir du début des années 2000, tant en ce qui concerne les architectures que les composants qui doivent, rappelons le, être très bon marché, en particu- lier ceux qui sont installés chez le client. Des standards de réseaux optiques passifs (PON) seront élaborés au sein des instances de normalisation. Entre 2004 et 2009, le nombre d’abonnés FTTH (Fiber to the Home), c’est-à-dire raccordés au moyen d’une fibre optique dans le monde entier, va passer de 3 à 22 millions, ce qui illustre le décollage de l’accès optique. Des accès de type FTTH garantissant des débits jusqu’à 100 Mbit/s sont aujourd’hui proposés aux clients en France, à côté des of- fres ADSL garantissant jusqu’à 20 Mbit/s. Dans d’autres pays comme le Japon ou la Corée, le raccordement optique est beaucoup plus développé qu’en Europe ou en Amérique du Nord : au Japon par exemple les clients raccordés optique- ment sont depuis 2009 plus nombreux que ceux qui le sont en ADSL (Figure 11). Par rapport au réseau « cœur », le réseau d’accès se carac- térise par des différences essentielles. D’une part, différents supports de transmission (cuivre, radio, optique) coexistent et coexisteront, la fibre optique ne joue pas ici un rôle hégémo- Figure 10 : Evolution de la capacité installée sur l’Atlantique Nord. 34 ◗ REE N°1/2012 Lasers, fibres et télécommunications nique. D’autre part, le poids des contraintes économiques est beaucoup plus élevé que dans le réseau « cœur », ce qui introduit des contraintes fortes sur le choix des techniques utilisables. Le réseau d’accès optique actuel s’appuie sur une struc- ture de « réseau optique passif » ou PON (Passive Optical Network), représenté schématiquement sur la figure 12. Une fibre commune transporte les signaux de tous les clients en- tre le central et un coupleur où ils sont séparés (ou regroupés selon le sens) pour atteindre les différents clients. Le partage entre eux de la ressource peut faire appel, par exemple, à l’accès multiple par répartition dans le temps (TDMA Time Division Multiple Access), procédé dans lequel chaque utili- sateur se voit attribuer une fenêtre temporelle. Des travaux de recherche ont également été conduits sur l’accès multiple à répartition par code (CDMA, Code Division Multiple Access) qui offre une autre possibilité de partage. Les distances sont courtes (typiquement 20 km), sans am- plification. Le débit descendant est de 2,5 Gbit/s aujourd’hui (norme GPON pour Gigabit PON), mais 10 Gbit/s sera bien- tôt une valeur courante (norme NG PON). Le GPON peut raccorder 32 ou 64 utilisateurs qui se partagent les 2,5 Gbit/s descendants et les 1,25 Gbit/s remontants. Il est fait appel à la transmission bidirectionnelle, c’est-à-dire que les signaux des deux sens (réseau vers le client et client vers le réseau) partagent la même fibre, alors que, dans le réseau « cœur », une fibre est toujours dédiée à un seul sens de transmission. Afin d’éviter des interférences entre ces deux sens, on uti- lise deux longueurs d’onde bien séparées. La transmission du central vers le client utilise une longueur d’onde autour de 1 500 nm, la transmission du client vers le réseau une longueur d’onde autour de 1 300 nm. Comme nous l’avons dit, le laser installé chez l’abonné est toujours un composant à bas coût, qui pourra éventuellement aussi, dans l’avenir, remplir la fonction d’amplification en ré- ception (amplificateur à semi conducteur réflectif ou RSOA). Le laser présent au central, dont le coût est partagé entre les différents abonnés du PON peut en revanche être plus cher : il pourra dans ce cas être modulé de manière externe. D’une part le coût par utilisateur est d’autant plus faible que leur nombre est grand, d’autre part l’allongement des distances de transmission conduit à une simplification de l’architecture des réseaux et une diminution des coûts opérationnels grâce à la suppression d’une partie des centraux. Une approche re- tenue pour les futures générations de PON est la combinaison du multiplexage en longueur d’onde et du TDMA qui permet- tra d’augmenter le taux de partage. L’augmentation de portée pourrait être assurée par l’insertion sur la fibre partagée d’am- plificateurs, dont le coût est évidemment mutualisé. - Comment l’optique a bouleversé l’économie des télécommunications Nous avons vu en balayant la période qui va de l’appari- tion des premiers systèmes sur fibre optique à aujourd’hui, comment la capacité des liens avait littéralement explosé : entre les 140 Mbit/s transportés par une fibre en 1980 et les 8 Tbit/s quasiment disponibles aujourd’hui, le rapport est Figure 11 : Evolution du nombre de raccordements en ADSL, FTTH et CATV au Japon. Source : NTT 2009. Figure 12 : Schéma de principe d’un réseau optique passif ou PON. REE N°1/2012 ◗ 35 Les réseaux de télécommunications optiques : construction, évolution et perspectives de près de 60 000 ! Mais, pour spectaculaire que soit cette augmentation de la capacité des liens, la transformation des réseaux va beaucoup plus loin qu’une simple homothétie. D’une part, comme nous l’avons déjà indiqué, le trafic a complètement changé de nature, et se caractérise par une hégémonie toujours plus marquée de la transmission de données (liée à Internet) par rapport à la voix. D’autre part, les énormes capacités transportées sur les liens du réseau « cœur » ont entraîné une chute spectaculaire du coût de transmission, exprimé en bit/s.km. Il est résulté une modifi- cation très profonde de l’économie des télécommunications et, pour le client, des principes de facturation. A côte des liens, les nœuds du réseau ont aussi été profon- dément transformés : la constitution d’un réseau cœur à grand débit orienté acheminant majoritairement une des données a aussi été marquée par l’apparition des routeurs, éléments es- sentiels d’un réseau IP, et des interfaces optiques associées. Enfin, ces réseaux à très grande capacité et très bas coût de transmission associés au développement d’Internet ont contribué à faire naître à côté des opérateurs traditionnels, propriétaires et exploitants de réseaux, des acteurs sans ré- seau, mais possédant un énorme poids. Toute l’économie des télécommunications s’en trouve bouleversée. A partir de 2005 : - L’apparition du débit de 100 Gbit/s dans la hiérarchie A partir de 2006/2007 apparaissent dans les laboratoires les premiers travaux sur des systèmes WDM à 100 Gbit/s par canal, ce qui constitue une rupture dans l’histoire de la trans- mission optique. Le débit de 100 Gbit/s est en effet en relation avec les standards de l’Ethernet caractérisés par une progres- sion géométrique des débits de raison 10 (1 GbE, 10 GbE, 100 GbE), alors que la hiérarchie numérique synchrone (SDH) est caractérisée par un facteur 4 (2,5, 10 et 40 Gbit/s). Mais au-delà de la hiérarchie des débits, ces nouveaux systè- mes marquent une rupture technologique de la première impor- tance. L’espacement de 50 GHz entre canaux devient en effet un standard, car des équipements d’aiguillage (multiplexeurs d’insertion-extraction reconfigurables, en anglais Reconfigurable Optical Add-Drop Multiplexers - ROADM) comportant des filtres avec cette bande ont été installés dans les nœuds des réseaux, et il faut donc pouvoir transmettre 100 Gbit/s dans une bande de 50 GHz. Le rendement spectral, grandeur bien connue des radioélectriciens, exprimé en bit/s/Hz, fait son entrée en optique, et la modulation d’intensité binaire classique utilisée jusque-là ne permet pas de satisfaire la contrainte d’utilisation du spectre. Dans le cas présent, il faut atteindre la valeur de 4 bit/s/Hz, alors que la modulation binaire utilisée jusque-là ne permet que 1 bit/s/Hz. - Le retour de la réception cohérente Les systèmes à 100 Gbit/s par canal vont donc néces- sairement recourir, afin de respecter la contrainte d’une lar- geur spectrale de 50 GHz, à des modulations performantes comportant plus de deux états [31], dont un exemple est aujourd’hui la modulation de phase à quatre états (QPSK Quaternary Phase Shift Keying), ce qui suppose une démo- dulation cohérente. Abandonnée autour de 1990, comme nous l’avons précédemment indiqué, celle-ci revient donc sur le devant de la scène, mais avec une mise en œuvre très dif- férente de ce qui était envisagé dans les années 80, compte tenu des progrès énormes de l’électronique et des techni- ques de communications numériques depuis cette époque. ([16] [17]). Il est intéressant de rappeler que la relance de la technique cohérente a été le fait de l’équipementier cana- dien Nortel vers 2006, avec un système à 40 Gbit/s, et que les systèmes à ce débit en bénéficient aujourd’hui. La compensation des défauts de transmission (disper- sion chromatique, dispersion modale de polarisation…) est confiée à l’électronique et le récepteur se complexifie consi- dérablement. Dans les systèmes cohérents des années 80, un problème difficile était l’alignement de la polarisation de l’oscillateur local sur celle du signal incident : si elles ne sont pas identiques le signal résultant du battement voit sa puissance réduite et il peut même être nul si elles sont orthogonales. Les systèmes cohérents de 2010 utilisent deux polarisations orthogonales à la même longueur d’onde, ce qui permet de doubler le débit transporté, et c’est l’électronique qui se charge de l’alignement des polarisations : ainsi des démonstrations utilisant la modu- lation PDM-QPSK (Polarization Division Multiplexing - QPSK), c’est-à-dire l’association de deux modulations QPSK sur deux polarisations orthogonales, ont déjà été présentées [30]. Un débit de 100 Gbit/s est alors transmis avec une rapidi- té de modulation de 25 Gbaud, inférieure à celle d’un signal OOK binaire à 40 Gbit/s [30]. Comme la rapidité de modula- tion détermine la bande et la sensibilité à un certain nombre de défauts, il apparaît clairement que ce type de modulation sera plus tolérant que des schémas binaires conventionnels : la transmission d’un signal OOK à 100 Gbit/s exigerait des contraintes beaucoup plus fortes. De plus, la puissance de traitement de l’électronique et le fait que les distorsions vues par le signal électrique démodulé soient exactement celles affectant le signal optique (à un changement de fréquence près) permettent la mise en œuvre de procédés de compen- sation extrêmement efficaces, calqués sur ceux qu’utilise la radio pour des débits plus faibles. Les systèmes cohérents représentent donc une véritable rupture par rapport à la gé- nération des systèmes antérieurs. 36 ◗ REE N°1/2012 Lasers, fibres et télécommunications La partie optique du récepteur est relativement simple ; les composantes du signal sur les deux polarisations sont ex- traites, numérisées et envoyées dans un circuit de traitement électronique qui va assurer l’extraction de l’information et la compensation des défauts et ressemble beaucoup, dans son principe, aux circuits rencontrés dans les systèmes radio ac- tuels, par exemple les téléphones portables. Un problème très difficile à résoudre demeure cependant le traitement en temps réel, et notamment l’échantillonnage, qui n’est pas encore aujourd’hui possible à 25 GHz (fréquence d’échantillonnage requise pour les systèmes PDM-QPSK à 100 Gbit/s), car on se trouve à la limite des possibilités de l’électro- nique. C’est pourquoi les démonstrations de laboratoire pré- sentées jusqu’ici l’ont été avec des traitements différés, mais l’état de l’art évolue vite et l’on peut penser que l’électronique pourra assez rapidement travailler à cette vitesse. La recherche très active sur les codes correcteurs d’erreurs a permis d’en développer de plus performants que ceux uti- lisés dans les systèmes à 10 Gbit/s, offrant des gains supé- rieurs (autour de 8 à 9 dB) pour le même sur-débit. Enfin, des résultats nombreux ont été publiés sur des codes faisant appel à la décision douce et aux turbo-codes, qui permettent de s’approcher de la limite de Shannon. Les systèmes cohérents introduisent aussi un change- ment profond en matière d’infrastructure : non seulement l’électronique offre la capacité de compenser la dispersion chromatique grâce à un égaliseur transverse situé dans le récepteur, mais de plus les performances sont meilleures si toute la compensation est laissée à cet égaliseur, en suppri- mant la fibre compensatrice utilisée jusque là en ligne. Il en résulte un gain notable, grâce à la suppression des modules de compensation, à l’économie sur les coûts d’installation de la liaison et à la possibilité de recourir à des amplificateurs à simple étage. Ces futurs systèmes à 100 Gbit/s par canal utilisant la mo- dulation PDM-QPSK, qui devraient être disponibles autour de 2012, permettent d’envisager alors une capacité de plusieurs Tbit/s par fibre dans la bande C (typiquement 80 canaux à 100 Gbit/s espacés de 50 GHz). - Au-delà de 100 Gbit/s par canal Pour faire face à la croissance continue du trafic tout en conservant au maximum l’infrastructure existante, les la- boratoires de recherche travaillent déjà sur les générations futures, avec un débit de 200 ou 400 Gbit/s par canal. Pour respecter la contrainte des 50 GHz, la seule solution est alors de recourir à des modulations permettant un plus grand ren- dement spectral  : la modulation MAQ16 (QAM16) permet par exemple de doubler le rendement spectral par rapport à la modulation QPSK. En utilisant deux polarisations ortho- gonales, il est donc théoriquement possible de transmettre 200 Gbit/s dans 50 GHz de bande en modulation PDM 16QAM. Des démonstrations de laboratoire ont déjà été faites, mais il n’en reste pas moins que le recours à ce schéma de modulation induit de nouvelles contraintes en ce qui concer- ne, par exemple, la linéarité des modulateurs devant traiter des signaux à quatre niveaux, ou l’électronique de traitement. Une autre approche pour poursuivre la montée en dé- bit est le recours à la technique multi-porteuse : au lieu de moduler une unique porteuse, elle va être répartie sur un grand nombre de sous porteuses transportant chacune un débit bien moindre et donc moins sensibles aux distorsions du canal. Une technique possible et aujourd’hui très explorée en laboratoire est l’OFDM (Orthogonal Frequency Division Multiplexing) bien connu dans le monde de la radiodiffusion puisqu’il est à la base de la Télévision Numérique Terrestre. L’avantage de l’OFDM est que l’espacement entre sous por- teuses peut être égal à la rapidité de modulation et que cha- cune d’entre elles étant modulée à bas débit, une modulation à grand rendement spectral peut être utilisée. Il en résulte que le canal optique qui n’est plus occupé par une unique porteuse modulée, mais par un ensemble de sous-porteuses resserrées au maximum, peut potentiellement présenter un rendement spectral élevé : l’habitude a été prise dans la litté- rature de parler de « super canal ». C’est un axe de recherche très actif depuis 2008 environ. Le record de capacité d’un « super canal » à ce jour est de 21 Tbit/s [29]. - Vers l’émergence d’une couche optique La notion de couche optique est née avec l’apparition du multiplexage en longueur d’onde. Lorsqu’un canal optique (on dit souvent improprement « une longueur d’onde ») doit être transmis d’un point A à un point C dans le réseau, en utilisant deux systèmes de transmission successifs de A à B d’abord, puis de B à C, l’approche conventionnelle consiste à extraire toutes les données de tous les canaux du système AB, donc à redescendre au niveau électrique, puis à remo- duler les porteuses optiques du système BC par les données qui lui sont destinées. On a donc finalement dans ce cas deux systèmes WDM interconnectés de manière complète- ment électronique. Cependant, cet aiguillage totalement réalisé au niveau des signaux électriques peut apparaître comme inutile dans le cas de signaux qui n’ont pas à être extraits dans le nœud. En d’autres termes, si un canal optique va de A à C ou de A à D en passant par B, pourquoi ne pas le transférer directement du multiplex du système AB au multiplex du système BC ou BD, au moyen d’un système d’aiguillage totalement optique, REE N°1/2012 ◗ 37 Les réseaux de télécommunications optiques : construction, évolution et perspectives du moins tant que la liaison ABC ou ABD n’exige pas une régénération du signal ? Tel est le concept de couche optique, qui a fait l’objet de recherches dès la fin des années 2000 ; pourtant en 2010, les réseaux reposent encore majoritairement sur des systè- mes WDM interconnectés électroniquement. On notera tou- tefois que des multiplexeurs d’insertion-extraction optiques (OADM - Optical Add Drop Multiplexers) sont déjà installés dans les réseaux en 2011. L’apparition d’une véritable cou- che optique dans les réseaux « cœur » devrait être un enjeu des années à venir ([23], [25], [27]). Elle passera par la mise en place de nœuds de brassage optiques, avec à terme une matrice de connexion optique : dans un premier temps, des brasseurs dits OEO (Optique Electrique Optique) utilisant une matrice de connexion électronique pourront remplir la même fonction. Si la création d’une couche optique apporte des avantages en termes de coût d’exploitation, ainsi que de consomma- tion d’énergie, elle soulève aussi des problèmes nouveaux qui ont fait et font encore l’objet de recherches, notamment autour du thème de la transparence : les dégradations subies par le signal lors de sa propagation sur la fibre sans aucune régénération électronique imposent une limite maximale à la portée, et par voie de conséquence des contraintes en matière d’architecture. Par ailleurs, on dispose d’outils de mesure de la qualité du signal dans le domaine électrique (taux d’erreurs notamment) qui n’existent plus si on reste dans la couche optique. - L’extension de l’optique dans les réseaux d’accès Si l’ADSL a permis le développement des connexions Internet à haut débit, les années qui viennent verront un grand développement de l’accès optique, qui est déjà pro- posé aujourd’hui par les opérateurs. La structure de base sera le réseau optique passif (PON) déjà évoqué et l’accès à 100 Mbit/s, voire 1 Gbit/s, se répandra de plus en plus, per- mettant le développement de nouveaux services sur Internet qui se développent d’ailleurs eux-mêmes parce que le débit des connexions augmente ! D’autres applications, comme le calcul distribué ou bien le recours à des serveurs pour stoc- ker dans le réseau des données qui sont aujourd’hui stockées chez l’abonné, sont des moteurs pour une forte augmenta- tion des débits dans le réseau d’accès. Au-delà des réseaux PON actuels se dessine l’idée du PON WDM, combinant avec les techniques de partage de ressource déjà évoquées (notamment l’accès multiple à ré- partition dans le temps) le multiplexage en longueur d’onde qui permettra d’augmenter les capacités de ces réseaux ([24], [26], [28]). - Le mariage de l’optique et du traitement du signal : une voie prometteuse Le retour de la transmission cohérente est une illustration d’une évolution plus générale, à savoir l’introduction dans les systèmes et réseaux optiques eux-mêmes, de plus en plus de fonctions de traitement du signal. L’intérêt économique de cette approche est essentiel, donnons en deux exemples : • La capacité de correction de l’électronique face aux défauts du milieu de transmission permet d’utiliser en 2012, pour transmettre des canaux à 100 Gbit/s, des fibres qui n’auraient pas supporté des systèmes « classiques » à 40 Gbit/s ; • Le recours à un système auto-adaptatif permettra dans l’avenir d’éviter nombre de réglages lors de l’installation d’une liaison et par là-même en réduira considérablement le coût opérationnel. Cette part de plus en plus importante prise par le traite- ment du signal est un moteur pour le développement de composants optiques sur silicium qui permettraient une inté- gration des fonctions optiques et électroniques. Quelle que soit cependant la puissance de l’électronique, l’intérêt du traitement optique du signal demeure. Beaucoup de travaux de recherche ont été effectués depuis les années 90 par les laboratoires académiques sur la régénération des signaux en ligne : le but était de remettre en forme le signal transmis, et d’augmenter la portée du système sans avoir à effectuer une régénération électronique. Ils n’ont pas trouvé d’application dans les systèmes notamment en raison de la difficulté à régénérer globalement un multiplex WDM : à par- tir du moment où il est nécessaire de démultiplexer et de traiter chaque canal, l’intérêt économique s’écroule. Cependant, le recours à l’optique peut présenter un avantage certain en termes de consommation, à un moment où le pro- blème de la consommation d’énergie des réseaux de télécom- munications devient crucial et préoccupe tous les opérateurs. Le traitement optique pourrait à ce titre trouver sa place dans les routeurs pour se substituer à des traitements électroniques. - Quelle limite ultime de capacité pour la fibre optique ? Entre les 2,5 Gbit/s des systèmes monocanal de 1995 et les 8 Tbit/s d’un système WDM transmettant 80 canaux à 100 Gbit/s en 2010, la capacité d’une fibre optique aura donc été multipliée par un facteur 3  200, en l’espace de quinze ans ! Une question naturelle est de savoir jusqu’où il sera possible d’aller. La théorie de l’information, dont les travaux de C. Shannon sont l’acte fondateur, a introduit la notion de capacité, définie comme le débit maximal qui peut être transmis dans le cas d’un canal à bruit blanc gaussien additif, dès lors que l’on se 38 ◗ REE N°1/2012 Lasers, fibres et télécommunications fixe la bande du canal, la densité spectrale de puissance du bruit et la puissance disponible ; de manière équivalente, on peut dire que la limite de Shannon fixe aussi le rendement spectral maximal pour un rapport signal à bruit donné. Le résultat fondamental de C. Shannon ne peut cependant pas être appliqué tel quel au canal optique, car celui-ci n’ajoute pas simplement un bruit (le bruit d’émission spontanée) au signal transmis : il va aussi dégrader le signal du fait des effets non linéaires très complexes qui jouent un rôle d’autant plus important que la puissance est élevée. Des travaux récents ont donc revisité la question de la capa- cité du canal, appliquée au canal optique en incluant les effets non linéaires. Pour donner un ordre de grandeur, la référence [20] prédit un rendement spectral limite de 9 bit/s/Hz pour une portée de 500 km, soit approximativement 34 Tbit/s dans la totalité de la bande C. Sachant que la transmission d’environ 10 Tbit/s sur une distance équivalente a été démontrée en laboratoire, il appa- raît que la limite de la fibre n’est plus un horizon extrêmement lointain, comme dans les premiers temps de la transmission optique où la fibre apparaissait comme un milieu de trans- mission pratiquement sans limites. Conclusion L’optique est donc aujourd’hui une technique essentielle dans les réseaux de télécommunications, hégémonique dans les réseaux « cœur », et appelée à jouer un rôle croissant dans les réseaux d’accès, aux côtés d’autres solutions. Elle a per- mis le développement de réseaux de télécommunications dont les capacités sont sans aucune comparaison avec ce qui existait dans les années 80, et qui acheminent un trafic dont la croissance est en quasi totalité liée au développement d’Internet. Il est clair que ce réseau mondial n’aurait jamais pu se développer sans l’existence de liens de transmission à très grande capacité et offrant des coûts de transmission très fai- bles en comparaison de la situation antérieure. Et ces réseaux continueront à évoluer pour satisfaire une demande crois- sante ([18], [19]) et à voir leur structure évoluer, notamment avec le développement d’une véritable couche optique. Depuis 1995, les capacités de transmission ne cessent de croître en exploitant le principe du multiplexage en longueur d’onde et en utilisant le même support de transmission, à savoir la fibre optique  : il est remarquable d’observer que la fibre G.652 dite « fibre standard », mise au point dans les années 80 pour des systèmes totalement différents, se ré- vèle finalement un excellent choix pour ceux qui sont instal- lés aujourd’hui ([22]). Des recherches sont menées depuis quelques années autour des fibres micro-structurées, dont on a pu penser un moment qu’elles pourraient introduire une révolution dans les réseaux en apportant un gain sensible sur les pertes. A ce jour il n’en est rien, et ces structures nou- velles se révèlent plus intéressantes pour des applications spécifiques, en traitement de signal notamment, que pour la transmission à longue distance. Rien n’aurait été possible sans le laser à semi-conducteur, dont l’existence a permis le développement des télécommu- nications optiques et qui demeure un élément clé, auquel sont demandées de nouvelles propriétés au fur et à mesure qu’apparaissent de nouvelles applications. Enfin c’est de la combinaison de la technique de transmis- sion optique et des possibilités toujours plus importantes du traitement du signal que naîtront des réseaux de plus en plus performants, de plus en plus intelligents, bien différents de ce qui pouvait être imaginé dans les années 80, lorsque l’optique naissante apparaissait simplement comme un nouveau moyen de transmission s’ajoutant à la panoplie de ceux qui existaient. Références [1] M. Mathieu, « La transmission par faisceau hertzien », Collection Technique et Scientifique des Télécommunica- tions, Dunod, 1979. [2] W. Heinrich, “Role of Radio Relay Systems in the Tele communications Network of the Deutsche Bundespost”, 3rd ECRR, pp. 24-27, Paris 17-20/12/1991. [3] C. Colavito, R. Pietrorusti, R. Rudiloso, “Role and perspec- tives of Radio Relay Systems in the Italian Telecom- munications Networks”, 3rd ECRR, pp. 15-23, Paris 17- 20/12/1991. [4] R. Leconte, G. Le Fort, M. Le Gall, B. Le Mouel, J.-C. Sartre, A. Vecchetti, « Les systèmes de transmission terrestre par fibre optique », Commutation & Transmission, Numéro spécial, pp. 57-74, 1989. [5] J.-C. Bouley, A. Scavennec, J. Le Rouzic, J.-P. Pestie, C. Oguey, « Les composants opto électroniques dans les systèmes de transmission terrestre par fibre optique », Commutation & Transmission, Numéro spécial, pp. 27-40, 1989. [6] I. Joindot, M. Joindot et douze coauteurs, « Les télécommu- nications par fibre optique ». Collection Technique et Scientifique des Télécommunications, Dunod, 1996. [7] S. Abbott, “Review of 20 years of undersea optical fiber transmission system development and deployment since” TAT8, ECOC 2008 Bruxelles, paper Mo.4.E.1, 2008. [8] D. Bayard, “Optical fiber amplification technology”, Annales des Télécommunications, vol 58, pp. 1 603-1 639, 2003. [9] E. Desurvire, “Erbium Doped Fiber Amplifiers”, Wiley Interscience, 1994. [10] P. Vandamme, M. Joindot, S. Gosselin, « L’optique et les réseaux de transport », Conférences France Telecom Re- REE N°1/2012 ◗ 39 Les réseaux de télécommunications optiques : construction, évolution et perspectives cherche vol. 19, pp. 7-27, 2002. [11] M. Joindot, S. Gosselin,“Optical Fiber Transport Networks and Systems: Fundamentals and Perspectives”, Comptes-rendus de l’Académie des sciences, vol. 9, pp. 914-934, 2008. [12] J. Chesnoy, “Undersea Fiber Communication Systems”, Academic Press, 2002. [13] O. Gautheron, “Submarine networks: Evolution, not revo- lution”, Comptes-rendus de l’Académie des sciences, vol. 9, pp. 1 031-1 044, 2008. [14] T. Koonen, “Trends in Optical Access and In-Building Networks”, ECOC 2008 Bruxelles, tutorial paper We.2.A.1, 2008. [15] P. Chanclou, Z. Belfqih, B. Charbonnier, T. Duong, F. Frank, N. Genay, P. Guignard, L. Guillo, B. Landousies, A. Pizzinat, H. Ramanitra, F. Saliou, S. Durel, P. Urvoas, F. Ouzzi, J. Le Masson, “Access Network Evolution: optical fiber to the subscribers and impact on the metropolitan and home networks”, Comptes-rendus de l’Académie des sciences, vol. 9, pp. 935-946, 2008. [16] G. Charlet, “Coherent detection associated with digital signal processing for fiber optics communication”, Comptes-rendus de l’Académie des sciences, vol. 9, pp. 1 012-1 034, 2008. [17] G. Veith, E. Lach, K. Schuh, “100 Gbit-per-second: Ultra high tansmission bitrate for next generation optical transport networks”, Comptes-rendus de l’Académie des sciences, vol. 9, pp. 1 002-1 011, 2008. [18] Sato Ken Ichi, “The future of Optical Networks”, ECOC 2008 Bruxelles, tutorial paper We.3.A.1, 2008. [19] E.Desurvire,“Capacitydemandandtechnologychallenges for lightwave systems in the next two decade”, IEEE Journal of Lightwave Technology.vol 24, pp. 4 697-4 710, 2006. [20] R.-J. Essiambre, “Capacity Limits of Optical Fiber networks”, IEEE Journal of Lightwave Technology, vol. 28, n° 4, p. 662- 701, February 2010. [21] H. Debregeas Sillard, C. Kazmierski, “Challenges and advances of photonic integrated circuits”, Comptes-rendus de l’Académie des sciences, vol. 9, pp. 1 055-1 066, 2008. [22] L.-A. De Montmorillon, G. Kuyt, P. Nouchi, A. Bertaina, “Latest advances in optical fibers” Comptes-rendus de l’Académie des sciences, vol. 9, pp 1 045-1 054, 2008. [23] E. Le Rouzic, “Future Optical network Services”, ECOC 2011 Invited paper Tu.6.K.1. [24] Ph. Chanclou, “Technical Options for NGPON2 beyond 10G PON”, ECOC 2011 Invited paper We.9.6.3K.1. [25] A. Gladisch, “Challenges of next Generation Optical Trans- port development”, ECOC 2011 Invited paper We.9.K.1. [26] Chung Yun, “Recent Advances in WDM PON Technology”, ECOC 2011 Invited paper Th.11.C.4. [27] S. Tibuleac, “Trends in next generation ROADM networks”, ECOC 2011 Invited paper Th.12.A.1. [28] D. Nesset, “Network Operator Perspective on WDMPON systems and Applications”, ECOC 2011 Invited paper Th.12.C.6. [29] D. Hillerkuss et al. ,“26 Tbit/s line rate transmission using all optical Fast Fourier Transform Processing”, Nature Photonics vol. 5, 2011, pp. 364-371. [30] J. Renaudier et al. ,“Transmission of 100 Gb/s Coherent PDM-QPSK over 16 × 100 km of standard fiber with all erbium amplifiers”, Optics Express vol. 17, n° 7, March 2009, pp. 5 112-117. [31] P. Winzer, R. Essiambre, “Advanced Modulation Formats”, ECOC 2007 Tutorial Th.12.A.1. [32] N. Bergano, “The capabilities of the Undersea Telecom- munications Industry”, OFC 2010 paper OTuD3. Michel Joindot (Ecole Polytechnique 1965, ENST 1970) a mené une activité de recherche au CNET (aujourd’hui Orange Labs) dans le domaine des communications numériques appliquées aux systèmes de transmission radio, puis optiques. De 1983 à 1993, il a assuré la direction du DEA Signal Télécommunications Images Radar à l’université de Rennes-I. Il a été l’un des 15 ex- perts émérites au sein d’Orange Labs et a conduit cinq projets dans le domaine des réseaux optiques. En 2006, il a rejoint le la- boratoire Foton à l’Enssat, où il occupe une position de professeur émérite et où il contribue aux recherches dans les domaines des communications optiques et du traitement du signal. Irène Joindot a reçu son diplôme d’ingénieur de l’ENSI Caen, en 1970, une thèse de doctorat de l’Institut d’Electronique Fon- damentale d’Orsay en 1973, puis une Habilitation à diriger les recherches (HDR) de l’université de Montpellier-II en 1992. Au CNET (aujourd’hui Orange Labs) elle a poursuivi successivement, jusqu’en 2006, une activité de recherche sur les lasers, les am- plificateurs à fibre dopée, la dispersion modale de polarisation et enfin l’ingénierie des systèmes de transmission optique. les auteurs