Les réseaux de télécommunications du futur : enjeux et évolution à un horizon de 5 à 10 ans

07/06/2013
Auteurs :
Publication REE REE 2013-2 Dossier L'avenir d'Internet
OAI : oai:www.see.asso.fr:1301:2013-2:4376

Résumé

Les réseaux de télécommunications du futur : enjeux et évolution à un horizon de 5 à 10 ans

Métriques

32
8
896.64 Ko
 application/pdf
bitcache://dbd69e26167a207a3befef596d389222ccad8345

Licence

Creative Commons Aucune (Tous droits réservés)
<resource  xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
                xmlns="http://datacite.org/schema/kernel-4"
                xsi:schemaLocation="http://datacite.org/schema/kernel-4 http://schema.datacite.org/meta/kernel-4/metadata.xsd">
        <identifier identifierType="DOI">10.23723/1301:2013-2/4376</identifier><creators><creator><creatorName>Ivan Meriau</creatorName></creator><creator><creatorName>Marc Bouillon</creatorName></creator><creator><creatorName>Prosper Chemouil</creatorName></creator><creator><creatorName>Chidung Lac</creatorName></creator></creators><titles>
            <title>Les réseaux de télécommunications du futur : enjeux et évolution à un horizon de 5 à 10 ans</title></titles>
        <publisher>SEE</publisher>
        <publicationYear>2013</publicationYear>
        <resourceType resourceTypeGeneral="Text">Text</resourceType><dates>
	    <date dateType="Created">Fri 7 Jun 2013</date>
	    <date dateType="Updated">Thu 26 Jan 2017</date>
            <date dateType="Submitted">Fri 13 Jul 2018</date>
	</dates>
        <alternateIdentifiers>
	    <alternateIdentifier alternateIdentifierType="bitstream">dbd69e26167a207a3befef596d389222ccad8345</alternateIdentifier>
	</alternateIdentifiers>
        <formats>
	    <format>application/pdf</format>
	</formats>
	<version>28797</version>
        <descriptions>
            <description descriptionType="Abstract"></description>
        </descriptions>
    </resource>
.

24 REE N°2/2013 L'AVENIR D'INTERNET Ivan Mériau, Marc Bouillon, Prosper Chemouil, Chidung Lac France Télécom Introduction Proposer une vision de l’évolution des réseaux à long terme (5-10 ans) est chose difficile, car ce terme est situé à la limite de l’horizon observable dans un contexte d’évolution technique et économique très rapide. Pour imaginer le jeu des possibles, il est utile de se plonger dans le passé. Au début des années 2000, nous étions au début du déploiement de l’ADSL – l’UMTS n’était pas encore déployé – et, en même temps, à la veille d’une révolution qui a fait passer en moins de 10 ans un réseau conçu et utilisé quasi exclusivement pour la téléphonie à la nouvelle ère de l’informatique et de l’Internet. Nous sommes aujourd’hui dans une nouvelle phase, avec en parti- culier le développement exponentiel des réseaux so- ciaux et le déploiement de réseaux d’accès à très haut débit, fixes et mobiles. Cette phase devrait amener à une évolution encore plus profonde que celle vécue lors du passage du RTC1 à l’ADSL. Les investissements, par exemple, seront plus im- portants qu’il y a dix ans : environ 18 Md e seront nécessaires pour raccorder 80 % de la population française en fibre optique, alors que le déploiement 1 Réseau Téléphonique Commuté. de l’ADSL n’a coûté que 2,5 Md e si l’on exclut le coût du réseau cuivre. Et au-delà de ces déploiements de nouveaux réseaux d’accès, c’est l’ensemble du réseau Internet qui va devoir évoluer. Nous proposons dans cet article d’aborder cinq tendances majeures : (i) la montée en débit au niveau des réseaux de transport et d’accès ; (ii) l’évolution vers des architectures orien- tées distribution de contenus ; (iii) la convergence des réseaux fixes et mobiles ; (iv) le passage à des réseaux ouverts et programmables ; (v) la prise en compte ren- forcée de la sécurité et de la sûreté de fonctionnement. Répondre à la forte croissance de la demande en débit Comme conséquence de l’évolution des usages et des nouveaux services, les experts prévoient que la croissance du trafic dans le réseau va se poursuivre à un régime soutenu (multiplication par environ deux tous les deux ans) dans les 5 à 10 ans à venir. A titre d’exemple, en France, le trafic instantané du réseau cœur IP d’Orange a dépassé le Tbit/s en octobre 2011 : il a été multiplié par dix depuis 2003. La croissance des débits pourrait s’échelonner entre 25 % et 40 % par an selon les scénarios. La demande pourrait ainsi être mul- tipliée par un facteur compris entre 15 et 40 d’ici dix ans. Sur les réseaux fixes, c’est la croissance de la consommation de contenus audiovisuels qui sera le principal moteur de cette croissance, mais c’est égale- ment l’évolution des formats vidéo qui devrait impo- ser son rythme : après la 3D, la très haute définition, Les réseaux de télécommunications du futur : enjeux et évolution à un horizon de 5 à 10 ans This paper shows our vision of future networks as they could evolve within 5 to 10 years from now. Five major issues illustrate this evolution: (i) traffic increase at the access and transport networks challenged by FTTH, VDSL and LTE for the former, by advanced optical technologies for the latter; (ii) transformation from current content distribution architectures (CDN) to enhanced ones (ICN); (iii) fixed-mobile convergence for which some traffic routing scenarios can be put in place; (iv) transition to virtualized, open and programmable networks (SDN); (v) consideration of enhanced security and dependability, especially for critical services. The technical innovations leading to these changes go along with economic constraints and sustainable ecosystem development. ABSTRACT REE N°2/2013 25 Les réseaux de télécommunications du futur : enjeux et évolution à un horizon de 5 à 10 ans la Quad HD (ou le format 4K)2 est prévue pour l’horizon 2015, puis la TV dite « immersive3 » à l’horizon 2020, avec des définitions de plusieurs dizaines de Megapixels. Les dé- bits nécessaires devraient sans doute alors être supérieurs à 100 Mbit/s pour un flux audiovisuel. Poussée par la généralisation des terminaux mobiles per- sonnels multimédia, la croissance des services de données mobiles devrait également se poursuivre à un rythme très soutenu dans les dix ans à venir. Si la cadence actuelle se maintient jusqu’en 2015, les besoins en débit devraient être multipliés par plus de 25 par rapport à 2010 selon les prévi- sions de la direction technique d’Orange France. Cette crois- sance se poursuivant au même rythme durant la période 2015-2020, les besoins pourraient être multipliés par 200 à 900 d’ici 2020 par rapport à 2010. Les débits issus des terminaux mobiles personnels seraient alors de deux à neuf fois supérieurs aux débits constatés alors sur les réseaux fixes et représenteraient alors entre 15 et 30 % du débit total du réseau, contre seulement 1 % en 2010. Une question majeure est de savoir comment les opé- rateurs feront face à cette demande, en conciliant les contraintes technologiques, économiques, mais également celles liées à leurs engagements en terme de maîtrise de la consommation énergétique. Sur l’accès fixe, ce sont les technologies FTTH4 et VDSL5 qui permettront d’assurer les déploiements du très haut dé- bit. La fibre optique pourra être déployée en point-à-point (une fibre par client jusqu’au central) ou en mode point- multipoint (fibre partagée) sur des réseaux optiques passifs de type PON [1]. Les perspectives d’amélioration des réseaux de type PON6 sont importantes avec une augmentation du débit théorique par client : quelques centaines de Mbit/s avec le GPON déployé actuellement, 1 Gbit/s avec les NGPON2 et, à long terme, des débits supérieurs avec NGPON3. Sur l’accès mobile, le passage à la quatrième génération (réseaux 4G) augmente de manière notable les débits dispo- nibles sur les réseaux cellulaires. Au-delà, on devrait pouvoir atteindre un débit partagé pouvant aller jusqu’à 1 Gbit/s dans 2 Les formats QuadHD et 4K sont deux formats vidéo proposant une défi- nition équivalente à 4 fois le format full HD actuel, soit 8 Megapixels. L’intérêt d'une définition beaucoup plus importante est en particulier de permettre aux utilisateurs de se rapprocher plus près de l’écran ou de pouvoir « zoomer » sur une partie de l’écran. 3 La télévision dite « immersive » permet une interaction forte avec les contenus audiovisuels et donne l’illusion d’un environnement réel. 4 Fiber To The Home : la fibre jusqu’au domicile. 5 Very High Bitrate Digital Subscriber Line : une technologie pour trans- mettre des débits plus importants (jusqu’à 100 Mbit/s symétrique) que l’ADSL, sur des courtes distances (quelques centaines de mètres). 6 Passive Optical Network. le sens descendant en situation stationnaire. La densification du réseau cellulaire en utilisant les technologies à petites cel- lules (“small cells”) sera également une solution pour aug- menter les débits. La technologie alternative pour les accès sans-fil est le Wi-Fi. Les bandes de fréquences utilisées ne font pas l’objet de licences. Ainsi, la technologie se développe de manière importante, que ce soit dans des réseaux priva- tifs, ou publics (hotspot). Les débits théoriques sont égaux ou supérieurs à ceux disponibles sur les réseaux cellulaires, mais, en pratique, l’absence d’ingénierie radio peut faire chu- ter ceux-ci de manière importante. Dans les réseaux de transport optiques, on devrait éga- lement assister à des évolutions fortes, tant au niveau des performances que des topologies : les débits en ligne sur les liens WDM7 du réseau cœur optique pourraient approcher le Tbit/s par longueur d’onde8 à l’horizon 2020 [2] et le réseau devrait être de plus en plus maillé afin de réduire sa consom- mation électrique globale. L’arrivée de technologies de type OBS9 pourrait apporter des économies supplémentaires sur la consommation grâce à une gestion plus efficace [3]. Concernant le réseau cœur IP, on pourrait avoir un cou- plage plus étroit entre la couche IP et la couche optique, en utilisant la technologie GMPLS10 . Pour ce qui concerne les 7 Wavelength Division Multiplexing. 8 La limite théorique est estimée à 34 Tbit/s pour la totalité de la bande C sur une portée de 500 km. 9 Optical Burst Switching : une technologie optique consistant à allouer de façon dynamique les longueurs d’onde. 10 Generalized Multi-Protocol Label Switching : GMPLS est un protocole permettant de gérer plusieurs types d’interfaces et de technologies de commutation. Il représente de facto un plan de commande pour les réseaux à commutation de longueur d’onde. Evolution des performances des systèmes La loi de Moore régit la croissance des performances des sys- tèmes électroniques (mémoires, processeurs, etc.) depuis plusieurs décennies. Pour les années à venir, compte tenu des difficultés et des investissements toujours plus importants pour passer à une nouvelle technologie de gravure, on sera probable- ment plus proche d’un doublement tous les deux ans que tous les ans. Une hypothèse considérant une multiplication par 30 des performances des systèmes entre 2010 et 2020 (doublement tous les deux ans) est sans doute la plus probable, mais il faudra également envisager une hypothèse plus positive correspondant à un gain d’un facteur 100. A plus long terme, il faudra étudier des technologies de rupture telles que la technologie graphène, l’informatique quantique, etc. 26 REE N°2/2013 L'AVENIR D'INTERNET performances, si on s’en tient aux prévisions des construc- teurs, l’architecture des routeurs IP devrait permettre de répondre à la charge pendant encore au moins dix ans. Les solutions optiques de type OBS pourraient prendre le relais des solutions IP, au moins partiellement, si celles-ci devaient s’essouffler plus rapidement que prévu, en permettant un ai- guillage au niveau optique. L’évolution vers des architectures de distribution de contenus (CDN11 , cache transparent) mas- sivement distribuées dans les réseaux des opérateurs pour- rait également soulager les routeurs et prolonger la durée de vie des architectures basées IP bien au-delà de 2020. Du CDN à l’ICN12 , intégrer la distribution de contenus en tant que fonction structu- rante du réseau du futur Cette évolution vers des architectures orientées distribu- tion de contenus semble inéluctable compte tenu du fait de l’évolution des usages : initialement utilisé principale- ment pour des échanges entre ordinateurs avec de faibles volumes de données (services de messagerie), l’Internet est aujourd’hui la première plate-forme de consommation de contenus audio visuels, avec en particulier de gros volumes de données ayant une très forte audience. Afin d’économi- ser de la bande passante réseau et pour améliorer la qua- lité perçue par les utilisateurs (en particulier la latence), les opérateurs déploient aujourd’hui de plus en plus dans leurs réseaux, en accord avec les ayants droit, des serveurs de dis- tribution de contenus, ou CDN, pour stocker et diffuser les contenus les plus populaires au plus proche des utilisateurs. Le coût du stockage diminuant plus rapidement que celui du transport, cette tendance devrait se renforcer dans les années à venir. Il devrait être plus simple et plus économique d’augmenter les capacités de stockage locales, plutôt que celles des réseaux de transport. Au-delà des contenus, c’est l’ensemble des traitements fortement consommateurs de ressources (débit, stockage, exécution) qui pourraient être distribués au plus proche des clients, au niveau d’un « central du futur » ou NG PoP13 , afin de proposer une qualité exem- plaire aux clients résidentiels et professionnels. Ce nœud regroupant des ressources d’agrégation d’accès, de transport, de stockage et d’exécution, et ouvert aux fournisseurs de services, pourrait être un élément-clé de l’infrastructure des opérateurs de réseaux du futur. L’optimisation de la consom- mation électrique du réseau et des terminaux deviendra éga- lement un critère de choix structurant dans les évolutions des architectures [4] [5] et pourrait renforcer son intérêt. La 11 Content Delivery Network. 12 Information-Centric Networking. 13 Next Generation Point of Presence. croissance de la consommation des “data centers” conduirait à la nécessité de proposer de nouveaux modèles alternatifs en termes de localisation/distribution des fonctions. Dans la suite logique des déploiements des CDN enga- gés aujourd’hui et du concept de NGPoP, on pourrait évo- luer dans une étape ultérieure vers l’Information-Centric Networking (ICN) [6] [7]. ICN repose sur l’idée forte que les réseaux du futur devront intégrer de manière native, en plus des ressources de transport traditionnelles, des ressources de stockage et d’exécution, et qu’un nouveau modèle sera néces- saire pour permettre cela de manière optimisée. ICN est une évolution naturelle des architectures CDN qui résout certains de leurs problèmes, comme la gestion et l'interopérabilité. ICN pourrait représenter en quelque sorte la standardisation d’une architecture CDN mondiale, massivement distribuée, interopérable, et automatisée. Au-delà de la simple diffusion de contenus, ICN propose de répondre globalement à une multiplicité de nouveaux besoins de communication dans les réseaux domestiques, dans les réseaux véhiculaires, pour l’Internet des objets, les réseaux sociaux, voire pour les ser- vices critiques. A ce titre, ICN peut être observé comme une évolution majeure dans les modèles de communication dont l’ambition est à la fois de proposer un nouveau modèle d’ar- Content Delivery Networks (CDN) Les CDN (Content Delivery Networks) sont des réseaux de ser- veurs situés en bordure de l’Internet pour fournir de manière efficace des contenus, en général de type audio/vidéo y compris en direct. Les serveurs qui sont répartis répliquent les contenus les plus demandés afin que les requêtes soient satisfaites au plus près des utilisateurs, améliorant la rapidité de chargement ou de visionnage. Les serveurs sont généralement connectés entre eux par des techniques pair à pair et leur accès est réalisé par des mécanismes de routage en overlay s’appuyant sur le système DNS1 de résolution de nom. Les performances de CDN sont grandement impactées par le nombre et la localisation des ser- veurs, ainsi que par la durée de vie des contenus dans les mêmes serveurs. Afin de maîtriser les coûts d'investissement face à la croissance massive du trafic de contenus, de nombreux opéra- teurs envisagent de déployer des nœuds CDN dans les équipe- ments même de réseaux (transparent caching). Afin d’améliorer encore plus la qualité d’expérience des utilisateurs et de réduire la congestion sur les artères, le concept d’ICN (Information-Centric Networking) a récemment été proposé et pourrait faciliter native- ment certaines fonctions de gestion. 1 Domain Name Server. REE N°2/2013 27 Les réseaux de télécommunications du futur : enjeux et évolution à un horizon de 5 à 10 ans Figure 1 : Modèles de cœur de réseau pour différents types d’accès. chitecture optimisé pour la distribution des contenus et de répondre aux limites et à la complexité des architectures IP. Contrairement aux principes IP qui sont fondés sur des communications entre équipements spécifiques identifiés par des adresses, ICN est basé sur le nom du contenu indé- pendamment de sa localisation et soulage les réseaux de transport et les “data centers” en stockant de manière auto- matique les données à la volée dans tous les (ou une partie des) routeurs traversés. En se centrant sur le contenu et sur l’information plutôt que sur l’adressage absolu, ICN facilite de facto la distribution de contenus et simplifie les architectures car il intègre nati- vement des fonctions essentielles telles que le multicast, la gestion de la mobilité, la protection des contenus. ICN pourrait voir le jour à l’horizon 2020/2030 dans sa version aboutie. Mais des premiers déploiements par îlots pourraient être initialisés avant 2020 dès lors qu’il y aura une maturité technologique suffisante et que les constructeurs disposeront d’équipements suffisamment performants (en terme de capacité de mémoire et de traitement). Une étape préalable pour faciliter l’introduction d’ICN pour- rait être d’évoluer dans un premier temps vers des équipe- ments réseau banalisés, virtualisés et programmables. ICN pourrait ainsi cohabiter avec IP sur une même infrastructure. Mais il reste de nombreux défis techniques à relever avant d’envisager ces pré-déploiements, concernant en particulier la performance des algorithmes de routage des contenus, la gestion du réseau ICN, la robustesse, ou encore l’interopéra- bilité (il s’agit d’avoir a minima le même niveau d’interopéra- bilité avec ICN qu’avec IP). Un autre défi pour ICN consistera à réaliser une standardi- sation du nommage des objets numériques, en accord avec l’ensemble de la communauté des fournisseurs de contenus, des éditeurs, etc. L’intégration des capacités de stockage des terminaux dans ICN pourrait également représenter un enjeu majeur. L’autre principe d’ICN, à savoir le stockage distribué intégré aux nœuds du réseau, devrait poser moins de difficul- tés et pourrait rapidement s’appliquer aux routeurs IP. Réaliser la convergence des réseaux cœurs fixes et mobiles Les réseaux mobiles évoluent régulièrement et repré- sentent de lourds investissements pour les opérateurs. Avec les réseaux LTE14 , se déploie actuellement la 4e génération de systèmes et d’architectures et les discussions sont d’ores et déjà ouvertes pour définir les principes de la génération sui- vante. Un constat s’impose aujourd’hui et pour les réseaux de demain : le trafic explose mais la quote-part correspondant aux services des acteurs OTT15 est largement prépondérante par rapport à celle liée aux services de l’opérateur. Ceci conduit à se poser différentes questions : comment les architectures mobiles LTE pourront-elles supporter la très forte croissance de la demande en débit ? Quelles solutions et quelles stratégies pour éviter l’engorgement des réseaux cel- 14 Long Term Evolution. 15 Over The Top, ou grands acteurs de l’Internet. 28 REE N°2/2013 L'AVENIR D'INTERNET lulaires ? Faut-il garder un réseau cœur mobile et des plates- formes mobiles spécifiques ou bien faut-il évoluer vers un modèle beaucoup plus intégré (c’est-à-dire fixe-mobile) ? Quel est l’impact des architectures de distribution de contenus ? Une première solution (figure 1) consiste à faire tran- siter l’ensemble du trafic Wi-Fi et cellulaire par le cœur réseau mobile. Ceci permet de proposer une continuité de service entre les différents types d’accès. Le Wi-Fi ap- porte une extension de couverture, ainsi qu’une voie de délestage des réseaux radio cellulaires. Cette solution, qui s’appuie sur la normalisation, existe déjà aujourd’hui et est adaptée au cas où l’on opère des réseaux mobiles, mais ne préjuge pas du contrôle que l’opérateur mobile pourrait avoir sur les accès Wi-Fi. Une seconde solution consiste à accéder aux plates- formes de services et à la connectivité Internet sans passer par des équipements spécifiques au réseau cœur mobile : c’est actuellement l’usage majoritaire depuis un Wi-Fi rési- dentiel, mais on peut également mettre en œuvre une solu- tion de ce type depuis un hotspot Wi-Fi, ou en utilisant des mécanismes de type SIPTO16 (voir encadré). Se pose alors la question de la reproduction (totale, partielle ou sans) des fonctionnalités offertes par le réseau mobile (e.g., continui- té de service, authentification, taxation, interception légale, mobilité, etc.) et du niveau de l’architecture dans lequel une telle reproduction doit être réalisée. Cette solution existe déjà aujourd’hui et peut-être considérée comme concurrente ou 16 Selective IP Offload. complémentaire à la solution précédente en fonction des contextes. En combinant les deux solutions, on retrouve une généralisation « intelligente » du concept 3GPP17 permettant de router le trafic vers le cœur du réseau mobile ou de s’en délester localement en fonction du besoin du service et de la stratégie de l’opérateur. Une troisième solution, à plus long terme, consiste à construire un modèle nativement convergent entre les archi- tectures fixes et mobiles, sans partir nécessairement d'une déformation d'un préexistant fixe ou mobile. Elle vise une architecture plus optimisée et est plus particulièrement adap- tée au cas d’un opérateur intégré opérant à la fois un réseau fixe et un réseau mobile. Cette convergence pourra être mise en œuvre progressi- vement et prendre plusieurs formes, allant de l'harmonisation fonctionnelle (certaines fonctions comme l’authentification, la facturation, le filtrage, la gestion du nomadisme, etc.) jusqu'à la convergence des équipements des réseaux cœurs mobiles et fixes, distribués au niveau du NGPoP. La distri- bution des fonctions du réseau cœur mobile au niveau du NGPoP sera motivée par la volonté de permettre une évasion du trafic mobile au plus bas du réseau afin d’obtenir des gains en transport et par le souhait de mutualiser les plates-formes de distribution de contenus et CDN. Notons enfin que la virtualisation des systèmes et l’ou- verture des plans de commande constituent une évolution 17 3rd Generation Partnership Project, principal organisme de standardi- sation des architectures mobiles. La solution SIPTO La solution SIPTO a été standardisée au 3GPP afin de décharger partiellement le cœur de réseau mobile du trafic Internet en distribuant à la périphérie du réseau une fonction de passerelle (SIPTO local gateway ou L-PGW) vers le réseau Internet REE N°2/2013 29 Les réseaux de télécommunications du futur : enjeux et évolution à un horizon de 5 à 10 ans qui devrait à la fois faciliter la convergence des architectures systèmes fixe et mobile et l’évolution vers des modèles plus distribués : en effet, ils pourront nativement partager une même infrastructure banalisée et virtualisée. Evoluer vers un réseau programmable reposant sur une infrastructure virtualisée, convergente, banalisée et ouverte La convergence des technologies de l’informatique et des télécommunications devrait se traduire par une utilisation de plus en plus généralisée des technologies de virtualisation au sein des équipements de télécommunications. La virtualisation des équipements va permettre une dé-cor- rélation beaucoup plus forte entre l’infrastructure physique du réseau et les logiciels exécutés sur cette infrastructure. Ceci est une opportunité forte pour réduire les coûts des réseaux et pour gagner en flexibilité dans l’introduction de nouvelles fonctions et de nouveaux services. Pour autant, ces concepts qui facilitent une abstraction des réseaux faisant fi de l’hété- rogénéité des équipements nécessitent un effort accru pour orchestrer et gérer la diversité des ressources mises en jeu. A un horizon de 10 ans, le réseau pourrait ainsi s’appuyer massivement sur des systèmes matériels banalisés et pro- grammables proposant des ressources de transport, routage, stockage et exécution. Le métier de l’opérateur réseau devrait ainsi se transformer en métier de programmeur et d’exploi- tant d’une infrastructure informatique distribuée : le réseau d’informations (figure 2). Il faudra définir des interfaces standardisées afin de programmer et de personnaliser cette infrastructure. Ceci est l’objet des études sur le Software-Defined Networking (SDN) [8], au travers des protocoles de type OpenFlow [9]. Figure 2 : Vers un réseau programmable. Virtualisation des fonctions réseaux La virtualisation est une solution utilisée dans le monde informatique pour partager des ressources (exécution, stockage) entre plusieurs applica- tions, tout en garantissant l’étanchéité entre les applications. Elle permet, par exemple, de faire tourner sur un même ordinateur deux systèmes d’exploitation différents (Linux et Windows). L’évolution des techniques de virtualisation et des performances des composants x86 permet aujourd’hui d’envisager de les utiliser dans les équipements des réseaux opérateurs. A la demande des opérateurs, l’ETSI vient de lancer un groupe de travail (NFV – Network Functions Virtualisation) dont l’objectif est d’étudier la problématique de la virtualisation des fonctions réseaux sur des équipements banalisés (serveurs standards, unités de stockage standards, commutateurs bas coût). A plus ou moins long terme, tous les segments de réseau pourraient potentiellement être impactés, au moins en partie, par cette évolution : les fonctions réseau des datacenters dans un premier temps, puis les plates-formes de gestion et de commande du réseau, et enfin les équipements du plan de transfert : les routeurs, les CDN, les passerelles fixe ou mobile, les nœuds d’accès, etc. 30 REE N°2/2013 L'AVENIR D'INTERNET Les industriels, les opérateurs de télécommunications, mais également les grands acteurs de l’Internet qui déploient et exploitent des "data centers", sont directement impliqués dans ces travaux qui pourraient redéfinir fortement les rôles et relations entre les uns et les autres. Intégrer sécurité et robustesse en tant que contraintes majeures et essentielles Les réseaux de télécommunications ont été traditionnel- lement accompagnés par une bonne confiance technique [10]. Du temps de l'usage exclusif de ces réseaux pour la téléphonie, les « cinq neuf » représentaient la norme : une disponibilité de 99,999 %, équivalente à environ 5 minutes d'indisponibilité annuelle, était naturellement exigée. Avec l’explosion de l’Internet et du protocole IP, des secteurs entiers de l’économie ont basculé leurs réseaux dédiés vers les infrastructures communes des opérateurs. Les « services critiques » ont ainsi quitté le cadre étroit des numéros d’urgence pour englober d’autres services de télécommunications : informations médicales, données financières, etc. Or, le monde IP, basé sur l’acheminement des paquets d’information en mode "best effort", est par nature moins exigeant/contraignant en terme de disponibi- lité instantanée. Il s’ensuit que l’indisponibilité de ces ser- vices, due à un dimensionnement inadéquat, un accident ou un acte malveillant, peut alors se révéler catastrophique. Les exigences devenues plus fortes de la part des clients en termes de disponibilité des services, de sécurité, de confidentialité des données personnelles seront autant de contraintes sur les infrastructures (réseaux, plates-formes) mais seront aussi des opportunités pour les opérateurs qui sauront être à la hauteur de ces exigences. De nombreuses fonctions seront à prévoir pour les in- terceptions légales, la détection d’attaques distribuées (ou non), le filtrage, le stockage d’informations (logs, etc.). La sécurité est à prendre au sens large : sécurité vis-à-vis du client, vis-à-vis du réseau et des infrastructures et vis-à-vis des institutions. La sécurité pourrait par ailleurs être l’oppor- tunité de services à valeur ajoutée qui seront hébergés dans le réseau : contrôle parental, pare-feu, authentification forte, mise à disposition de coffres-forts, etc. Il est indispensable dans ce contexte de repenser la ro- bustesse et la sécurité des services, et plus particulièrement des services critiques, au niveau de la conception de l’archi- tecture du réseau et celle des équipements : celles (susceptibles d’être) mises en place dans un contexte informatique ; approches réparties de type "Application Delivery Networ- king" et/ou "Edge Computing" ; SDN [11], par exemple, en qualifiant la résilience des com- posants (contrôleur, …) de ces architectures [12] ; des machines virtuelles remplissant les fonctions réseau indispensables à la réalisation des services critiques. Par ailleurs, afin de réduire les problèmes liés à une com- plexité toujours croissante des architectures et des besoins et pour faire baisser le coût d’exploitation des réseaux, il devient nécessaire de mettre en place des mécanismes automatisés pour configurer les infrastructures. La multiplicité des tech- nologies, des applications et services ainsi que des usages milite fortement en faveur d’une exploitation largement auto-organisée, permettant d’automatiser les mécanismes de configuration, de détection et de résilience à l’échelle des réseaux. Initialement développées pour les réseaux LTE, les approches de type SON18 doivent être élargies à l’ensemble de l’infrastructure de l’opérateur, afin d’automatiser au maxi- mum la gestion de cette infrastructure et d’aller vers des ré- seaux beaucoup plus autonomes et plus robustes. Toute une communauté scientifique et industrielle se penche depuis une dizaine d’années sur le concept "d’autonomic networ- king" afin d’identifier les modèles architecturaux de gestion les plus adéquats pour répondre aux besoins de réactivité et d’agilité des réseaux. Conclusion : vers un changement de paradigme Les réseaux de télécommunications ont connu des évolu- tions majeures ces dernières années, avec les déploiements en masse des accès à haut débit, fixes puis mobiles, la géné- ralisation des architectures IP et le développement massif de l’écosystème Internet. Cette évolution devrait se poursuivre à un rythme soutenu dans les 5 à 10 années à venir et pour- rait même s’accélérer, compte tenu de la forte demande des consommateurs, de l’évolution des usages et des technolo- gies, mais aussi de l’intense compétition qui règne entre les différents acteurs de cet écosystème. Cette concurrence conduit à une course à l’innovation et à une importante transformation de la chaîne de valeur qui peut sembler aujourd’hui à l’avantage des acteurs de l’Internet. Mais, pour peu qu’ils anticipent et préparent les transformations nécessaires, les opérateurs de réseaux et leurs partenaires industriels disposent, grâce à leur 18 Self-Organizing Networks. REE N°2/2013 31 Les réseaux de télécommunications du futur : enjeux et évolution à un horizon de 5 à 10 ans maîtrise des infrastructures et à leur savoir-faire en matière de conception et d’exploitation des réseaux, d’atouts majeurs sur lesquels ils peuvent s’appuyer dans les années à venir pour maintenir ou renforcer leur rôle dans la chaîne de valeur et dans la chaîne de l’innovation. Les architectures et protocoles IP devraient continuer à être utilisés massivement jusqu’à la fin de la décennie. Mais ils devraient laisser place progressivement à une nouvelle génération de mécanismes et protocoles optimisés pour les usages du futur qui ont été présentés dans cet article. S’il demeure des incertitudes quant à leur rôle effectif dans les réseaux du futur, les différentes briques des réseaux de demain sont identifiées. Elles reposeront sur l’informa- tique dématérialisée, la virtualisation, le SDN, l’ICN, l’OBS, la convergence entre informatique et réseaux, la convergence fixe-mobile. Les réseaux de demain ne seront plus unique- ment des moyens pour créer de la connectivité, mais embar- queront aussi des ressources d’exécution et de stockage. Ils devraient également contenir une intelligence applicative et pourront adapter leur comportement au contexte de l’utili- sateur et du terminal. Leur gestion sera automatisée et ils proposeront une commande intégrée des différents types de réseaux d’accès, qui pourra s’étendre jusqu’aux réseaux privatifs des clients. La convergence entre les technologies de l’informatique et des télécommunications est centrale et constitue une opportunité pour les réseaux. Elle devrait conduire à l’ar- rivée de nouvelles générations de réseaux, à la fois plus puissants, plus flexibles, ouverts et programmables, en par- ticulier grâce aux technologies de virtualisation. La virtualisa- tion des ressources réseaux, si elle se généralise, conduira à une refonte totale des architectures systèmes et à l’émer- gence de nouveaux modèles d’affaires et de nouveaux ser- vices d’infrastructure. Références [1] F. Merlaud, « Evolution des réseaux d'accès filaires, du haut au très haut débit », REE, Revue de l'Electricité et de l'Electronique, n° 11, 2010, pp. 32-45. [2] M.Joindot&I.Joindot,«Lesréseauxdetélécommunications optiques : construction, évolution et perspectives », REE, Revue de l'Electricité et de l'Electronique, n° 01, 2012, pp. 24-39. [3] F. Idzikowski, S. Orlowski, C. Raack, H. Woesner & A. Wolisz, "Dynamic routing at different layers in IP-over-WDM networks - maximizing energy savings", Optical Switching and Networking, vol. 8, pp. 181-200, July 2011. [4] L. Souchon Foll, « TIC et énergétique : techniques d'esti- Figure 3 : Scénario d'infrastructure de réseau à horizon 5-10 ans. 32 REE N°2/2013 L'AVENIR D'INTERNET mation de consommation sur la hauteur, la structure et l'évolution de l'impact des TIC en France », Thèse de Doctorat : Institut National des Télécommunications, 2008. [5] J. Chabarek, J. Sommers, P. Barford, C. Estan, D. Tsiang & S. Wright, "Power awareness in network design and routing", IEEE 27th Conference on Computer Communications (INFOCOM), Phoenix, AZ, USA, 2008. [6] K. Pentikousis, P. Chemouil, K. Nichols, G. Pavlou & D. Massey, "Information-centric networking", IEEE Communications Magazine, vol. 50, n° 17, 2012, pp. 22-25. [7] B. Ahlgren, C. Dannewitz, C. Imbrenda, D. Kutscher & B.Ohlman,"Asurveyofinformation-centricnetworking",IEEE Communications Magazine, vol. 50, n° 17, 2012, pp. 26-36. [8] Open Network Foundation, "Software-Defined Net- working: the new norm for networks", April 2012. [9] N. McKeown, T. Anderson, H. Balakrishnan, G. Parulkar, L. Peterson, J. Rexford, S. Shenker & J. Turner, "Openflow: enabling innovation in campus networks", ACM Computer Communication Review, vol. 38, n° 12, 2008, pp. 69-74. [10] P. Collet, « Les vulnérabilités des grands réseaux de télécommunication », REE, Revue de l'Electricité et de l’Electronique, n° 01, 2013, pp. 17-26. [11] S. Hartman, M. Wasserman et D. Zhang, "Security requirements in the SDN model", Internet & draft, 2012. [12] P. Porras, S. Shin, V. Yegneswaran, M. Fong, M. Tyson & G. Gu, "A security enforcement kernel for OpenFlow networks", ACM SIGCOMM, Helsinki Finland, 2011. Ivan Mériau est ingénieur ENSEEIHT (1993) et a rejoint le Centre National d’Etudes des Télécommunications en 1994. A partir de 2000, Il a pris en charge des projets R&D de support aux déploiements ADSL du groupe France Télécom. Depuis 2007/2008, il pilote des projets ou programme de recherches sur l’évolution des architectures réseaux à moyen/long terme. Il s’intéresse actuellement particulièrement aux architectures orien- tées contenus (CDN, ICN) et à la convergence des technologies de l’informatique et de la communication Marc Bouillon a obtenu en 1992 un DESS d’Informatique à la suite d’études en mathématiques et informatiques théoriques. A partir de 1994, il a mené au sein de France Télécom diverses études d’optimisation des réseaux longue distance (voix, IP, trans- mission, …) pour le moyen-long terme. Il a ensuite travaillé sur les architectures pour les déploiements multiservices à court moyen et long terme (NGN, IMS, …). Il porte aujourd’hui une ré- flexion globale sur les schémas d’évolution des réseaux à moyen- long terme et est reconnu comme expert dans la communauté “Network of Future” d’Orange. Prosper Chemouil est ingénieur de l’Ecole Centrale de Nantes (1975) et docteur-ingénieur en automatique en 1978. Après un séjour post-doctoral d’un an à l’Université de Manchester, il a rejoint le Centre National d’Etudes des Télécommunications en 1980, où il a dirigé le département « Gestion de Trafic dans les Réseaux ». Actuellement, il anime des recherches sur les réseaux du futur à Orange Labs, le centre de R&D d’Orange. Il s’intéresse particulièrement aux nouveaux modèles qui sous-tendent la conception de l’Internet du futur et à leur impact sur les architec- tures et l’exploitation de réseaux, l’ingénierie de trafic et la qualité de service (QoS). Il est membre émérite de la SEE (2000) et Fellow de l’IEEE (2003). Chidung Lac est docteur d’Etat-ès-Sciences (Université d’Orsay, 1987), ingénieur-chercheur à France Télécom où il a dirigé des projets européens tels que le NoE ReSIST, et le STREP ResumeNet pour le compte d’Orange Labs. Ses travaux actuels concernent la résilience des réseaux et services, et les implémentations des futures architectures. LES AUTEURS