Le calcul à haute performance

Ruptures et enjeux 15/03/2016
Publication REE REE 2016-1
OAI : oai:www.see.asso.fr:1301:2016-1:16243

Résumé

Le calcul à haute performance

Métriques

98
10
185.37 Ko
 application/pdf
bitcache://9f47a0a8375fe2383a1dc3d0d73fba8df288433c

Licence

Creative Commons Aucune (Tous droits réservés)
<resource  xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
                xmlns="http://datacite.org/schema/kernel-4"
                xsi:schemaLocation="http://datacite.org/schema/kernel-4 http://schema.datacite.org/meta/kernel-4/metadata.xsd">
        <identifier identifierType="DOI">10.23723/1301:2016-1/16243</identifier><creators><creator><creatorName>Gérard Roucairol</creatorName></creator></creators><titles>
            <title>Le calcul à haute performance</title><title>Ruptures et enjeux</title></titles>
        <publisher>SEE</publisher>
        <publicationYear>2016</publicationYear>
        <resourceType resourceTypeGeneral="Text">Text</resourceType><dates>
	    <date dateType="Created">Tue 15 Mar 2016</date>
	    <date dateType="Updated">Thu 26 Jan 2017</date>
            <date dateType="Submitted">Fri 10 Aug 2018</date>
	</dates>
        <alternateIdentifiers>
	    <alternateIdentifier alternateIdentifierType="bitstream">9f47a0a8375fe2383a1dc3d0d73fba8df288433c</alternateIdentifier>
	</alternateIdentifiers>
        <formats>
	    <format>application/pdf</format>
	</formats>
	<version>26974</version>
        <descriptions>
            <description descriptionType="Abstract"></description>
        </descriptions>
    </resource>
.

REE N°1/2016 1 D e profondes ruptures sont en cours, tant tech- nologiques qu’économiques ou d’usage, qui ont déjà, ou vont avoir, un impact considé- rable sur l’architecture des ordinateurs et la manière de s’en servir, sur la structure de l’industrie ainsi que sur les usages de la haute performance. Mais au-delà c’est l’ensemble de l’informatique et plus généralement du numé- rique qui est concerné tant il est vrai, et l’histoire l’a montré, que, dans tous les domaines, les applications existantes ont toujours besoin de faire plus et plus vite et que l’augmentation de la puissance de calcul rend possible de nouvelles applica- tions. De ce point de vue, ce qui se passe dans le domaine du calcul intensif préfigure des évolutions profondes de l’en- semble des technologies et des marchés de l’informatique. Si on examine l’axe des évolutions technologiques, la rupture majeure provient du fait que l’augmentation de la puissance informatique ne peut plus désormais reposer sur l’accroisse- ment de la fréquence des microprocesseurs. En effet l’aug- mentation considérable de la consommation électrique et de la dissipation thermique qui résulte de l’accroissement de cette fréquence ont conduit les fabricants de semi-conduc- teurs à limiter cette fréquence à 3 ou 4 GHz. La seule manière d’augmenter la vitesse d’un traitement infor- matique consiste donc à essayer d’effectuer en même temps, c’est-à-dire « en parallèle », plusieurs tâches que comporte ce traitement. Pour cela on va pouvoir bénéficier du proces- sus encore soutenu de miniaturisation des transistors afin de disposer, sur un circuit intégré, de plusieurs cœurs de proces- seurs, à terme de plusieurs centaines, puis de regrouper ces circuits au sein de plusieurs dizaines de milliers de serveurs interconnectés au sein d’une même machine qui permettra d’atteindre des puissances extrêmes comme l’exaflop (le mil- liard de milliards d’opérations arithmétiques à la seconde). La mise en œuvre de telles architectures, dites « massivement parallèles », pose de nombreux problèmes technologiques pour limiter la consommation énergétique et pour assurer la résilience de ces architectures. Mais l’une des difficultés essentielles est liée à l’exploitation par le logiciel de telles architectures. Il va falloir concevoir des algorithmes capables de s’accommoder de niveaux très élevés de parallélisme ainsi qu’écrire et mettre au point des programmes parallèles dont la complexité va croître de manière considérable. Cette diffi- culté est majeure et il faut constater que la très grande majo- rité des logiciels existants, qui sont séquentiels ou présentent un faible taux de parallélisme, ne peuvent absolument pas ti- rer parti de ces futures architectures. Il en résulte notamment que pour un industriel fournisseur de technologie, la taille de sa base installée n’est plus un garant de sa position future. En effet de nouveaux circuits intégrés de traitement vont devoir être inventés, de nouvelles architectures de machines vont être mises en œuvre, de nouveaux logiciels de base ou inter- giciels vont devoir être conçus et de nouvelles applications vont devoir être créées de toute pièce sans que pour l’instant aucun standard n’existe. Compte tenu de la multiplicité des pistes technologiques qui vont conduire à l’élaboration des futurs systèmes informatiques, on peut aussi constater que la traditionnelle indépendance entre le matériel et le logiciel qui s’est décantée au bout de plusieurs dizaines d’années de dé- veloppement des marchés de l’informatique, va être remise en cause. De nouveaux paramètres de changement de ce marché vont donc être introduits qui impacteront probable- ment très fortement l’industrie des progiciels et des services. Dans ce contexte, il est clair que des opportunités consi- dérables apparaissent pour modifier en profondeur le jeu d’acteurs qui s’est installé au sein du marché mondial de l’informatique. Notre pays est bien placé pour tirer parti de ces opportunités. En effet la France est l’un des rares pays dans le monde et le seul en Europe à disposer d’acteurs industriels « leaders » qui couvrent une très grande partie de la chaîne de valeur du calcul intensif. Cette chaîne, qui va de la conception de supercalculateurs à des usages pion- niers par de grands utilisateurs en passant par l’élaboration, la vente d’applications et le service, peut en outre tirer bé- néfice d’une recherche technologique publique au meilleur niveau mondial. Si on analyse l’axe des évolutions d’usage du calcul à haute performance, on peut remarquer qu’historiquement c’est la simulation numérique qui a guidé le recours au calcul inten- sif et ceci dans quelques domaines d’application : la défense, la recherche, la météo pour le secteur public, l’industrie manufacturière (automobile, aéronautique) et l’énergie Le calcul à haute performance Ruptures et enjeux EDITORIAL GÉRARD ROUCAIROL 2 REE N°1/2016 pour le secteur privé. De plus ces usages ont été principa- lement le fait de grandes organisations au sein de l’Etat ou de grandes entreprises du secteur privé. Les méthodes de simulation quant à elles ont le plus souvent reposé sur une modélisation mathématique aussi exacte que possible de processus physiques. Dans le futur, les trois paramètres que nous venons de citer (domaines d’application, méthodes de simulation, caractérisation des utilisateurs) vont évoluer très fortement pour démultiplier très largement les usages du calcul intensif. En ce qui concerne les méthodes, outre l’emploi d’algo- rithmes plus classiques de fouilles de données, la capacité de collecter des informations générées sur Internet en très grande quantité favorise l’éclosion de méthodes d’autoap- prentissage. Ces méthodes rendues possibles par la puis- sance de calcul maintenant disponible, conduisent à une modélisation devenue statistique des processus à la source des données correspondantes (Big Data). Quelles que soient les méthodes de simulation utilisées, les domaines d’usage vont être très largement étendus à ceux par exemple de la santé, de l’urbanisation, de l’agroalimentaire, des matériaux, du multimédia, de l’analyse de risque, de l’analyse marketing, de la cosmétique, de la chimie, de la sociologie… Le déploiement des infrastructures de cloud, en transformant un coût d’investissement nécessairement élevé pour des supercalculateurs, en un coût de fonctionnement et d’achat de services à la demande, va permettre de « démocratiser » l’accès au calcul intensif au bénéfice des PME et des ETI tout en accélérant la diversification des domaines d’applications. On le voit, les ruptures et opportunités associées à l’évolu- tion du calcul à haute performance sont considérables tout autant que leurs impacts sur la structure de l’industrie tant utilisatrice que productrice de technologies. En France le plan industriel « Supercalculateurs » dont je suis le chef de file, est à même de positionner notre pays dans le groupe de tête de la compétition mondiale et ceci sur tous les plans : technologies matérielles, diversification des usages, diversifi- cation et élargissement des utilisateurs, formation. Au-delà il convient de préparer une évolution encore plus radicale qui va concerner les fondements mêmes du calcul informatique et les matériaux qui vont le mettre en œuvre. La recherche fondamentale doit absolument s’organiser au sein d’un effort à la fois significatif et multidisciplinaire pour préparer le futur du numérique et la place de notre pays dans ce domaine. Gérard Roucairol a débuté sa carrière professionnelle comme professeur d’Informatique à l’université Pierre et Marie Curie, puis à l’université Paris Sud et enfin à l’Ecole normale supérieure. En 1984, il rejoint le groupe Bull pour en prendre la Direction scientifique et est à l’origine du repo- sitionnement de Bull sur les supercalculateurs. Depuis 2009, il préside l’association Teratec. Il a été président de l’Acadé- mie des technologies et, depuis 2014, il préside le Conseil scientifique de l’Institut Mines-Télécom. Une machine Bull du centre de calcul civil du CEA - © CEA/P.STROPPA