Supercalculateurs : le flop financier

Et lutte contre les pseudo-sciences et les obscurantismes

Message par Barikad » 04 Fév 2005, 13:13

a écrit :Supercalculateurs : le flop financier

Le France n'investit pas assez dans ces machines surpuissantes.

Par Sylvestre HUET
vendredi 04 février 2005 (Liberation - 06:00)


«Depuis les années 90, nous accumulons du retard», regrette Sylvie Joussaume, directrice des sciences de la Terre et de l'Univers au CNRS. Les centres de calcul scientifique ­ l'Idris, à Orsay, pour le CNRS, et le Sines, à Montpellier, pour les universités ­ ne tiennent plus la route et ne peuvent être mobilisés à 100 % sur le climat. Très loin des meilleurs ­ Etats-Unis et Japon ­, ils sont dépassés en Europe par le Royaume-Uni, l'Allemagne et l'Espagne. Pour rester en course, estime Jean-Claude André, directeur du Centre européen de recherche et de formation avancée en calcul scientifique, «il aurait fallu investir 200 millions d'euros tous les trois ans dans l'achat de puissance de calcul».

Une situation perçue avec retard au ministère de la Recherche : une mission vient d'être diligentée sur le sujet, son rapport est attendu d'ici à la mi-mars. Aucun pays européen ne peut seul tenir le rythme, admettent les chercheurs. D'où le lobbying des climatologues en faveur d'une stratégie européenne visant à acquérir, d'ici à 2007, une puissance «d'environ 15 téraflops (milliers de milliards d'opérations par seconde, ndlr) réels, quel que soit le pays d'implantation», indique Sylvie Joussaume. Première étape vers la puissance de calcul rêvée par les scientifiques.

Le qualificatif de «réels» est décisif. Le Commissariat à l'énergie atomique vient de commander à Bull, pour la simulation des armes nucléaires, une machine de 60 téraflops. Une double commande (militaire et recherche civile) aurait peut-être été judicieuse. Sauf que son architecture ­ à base de 9 064 processeurs Itanium d'Intel ­ est massivement parallèle, à l'opposé des supercalculateurs vectoriels construits autour de quelques processeurs très puissants et très chers. Or, note Joussaume, «avec nos modèles climatiques, on peut utiliser près de 40 % de la capacité théorique d'un vectoriel, mais seulement 10 à 15 % d'un parallèle». Il faudrait viser au moins 40 téraflops en vectoriel et 150 pour une machine parallèle.

Une autre voie consiste à mettre en réseau plusieurs gros centres de calcul européens, c'est le projet Deisa, dirigé par l'Idris. Mais elle réclame des progrès décisifs dans la rapidité des transmissions entre ordinateurs pour rencontrer les besoins des climatologues. On n'échappera pas au «gros chèque» pour supercalculateur.
Barikad
 
Message(s) : 0
Inscription : 28 Mai 2003, 09:18

Message par Barikad » 04 Fév 2005, 13:17

Un exemple d'utilisation necessaire de super-calculateurs:

a écrit :Climat. Les scientifiques réclament des outils adaptés à leurs simulations.
L'ampleur du réchauffement, une affaire d'ordinateurs


Par Sylvestre HUET
vendredi 04 février 2005 (Liberation - 06:00)


dangereux, le changement climatique ? Sans doute, mais dans quelle proportion ? Et pour qui ? A quelle échéance ? Provoqué par quelles émissions de gaz à effet de serre ? Réunis à Exeter (Royaume-Uni) ces trois derniers jours à l'appel du Premier ministre britannique, Tony Blair, 200 scientifiques ont réitéré leur avertissement mais aussi déploré l'incertitude de leurs prévisions, souvent utilisée pour retarder des politiques visant à diminuer les émissions.

Sans réponse. Il nous faudrait, clame un groupe de scientifiques français, une puissance de calcul «12 500 fois» supérieure à celle dont nous disposons pour «déterminer le futur de la planète». Bigre. Revendication d'un meilleur outil de travail pour chercheurs déjà gâtés ? Non, rétorque Jean-Claude André, directeur du Cerfacs (Centre européen de recherche et de formation avancée en calcul scientifique) de Toulouse et initiateur d'un groupe de travail sur le sujet, plutôt un double constat. Un : de nombreuses questions posées par le changement climatique resteront sans réponse tant que des ordinateurs beaucoup plus puissants ne seront pas disponibles. Deux : la France joue en deuxième division, elle doit réagir. Une exigence scientifique, couplée d'un volet politique. Utilisées dans les négociations internationales sur le climat, les simulations numériques européennes doivent tenir la comparaison avec celles réalisées aux Etats-Unis ou au Japon.

Les émissions massives de gaz à effet de serre vont-elles provoquer un changement majeur, mais limité autour de 2° C de plus en moyenne annuelle planétaire d'ici à la fin du siècle ? Ou dériver vers les 6° C, menaçant les sociétés de bouleversements, mettant en cause infrastructures économiques, basses terres des deltas fluviaux, agriculture, pêche... ? Problème : la différence entre haut et bas de la fourchette tient autant aux quantités futures de gaz à effet de serre émis qu'aux incertitudes scientifiques sur le climat et ses réactions à la perturbation. De plus, les détails décisifs du changement ­ le rythme du réchauffement, ses traits régionaux, le risque d'événements météo extrêmes ou de surprise climatique ­ demeurent hors de portée des supercalculateurs actuels. Des informations décisives pour argumenter contre l'usage des combustibles fossiles et se préparer à des changements en partie inéluctables. D'où la shopping-list informatique (lire ci-dessous) établie par les climatologues, sans préjuger de leurs efforts concomitants en logiciels et compréhension des processus climatiques.

«Croqueurs de nombres». Lever les interrogations liées aux rétroactions des nuages exige ainsi d'introduire leur microphysique dans les modèles et d'améliorer leur résolution d'un facteur 100. Etudier le devenir des moussons, d'El Niño et autres phénomènes tropicaux exige des océans numériques, qu'il faut suivre heure par heure et à la dizaine de centimètres pour leurs couches de surface. Mesurer le risque d'arrêt du Gulf Stream à la fin du siècle ou au XXIIe siècle ? «Cela exige de prendre en compte les tourbillons de quelques dizaines de kilomètres», explique Serge Planton (Météo France). Et donc une machine dix mille fois plus puissante que les capacités actuelles. Explorer la fréquence et l'intensité des tempêtes et cyclones d'un climat réchauffé supposerait un supercalculateur cent fois plus costaud que celui de Météo France.

Le cycle du carbone, le devenir de l'ozone, l'effet climatique des changements des sols et des mégapoles, l'intégration des milliards de données réelles (satellitaires, etc.) dans les calculs... autant d'objectifs passant par des «croqueurs de nombres» cent à dix mille fois plus puissants. La perspective n'effraie pas les informaticiens, la technologie sera disponible d'ici quinze à vingt ans. Mais les climatologues français pourront-ils y accéder ?
Barikad
 
Message(s) : 0
Inscription : 28 Mai 2003, 09:18


Retour vers Sciences

Qui est en ligne ?

Utilisateur(s) parcourant ce forum : Aucun utilisateur inscrit et 1 invité