Le calcul scientifique tend à prendre de plus en plus
d'importance dans l'activité des laboratoires de recherches fondamentales
et appliquées. L'ordinateur est devenu l'outil de travail privilégié
du scientifique ou de l'ingénieur. On objectera que depuis les grecs
les astronomes ne se sont pas contentés d'observer le ciel ; ils
ont également prédit les phénomènes (par exemple
les éclipses) et les positions des planètes et des étoiles
sur la voûte céleste, et donc bâtit des modèles
géométriques qui rendaient compte avec un certain succès
de leurs observations. Les physiciens depuis le XVII ème siècle
ont suivi leur trace avec le succès que l'on sait. Le calcul proprement
dit a toujours été une part significative de leur travail.
Les observatoires employaient alors des dizaines de personnes spécialisées
dans cette activité. En effet, nous connaissons depuis Newton une
loi de la Gravitation universelle qui, en première approximation,
fournit un excellent modèle pour le mouvement des planètes
dans le système solaire. Le seul problème, c'est que ses
équations ne sont pas intégrables, c'est à dire qu'elles
n'ont pas de solutions exprimables à l'aide de fonctions usuelles
dès que le nombre de corps en présence est supérieur
à deux. Aussi, les astronomes ont-ils dû développer,
à l'aide de séries des solutions approchées qui tiennent
compte des perturbations exercées sur le mouvement d'une planète
dans sa course autour du soleil par les autres planètes. Après
de longs calculs numériques, celles-ci fournissent des éphémérides
précises concordant avec les observations et les mesures. En fait,
l'astronomie a intégré très tôt dans ses travaux
de recherche l'utilisation systématique du calcul.
L'apparition de l'informatique, donc d'un moyen de calcul relativement
bon marché et puissant, a en quelques dizaines d'années tout
bouleversé. L'expérimentation et l'observation sont devenues
relativement secondaires, le calcul essentiel. Certains trouveront que
j'exagère, mais un exemple récent prouve que les responsables
politiques ont intégré cette évolution de la recherche
scientifique et technique : les essais nucléaires permettant la
mise au point de nouveaux modèles de bombes thermonucléaires,
prohibés par des accords internationaux, seront dorénavant
remplacés par des "essais numériques" à la portée
des nouvelles générations de super calculateurs.
Rôle de l'expérience, de la généralisation
et du calcul en physique
"L'expérience est la source unique de vérité:
elle seule peut nous apprendre quelque chose de nouveau; elle seule peut
nous donner des certitudes". Cette affirmation du mathématicien
et astronome Henri Poincaré (1) ne serait contredite
par aucun scientifique aujourd'hui. Pourtant, l'expérience tend
à occuper une place de plus en plus restreinte dans l'activité
des laboratoires et des observatoires. Car bien évidemment, les
données collectées ne fournissent pas en elles-mêmes
une explication des phénomènes étudiés et ne
permettent pas de prévoir leur évolution. L'activité
scientifique passe par la généralisation à partir
des observations, et par la construction de modèles le plus souvent
mathématiques. La valeur d'un modèle dépend de son
caractère prédictif en suggérant de nouvelles observations
ou de nouvelles expériences, qui pourront éventuellement
montrer ses limites ou aboutir à des résultats contradictoires
avec ses prévisions. Un exemple : Képler a découvert
expérimentalement à partir des observations de l'astronome
danois Ticho Brahé les trois lois qui permettent de décrire
le mouvement d'une planète autour du soleil. Mais c'est Newton qui
a généralisé les idées de Képler en
posant les équations de la gravitation et en les résolvant,
dans le cas où le système se réduit à deux
corps. Il a retrouvé les résultats de ce dernier comme conséquence
logique et nécessaire d'une loi d'attraction inversement proportionnelle
au carré de la distance. Le modèle newtonien ne fut définitivement
accepté que lorsqu'il permit de bâtir une théorie approchée
du mouvement de la lune soumise à l'attraction de la terre et du
soleil, problème qui résistait à la sagacité
des astronomes et des mathématiciens depuis 1750.
Le modèle newtonien fera école : mécanique
rationnelle, électrostatique, optique, équations des ondes,
relativité... Depuis le XVIIème siècle, la physique
est devenue plus abstraite et les représentations que nous nous
faisons de la réalité passent par des modèles mathématiques
très éloignés du "sensible". Des observations issues
d'une réalité finie, on déduit un modèle continu
sous la forme d'un système d'équations différentielles
ou d'équations aux dérivées partielles, qui font appel
aux ressources de l'analyse mathématique. Ces équations en
général ne sont pas intégrables, c'est à dire
que l'on ne peut en écrire les solutions avec les fonctions classiques.
Leur résolution n'est possible que dans certains cas particuliers.
Or, comme le fait remarquer l'astrophysicien Étienne Klein, "les
physiciens, jusqu'à une époque récente, s'étaient
davantage intéressés aux équations qu'aux solutions.
Or les systèmes complexes ont des propriétés émergentes,
qui ne sont pas contenues explicitement dans les équations"
(2). En fait, on ne sait pas les résoudre d'une
manière purement analytique, et il est souvent dangereux de généraliser
le type des solutions obtenues dans des cas particuliers.
Avec l'apparition des ordinateurs, les scientifiques disposent
de méthodes qui permettent de trouver des solutions numériques
aux modèles qu'ils peuvent construire, sous la forme de suites de
nombres générées à partir de conditions initiales
ou de paramètres numériques. "L'expérimentation numérique"
devient possible en remplacement ou en accompagnement de l'expérience
de laboratoire. Mais bien que les schémas numériques soient
élaborés en discrétisant les équations des
modèles continus de la physique, ils ont beaucoup de points communs
avec la méthode expérimentale. Ils fixent des conditions
initiales sous forme de paramètres numériques, et l'étude
qualitative complète d'un problème demande une infinité
d'essais comme une expérience de laboratoire dont l'on fait varier
certains paramètres. Ce qui n'est pas possible simplement pour des
raisons de temps de calcul. C'est souvent les progrès dans les algorithmes
utilisés, comme par exemple celui du calcul de la Transformée
de Fourier (3) qui sont décisifs, plus que ceux
de la vitesse des microprocesseurs dans l'extension de ce qui est "calculable".
Il faut souligner également les difficultés spécifiques
du calcul sur ordinateur: erreurs d'arrondis, erreurs de troncature (4),
sans compter les "bugs" qui sont légion dans tout programme comportant
des milliers de lignes de code.
Les voies du chaos
Ces "expériences numériques" ont permis de redécouvrir
la complexité de certains phénomènes qui avait déjà
été pressentie par Poincaré, Hadamard et d'autres
mathématiciens au début du siècle, et leur comportement
"chaotique" ; ce qui veut dire que certains processus déterministes,
comme le mouvement des planètes ou la turbulence atmosphérique,
sont extrêmement "sensibles aux conditions initiales" : "Il
peut arriver que de petites différences dans les conditions initiales
en engendrent de très grandes dans les phénomènes
finaux ; une petite erreur sur les premières produirait une erreur
énorme sur les derniers. La prédiction devient impossible
et nous avons le phénomène fortuit" (5).
En météorologie par exemple, l'amplitude d'une perturbation
double tous les trois jours, si rien ne vient contrarier son développement.
Ce qui a fait dire à certains que le battement d'une aile de papillon
suffit à créer un cyclone un an plus tard à l'autre
bout du globe.
Jusqu'à une période récente, les astronomes
pariaient à la suite de Laplace sur la stabilité du système
solaire. En 1988, les Américains du MIT, G. Sussman et J. Wisdom,
ont montré le caractère chaotique du mouvement de Pluton
par une intégration numérique du mouvement des planètes
extérieures (Jupiter, Saturne, Uranus, Neptune et Pluton) sur une
durée de 875 millions d'années. Il ressort de leurs travaux
que l'incertitude sur les conditions initiales est multipliée par
3 tous les 20 millions d'années, et donc qu'aucune prédiction
n'est viable au delà de 400 millions d'années. Par contre,
la faible masse de Pluton interfère peu avec le mouvement des autres
planètes extérieures, qui reste stable pendant la période
étudiée. Un travail analogue a été mené
par J. Laskar de l'Observatoire de Paris sur les planètes intérieures
du système solaire (Mercure, Vénus, la Terre et Mars), en
intégrant numériquement leurs orbites par une méthode
différente sur 200 millions d'années : leur comportement
est chaotique. La distance d'orbites proches est multipliée par
trois au bout de dix millions d'années, ce qui interdit toute prédiction
au delà de 100 millions d'années.
Un nouveau champ disciplinaire est né de ces travaux
mêlant études théoriques des systèmes dynamiques,
théorie ergodique (6) et applications à
certains domaines de la physique, de l'astronomie et de la biologie . Sans
les calculs numériques sur ordinateur, les idées développées
par quelques mathématiciens au début du siècle seraient
restées lettre morte, ou simplement connues de quelques spécialistes.
Or aujourd'hui, on découvre de plus en plus de systèmes physiques
qui dérivent vers des situations de chaos, même sur le plan
expérimental. Les "expérimentations numériques" mettent
ainsi en évidence les limites des systèmes d'équations
utilisés pour modéliser la réalité physique,
sans qu'il soit toujours facile de séparer les effets provenant
du modèle lui-même, en général continu, ou de
la version discrétisée du processus dynamique. Ce modèle
initial est en général transformé en schéma
numérique en fixant un pas d'intégration. Plus le pas est
petit, plus le comportement du modèle numérique est proche
du modèle continu, mais plus le temps de calcul est long et plus
le nombre d'opérations élémentaires à exécuter
est élevé, multipliant ainsi les erreurs d'arrondis et de
troncatures sur les résultats des calculs. Les modèles numériques
et continus peuvent avoir alors des comportements divergents.
De la statistique au traitement informatique des données
Nous avons parlé jusqu'à maintenant des modèles
déterministes de la réalité, mais on ne peut passer
sous silence le rôle d'oracle joué par certains modèles
probabilistes qui évaluent le risque d'un accident nucléaire
comme ceux de Tchernobyl ou de Three Miles Island, ou de celui de l'explosion
d'une fusée, et guident les opérateurs pour fixer les prix
de certains produits financiers comme les options. Là également,
ils ne sont opératoires que s'il existe en arrière plan des
machines pouvant simuler par algorithme telle loi de probabilité
que l'on retrouve dans les phénomènes étudiés,
et capables de mettre en oeuvre les schémas numériques dérivant
des "équations stochastiques".
Un autre rôle des ordinateurs dans le travail scientifique
est le traitement des longues séries de données ou d'observations.
Il n'est pas rare que des calculs qui prennent aujourd'hui quelques heures
sur un super calculateur demandaient dix ou vingt ans de la vie d'un chercheur
et de ses aides au siècle dernier. Ceci a simplement pour conséquences,
comme je l'ai dit précédemment, que des travaux qui n'étaient
pas imaginables il y a seulement dix ans le deviennent par suite de la
montée en puissance des machines ou de la découverte de nouveaux
algorithmes plus efficaces. Une des préoccupations de tout programme
de recherches "réaliste" aujourd'hui est de s'assurer de sa compatibilité
avec la puissance de calcul des machines qui seront sur le marché
dans les deux ou trois ans à venir. Le chercheur est condamné
à la "veille technologique", et beaucoup l'ont compris.
Les ordinateurs peuvent traiter les données comme des
points dans un espace de grande dimension, les classifier en les séparant
en nuages distincts par des hyperplans ou des surfaces plus compliquées.
Ce que nous faisons naturellement et sans effort à l'oeil nu dans
un plan à 2 dimensions, devient impossible pour des dimensions supérieures,
à moins de disposer de machines capables de faire les calculs nécessaires
à la géométrie des espaces à N dimensions (7).
Il reste ensuite à comprendre et à "visualiser" les résultats
des calculs.
Les images virtuelles
Les ordinateurs n'offrent pas seulement de la puissance de
calcul aux chercheurs, mais aussi des possibilités graphiques, voire
multimédias, qui sont indispensables pour l'interprétation
des résultats. En effet, la simulation numérique entraîne
leur profusion. Toutes les valeurs à chaque étape du calcul
sont accessibles, à la différence du montage expérimental
où seulement certains points du dispositif munis de capteurs peuvent
fournir des informations. Mais des centaines de pages de listing sont directement
inexploitables. Il faut faire une sélection dans le flot de données
issues de la machine et les présenter en utilisant toutes ses ressources.
Pendant longtemps, les scientifiques se sont contentés d'afficher
des graphiques et des courbes, lissage ou interpolation d'ensemble de points.
Aujourd'hui, l'ordinateur permet la création d'images de synthèse
(8), qui fournissent une vision qualitative et synthétique
des phénomènes. Celle-ci peut faciliter la comparaison des
résultats d'expériences et de simulations numériques,
concrétiser des théories mathématiques, et faire entrevoir
de nouvelles théories, ou pointer des problèmes non résolus
comme dans la théorie du chaos ou des structure fractales. L'image
de synthèse fournit une représentation physique à
des phénomènes qu'aucun instrument ne pourrait nous montrer
parce que trop réduits ou trop fugitifs ou nous permettre des expériences
impossibles à réaliser dans la réalité, comme
la collision de deux galaxies.
Cette compréhension qualitative et intuitive associée
aux images numériques demande évidemment à être
utilisée avec une certaine prudence. Aux illusions géométriques
bien connues depuis l'invention de la perspective et induites par l'aplatissement
de structures 3D sur un écran à deux dimensions s'ajoutent
les effets dus au choix des (fausses) couleurs, soit par le programmeur,
soit par le système de la machine. Nous avons tous pu admirer les
splendides images issues des grands télescopes: galaxies, nuages
de gaz ou de poussière... Elles ont toutes été obtenues
en "niveaux de gris", et les valeurs des "pixels" interprétées
à l'aide de tables de couleurs judicieusement choisies en fonction
de ce que l'on voulait mettre en évidence. Les véritables
couleurs de l'univers, que personne ne peut voir réellement, pourraient
être calculées par la combinaison de plusieurs images prises
avec des filtres à des longueurs d'ondes bien choisies.
Interactivité et amplification de l'intelligence
Il manquait à l'expérience numérique l'intervention
possible du doigté du praticien, qui sait affiner le fonctionnement
d'un dispositif expérimental en jouant sur le réglage d'un
potentiomètre ou de la pression régnant dans une enceinte
confinée. Tout le monde sait que bien souvent la réussite
dans le domaine expérimental dépend de l'habileté
et du savoir-faire des chercheurs. L'interactivité avec le système
informatique peut pallier évidemment à ce manque. Mais l'intervention
reste alors très abstraite. Le tâtonnement est forcément
de rigueur, même si la pratique guide à la longue les choix
du chercheur.
Si les systèmes de "réalité virtuelle"
tiennent leurs promesses, l'illusion sera complète. Il n'y aura
plus aucune différence entre les "vraies expériences" et
les "expériences de pensée" concrétisées par
ordinateur et modèle interposés. Howard Rheingold décrit
un système de manipulation moléculaire qui exploite "les
capacités très développées du système
haptique de l'homme (9) qui permettent d'avoir
une prise sur un monde virtuel possédant ces propres règles".
Grâce à un système de retour d'efforts, le manipulateur
peut agencer spatialement des molécules de protéine en "ressentant"
directement les forces électromagnétiques d'attraction répulsion
des molécules entre elles selon les lois physiques classiques. Howard
Rheingold pense que "c'est là que peut intervenir une amplification
de l'intellect, là que la simulation proposée peut stimuler
la compréhension d'un novice en la matière et amener le spécialiste
au seuil de l'intuition décisive".
On construit ainsi un "réel de synthèse", une
réalité opérationnelle que l'homme peut transformer
et étudier par la seule force du calcul. La puissance des méthodes
mathématiques et de leur succédané numérique
et la généralisation des super calculateurs ouvrent des perspectives
infinies à la recherche appliquée. Il est évidemment
plus simple de simuler numériquement le comportement d'une aile
d'avion à partir des équations de la mécanique des
fluides que de construire une soufflerie et des maquettes pour de véritables
expériences. Mais le modèle, dans le domaine technologique,
doit finir par affronter le réel, être validé ou infirmé
par la construction de prototypes.
Le retour des épicycles
En recherche fondamentale, les choses sont plus compliquées.
En cas de désaccord entre les prévisions des modèles
et l'expérience, deux démarches sont possibles. Remettre
en cause le modèle et chercher d'autres voies, tant expérimentales
que théoriques, ou bien le complexifier en y rajoutant d'autres
paramètres et d'autres structures que l'on déterminera numériquement
afin de faire "coller" observations et calculs. Cette démarche n'est
pas nouvelle. Ainsi la théorie des épicycles de Ptolémée
(10) se compliqua à chaque progrès des
observations jusqu'à la fin du Moyen-Age, tant que les astronomes
s'obstinèrent à suivre les idées des philosophes grecs
qui expliquaient tout mouvement par des combinaisons de cercles, bien que
les géomètres connaissaient et étudiaient déjà
les propriétés des ellipses et des courbes du second degré.
Le succès de la théorie héliocentrique de Copernic
et Képler repose en partie sur la prise de conscience à leur
époque de la complexité du modèle de Ptolémée,
qui ne répondait que partiellement aux attentes.
La modélisation numérique reste un moyen inégalé
de vérification des théories physiques et scientifiques d'une
manière plus générale, et elle investit même
les sciences humaines et l'économie. Mais la puissance de calcul
disponible actuellement peut dispenser les scientifiques de rechercher
la simplicité logique et la généralité dans
les équations qu'ils écrivent, méthode qui a conduit
aux succès que nous connaissons dans le passé. On peut multiplier
les termes correctifs, les paramètres et construire des théories
ad hoc : la puissance de calcul des machines en viendra toujours
à bout. Celle-ci favorise la routine et la continuité dans
une démarche de plus en plus "opératoire", au détriment
des "révolutions conceptuelles" qui s'avèrent souvent indispensables
pour sortir d'une impasse comme celle où semble se débattre
la physique fondamentale aujourd'hui.
Notes
-
La Science et l'Hypothèse, Henri Poincaré,
Flammarion, 1902.
-
La physique en quête d'unité, Étienne
Klein, Ciel et Espace, Février 1995.
-
Transformation mathématique utilisée en
traitement du signal et en analyse d'images. En 1960, Cooley et Tucker
publient un nouvel algorithme de calcul de la transformée de Fourier
discrète ( Fast Fourier Transform) qui permit de généraliser
son emploi.
-
Erreurs de calcul sur les opérations fondamentales
(addition, multiplication, division), dues à la représentation
limitée et tronquée des nombres en mémoire dans un
ordinateur. Le même programme exécuté sur deux machines
différentes peut donner des résultats différents.
-
Science et méthode, Henri Poincaré,
Flammarion, 1908.
-
Système pour lequel la moyenne temporelle de
toute observation "raisonnable" est en général égale
à la moyenne spatiale indépendamment de la trajectoire suivie.
Chaos et déterminisme, sous la direction de A. Dahan Dalmedico,
J.-L. Chabert et K. Chemla, Seuil, 1992.
-
Au hasard. La chance, la science et le monde,
I. Ekeland, Seuil, 1991.
-
L'image de synthèse : un outil essentiel pour
la simulation numérique, Jean-François Colonna, Les chemins
du virtuel. Simulation informatique et création industrielle.
Cahiers du CCI, Numéro spécial, 1989.
-
Système qui nous informe de la position de nos
membres l'un par rapport à l'autre et vis à vis de l'espace
environnant. Il nous fournit également des informations sur nos
sensations tactiles. La réalité virtuelle, Howard
Rheingold, Dunod, 1991.
-
Dans le système de Ptolémée (120
après J. C.), les trajectoires des planètes et du soleil
étaient des cercles dont les centres respectifs décrivaient
eux-mêmes des cercles autour de la Terre immobile au centre de l'Univers.