Accès au site de l'IRD Retour à la page d'accueil

500 ans d'observation scientifique de l'océan

Mettre l'océan en chiffres et en équations :
la quantification tardive de la mer

En ce début du 21° siècle où l'ordinateur est omniprésent et où tout se prête à quantification, il est difficile d'imaginer à quel point l'approche quantitative des sciences de la mer est un phénomène récent.

C'est paradoxalement à la Renaissance, alors que les connaissances sur la nature étaient complètement imprégnées de conceptions du monde issues du Moyen-âge voire de l'Antiquité, que se fit jour l'idée de procéder à des mesures, c'est-à-dire de quantifier ses observations. Cette idée n'était certes pas neuve, puisque les Grecs y avaient largement eu recours, mais elle fut en quelque sorte redécouverte à partir du 16° siècle.

Dans le domaine des sciences de la mer, les premières mesures ont porté sur les hauteurs d'eau, pour assurer la sécurité des navires (lignes de sonde) et pour étudier le phénomène des marées. On peut dater des années 1660 le réel essor et la généralisation des mesures en mer à différents paramètres, dans un contexte marqué par l'intérêt porté à l'étude de la mer par la toute nouvelle Royal Society et par la récente invention du thermomètre.

Les voyages d'exploration maritime, qui se multipliaient au 18° siècle, eurent à peu près systématiquement une mission de récolte d'observations quantitatives sur la température de l'air et de l'eau de surface, puis de profondeur, sur la teneur en sel, la densité, etc. La quantité et la qualité des observations océanographiques effectuées étaient cependant très variables ; elles dépendaient de la compétence et de la motivation des observateurs scientifiques, de la qualité du matériel qui leur était confié, mais aussi de l'attitude du commandant vis-à-vis des savants et de leurs observations, qui nécessitaient le plus souvent d'immobiliser le navire.

Les mesures se sont ainsi accumulées, diversifiées, et améliorées (tout en restant parfois très médiocres voire erronées comme celles dues à l'utilisation prolongée de thermomètres non protégés de l'effet de la pression). Cette masse croissante d'informations a permis la réalisation de synthèses pour dresser des schémas qualitatifs généraux (comme le premier atlas hydrographique de M. Maury en 1855 ou l’ouvrage de Sverdrup en 1942), mais elle ne pouvait pas encore être traduite en une compréhension quantitative de l'océan et de sa dynamique.

Cette étape ne fut atteinte que dans la deuxième moitié du 20° siècle, lorsque trois conditions furent réunies : la formalisation théorique des lois gouvernant le déplacement des particules d'eau, la collecte de données systématiques sur l'ensemble du volume océanique, l'apparition de moyens de calcul puissants.

Deux apports des années 1820-1830 ont été particulièrement significatifs en matière théorique, même s'ils ne connurent d'application en océanographie que bien plus tard. En 1822, l'application des lois de Newton conduit les deux physiciens Navier et Stokes à établir les équations décrivant les mouvements de particules liquides ou gazeuses en fonction des forces qui leur sont appliquées (friction, pression, gravité, etc.) : ces équations fondamentales de la mécanique des fluides formeront par la suite l’ossature des modèles de la circulation océanique et atmosphérique. Par ailleurs, l'étude et le développement de machines industrielles amena en 1835 l'ingénieur français Coriolis à la formalisation théorique de l'effet de la rotation terrestre sur la trajectoire des corps en mouvement ; il fallut cependant attendre les années 1850 pour que ses conséquences qualitatives en matière de circulation océanique et atmosphérique soient énoncées clairement. C'est sur ces bases que put s'affiner progressivement la théorie de la circulation océanique au cours du 20° siècle, avec en particulier les travaux de grands noms de l'océanographie comme le Suédois Ekman (années 1900) ou les Norvégiens Bjerknes (années 1910) et Sverdrup (années 1950-60)

Parallèlement à ces avancées théoriques, les observations de terrain s'accumulaient au fil des grandes campagnes océanographiques qui se déroulèrent dans tous les océans à la suite de celle du Challenger (1872-76) jusque dans les années 1960. Dans le même temps, diverses approches quantitatives étaient tentées avec les moyens et les données disponibles. Des calculs de vitesse de courant et de volume d'eau transportée furent effectués à partir du début du siècle sur différents courants, et Sverdrup publia en 1957 les premières estimations quantitatives du transport de chaleur par les courants marins, alors que l'appréciation du rôle de l'océan sur le climat était jusque là presque exclusivement qualitative et relevait principalement de la géographie. A la même époque, l'Année Géophysique Internationale (1957-58) marqua le début d'une série de grands programmes internationaux qui allaient apporter des masses considérables de données océanographiques, en attendant l'ère des satellites et des réseaux d'observations automatiques.

Jusque là, l'application de la physique aux problèmes de circulation était fortement limitée par les moyens de calculs disponibles : tables, abaques, règles à calcul et calculatrices. A cette époque, calculer les vitesses et les transports pour une seule section océanique pouvait demander un mois de travail, alors qu'un ordinateur moderne ne mettrait que quelques secondes. L'amélioration spectaculaire des moyens de calcul à partir des années 1960 fut le déclencheur qui permit le développement d'une approche quantitative de plus en plus réaliste des océans. En effet, la complexité des équations de Navier-Stokes (qui n'ont pas de solutions analytiques générales) et l'augmentation incessante de la quantité de données à incorporer imposent une recherche numérique de solutions qui nécessite une très grande puissance de calcul, même si des hypothèses simplificatrices sont faites.

Les années 1980 virent une amélioration sensible des modèles appliquées aux régions océaniques tropicales, dont le rôle climatique était de plus en plus reconnu. En quelques années, on est ainsi passé de modèles linéaires simples à deux couches, où les deux seules variables étaient l'épaisseur et la température de la couche homogène de surface, à des modèles de circulation générale (en gestation depuis les années 1970) basés sur la résolution numérique des équations de Navier-Stokes à des échelles de plus en plus fines. Ces améliorations se firent en particulier dans le cadre de TOGA, vaste programme international issu de la découverte de l'impact climatique mondial de l'oscillation australe (ENSO, dont le phénomène El Niño est une des phases), et dont un des objectifs était de développer des modèles d'océan et des modèles couplés océan-atmosphère dans une perspective de prévision.

Les modèles numériques du début du 21° siècle s'attachent à décrire de façon encore plus fine les différentes échelles de variabilité spatiale et temporelle, et à intégrer les dynamiques océanique et atmosphérique, ainsi que leurs interactions avec les surfaces terrestres. Dans une problématique générale liée aux changements climatiques, cette vision géophysique globale prend en compte les aspects physiques, chimiques et biologiques des grands cycles naturels.

Page d'accueil : 500 ans d'observation scientifique de l'océan

 
Site web de l'IRD
Accès au centre
Contacts IRD Bretagne
Mentions légales du site IRD