Exemples de problèmes en océanographie
Utiliser un modèle de pêcherie complexe pour aider à la gestion des pêches | ||
| Un des grands enjeux de notre société est mettre en place une gestion écosystémique des pêches pour rétablir les écosystèmes marins dans un bon état écologique et maintenir une pêche durable. De nombreux accords nationaux, européens et internationaux ont été ratifiés pour progresser dans ce sens à l’horizon 2020. Dans ce processus, anticiper les conséquences de nouvelles réglementation de la pêche est une étape importante qui nécessite de comprendre la dynamique des pêcheries. La modélisation mécanistique est une approche efficace pour expliciter le fonctionnement d'un système. Elle requiert d'appréhender en amont des données de diverses natures (flux réglementaires et observations scientifiques des activités de pêches, observations scientifiques des écosystèmes marins) et en aval des sorties de modèles pluridimensionnelles. Utilisés avec précaution dans un cadre statistique, ces modèles peuvent permettre i) de mieux comprendre le fonctionnement des systèmes, iii) d'identifier des diagnostics fiables au regard de l'incertitude, et ainsi iv) servir de support de discussion dans une approche participative pour sélectionner un choix pertinent de gestion, et ainsi en faciliter l'acceptation. Cette communication exposera l’expérience de gestions des données d'entrée et de sortie du modèle de dynamique de pêcherie ISIS-Fish permettant d'appréhender la complexité de l'écosystème marin incluant l'ensemble des usagers pour évaluer l'incidence de mesures de gestion des pêches. Stéphanie Mahévas (Ifremer, Ecologie et Modèles pour l'Halieutique, Nantes) Stéphanie Mahévas est une mathématicienne spécialisée en probabilité, statistique et modélisation diplomée de l'Université de Rennes 1 (Magistère de Mathématiques) en 1994. Durant sa thèse, réalisée à l'INRIA de Rennes de 1994 à 1997, elle a travaillé sur les modèles markoviens appliqués à des problèmes de grande dimension. Depuis 1998, elle travaille à Ifremer au département de mathématiques appliqués à l'exploitation des ressources halieutiques et aquacoles, puis au département Ecologie et Modelèles pour Halieutiques. Ses domaines de recherche principaux sont les modèles de dynamique de pêcherie, les méthodes statistiques pour l'analyse de données halieutiques, les analyses de sensibilité et d'incertitude sur et à partir de modèles complexes. Elle a obtenu en 2009 l'habilitation à diriger des recherche. Outre l'encadrement d'étudiants (en stage et en thèse), d'ingénieurs et de chercheurs, Stéphanie Mahévas est actuellement responsable de l'action “Impact de scénarios de gestion spatialisée sur les pêcheries : modélisation, incertitude, simulation - ISIS-Fish” qui anime le développement méthodologique autour du modèle de simulation ISIS-Fish avec une participation à l'animation du réseau national de recherche MEXICO (labelisé RNSC). Elle fait aussi partie d'un réseau de recherche national qui traite des questions de modélisation des trajectoires à partir d'observations discrètes (réseau INRA pathis) et co-pilote le groupe de travail EUROCEANS, Etat'jerre. Par ailleurs, depuis 1999, Stéphanie Mahévas a participé et coordonné plusieurs actions (Work Package) dans plusieurs projets européens (TECTAC, CAFE, VECTORS, MYFISH, BENTHIS) et un projet régional (COSELMAR). Elle impliquée dans deux groupes de travail européens du Conseil International pour l'Exploration de la Mer (WG-IPEM, SGIMM). Enfin elle a publié 37 articles de rang A, est co-éditeur d'un livre sur les analyses de sensibilité pour les modèles complexes. |
Nephelae : A Platform for Data Intensive Science on Ocean | ||
| Piolle, JF (1); Paul, F (1); Chapron, B (1); Garello, R (2)
During the last decade, the ocean community witnessed the launch of over 30 new ocean-related satellite missions by 13 different contributing space agencies representing around 36 countries (http://eohandbook.com). Plans for new satellites are already laid well into the foreseeable future, and today, we are already talking Petabytes of data to download, to analyze, to transform into accessible information. Within the next decade, past, actual and future satellite Earth Observation (EO) missions, extended in situ networks and super-computer simulations shall continue to pave this new era to understand the Earth system as a whole, to serve both research and operational interests. Facing streams of data pouring from space and simulations dictates that tools and methods must be engaged to leverage such a wealth and to better link the past and/or near real-time complementary observing and modeling system elements. This can only be achieved with dedicated infrastructures and methodologies to dynamically process massive information and to perform retrospective-analyses which will be essential key instruments for breakthroughs, and to stimulate multidisciplinary Earth system research and applications in marine and climate sciences. With a lack in advanced strategies, the gap between continuous acquisition of data and the capability to analyze them will grow, leading specialists and end-users to become completely deluged. This obviously leads to a dramatic under usage of the total data archive (acquired at a cost of several hundred millions euros). These issues have already guided recent developments to refine data intensive oriented architecture to design mass science data centers. As already impulsed at national level by governmental organizations, there is now a significant shift in the academic domain towards new emerging technologies to offer shared storage and processing capabilities. New arising concepts inherited from big data and cloud technology now make possible providing online archiving and remote processing capabilities that could boost the revisiting rate and enhancement of the existing historical archives and sustain more dynamic science. In the last few years, Ifremer/Cersat has dedicated a large effort, with the support of ESA, to provide the experimental Nephelae platform, aiming from its inception to capitalize on recognized expertise, bringing together thematic, observation and validation EO data (satellite, model, in situ), hardware, and information technology, to first define and design a flexible and educational new platform. This platform aims to facilitate the systematic provision of reliable advanced modeling and data information, to stimulate, strengthen and assist multidisciplinary advanced research and applications but also sustain a continuous feedback loop and revisiting on historical archives (for reprocessing, quality assessment, sensor synergy) to a speed and level of flexibility that was not achievable before. This platform is based on new emerging big data and cloud computing technologies to : allow to access quickly to a large collection of ocean observations and modeling outputs spanning over decades for cross comparison, merging, combining or data mining It is one objective to more carefully assess and combine the available technologies and to build upon this first demonstrator to design and build an original and optimized solution towards a data centric and data intensive oriented scientific cloud. This is a highly innovative endeavor since, while several private cloud computing environments for generic science applications have been started, very few of them have explicitly aimed at optimizing the I/O throughput and focusing on mass data processing by designing an intelligent distributed storage and processing synergy. Jean-François PIOLLE (CERSAT) holds a diploma of Computer Engineering, INSA, Rennes, 1996. From 1996 to 1999 he worked as a software engineer in the industry, contributing to the development of several processing and analysis tools for marine data. From 1999-onwards he has been working as a data manager at CERSAT/IFREMER (Brest). His main realizations include the development of various optimally analysed gridded fields of sea-surface parameters (wind, fluxes, gas exchange coefficient and sea surface temperature), the design of several advanced tools for the search, extraction, and visualization of ocean data (Nausicaa, Naiad,...), the implementation of a wide multi-sensor intercomparison/colocation capability and matchup databases, and the evolution of CERSAT facility toward an operational multi-mission real-time satellite archiving and production center. He has been responsible for the data management and dissemination of satellite ocean products at CERSAT for several years. He is deeply involved in various national and international projects with EUMETSAT (O&SI SAF), ESA (Brest operation center for ocean EO data, Medspiration, GlobWave, GlobCurrent, OceanFlux, Felyx), CNES (SMOS, CFOSAT), EU (MerSea, MyOcean),...and developed strong skills in data processing, product and metadata specification, user oriented tools and the design of satellite ground segment elements. He is also a member of GHRSST (Group for High Resolution Sea Surface Temperature) science team and has played a leading role in the definition of the GHRSST Data Specification (GDS). One of his focus is also now the design and demonstration of thematic EO data exploitation platforms making use of cloud computing & big data technologies. |
| Pertinence du traitement de données historiques de température de la surface de la mer | |
| Une vision dominante sur les grandes masses de données préconise l’enregistrement systématique de toutes les données passées, présentes et futures, en dépit de la méconnaissance de leur vrai intérêt. Cette approche implique qu’une grande partie des données collectées ne sera jamais traitée. Nous présentons le cas des données de température de la surface de la mer, pour examiner la pertinence de cette vision et analyser la valeur contextuel des données au cours du temps. John Puentes est Maître de Conférences à Télécom Bretagne au Département Image et Traitement de l'Information et chercheur associé du Lab-STICC UMR CNRS 6285, Equpe DECIDE. Il a obtenu l’Habilitation et diriger des Recherches et le doctorat de l’Université de Rennes 1 en Traitement de Signaux et Télecommunications. Ses activités de recherche concernent principalement la qualité des données et la conception de méthodes de traitement de l’information multimédia. |
Analyse de la structure verticale océanique à partir des données in-situ Argo | ||
| La base de données Argo contient aujourd'hui plus de 1 millions de profils de température/salinité. Nous présenterons les difficultés rencontrées dans la mise en oeuvre d'analyses de la structure verticale océaniques qui nécessitent l'exécution d'algorithmes relativement complexes profils par profils. Guillaume Maze est océanographe physicien, chercheur à l'Ifremer au LPO/ODE. Après avoir développé et utilisé des modèles numériques couplés pour étudier les interactions océan-atmosphère aux grandes échelles de temps et d'espace, Guillaume s'est peu à peu tourné vers les observations pour mieux comprendre la variabilité saisonnière subtropicale. Aujourd'hui responsable du SO Argo-France, il utilise les données Argo pour étudier le processus de ventilation des masses d'eau, de la dynamique tourbillonnaire méso-echelle aux grandes structures des gyres subtropicales. Twitter : @mazeguillaume |