Thème Métamodélisation, Optimisation Continue et Applications (MOCA)

Présentation

Ce thème, pluri-disciplinaire, concerne la gestion de modèles et leurs applications en particulier en optimisation continue. En terme de modélisation, on retrouve donc la simulation numérique de systèmes physiques et la métamodélisation sous ses deux significations:

    • La construction de modèles statistiques à partir de données entrée-sortie qui, elles même, peuvent provenir de modèles coûteux de simulation par éléments finis. Cette métamodélisation est un apprentissage supervisé utilisant une quantité limitée de données. Les méthodes d'optimisation continue utilisent souvent de tels métamodèles.

    • La production de programmes informatiques à travers la description et la manipulation de modèles. Dans ce cas, un métamodèle est un descripteur d’une classe de modèles. La notion couvre aussi les métaprogrammes qui décrivent algorithmiquement un ensemble d'instances de modèles possibles.

Ainsi, le thème Métamodélisation couvre aussi bien les aspects théoriques de l'optimisation continue, que les ``computer experiments'', ou l'implémentation et l'optimisation de codes de simulation complexes nécessitant le recours au calcul intensif. Nous proposons aussi des solutions logicielles intégrées pour des problèmes de simulation à événements discrets et nous attachons un soin particulier à la reproductibilité numérique des résultats.

Mots clés :

  • Modélisation statistique
  • Optimisation continue
  • Calcul scientifique
  • Calcul à Haute Performance
  • Reproductibilité numérique
  • Métaprogrammation

Dernières Publications

Anis Fradi, Chafik Samir - 10 novembre 2024
Learning and Regression on the Grassmannian


Hassan Maatouk, Didier Rullière, Xavier Bay - 26 mars 2024
Large-scale constrained Gaussian processes for shape-restricted function estimation


Benjamin A. Antunes, David R.C. Hill - 19 mars 2024
Reproducibility, Replicability, and Repeatability: A survey of reproducible research with a focus on high performance computing


Hassan Maatouk, Didier Rullière, Xavier Bay - 8 mars 2024
Efficient constrained Gaussian process approximation using elliptical slice sampling


Benjamin A. Antunes, Claude Mazel, Philippe Lacomme, David R.C. Hill - 4 mars 2024
Test de reproductibilité de l'algorithme de Grover sur simulateur et sur machines quantiques IBM
Roadef 2024

Alexis Chartrain, Gilles Dessagne, Noël Haddad, David R.C. Hill - 4 mars 2024
Vers une simulation globale du système ferroviaire : atout pour l'aide à la décision guidée par l'analyse de risques
25ème congrès de la Société Française de Recherche Opérationnelle et d'Aide à la Décision (ROADEF '24)

David Gaudrie, Rodolphe Le Riche, Tanguy Appriou - 27 février 2024
An Empirical Case of Gaussian Processes Learning in High Dimension: the Likelihood versus Leave-One-Out Rivalry
SIAM Conference on Uncertainty Quantification (UQ24)

Charlie Sire, Rodolphe Le Riche, Didier Rullière, Jérémy Rohmer, Lucie Pheulpin, Yann Richet - 27 février 2024
Augmented Quantization: a General Approach to Mixture Models
UQ 2024 - SIAM Conference on Uncertainty Quantification

Tanguy Appriou, Didier Rullière, David Gaudrie - 26 février 2024
High-dimensional Bayesian Optimization with a Combination of Kriging models


Benjamin A. Antunes, David R. C Hill - 2 février 2024
Reproducibility, energy efficiency and performance of pseudorandom number generators in machine learning: a comparative study of python, numpy, tensorflow, and pytorch implementations


Toutes les publis se trouvent ici