École thématique eX Modelo — modélisation

Posté par  . Édité par ZeroHeure et Davy Defaud. Modéré par Davy Defaud. Licence CC By‑SA.
4
10
déc.
2019
Science

Après le succès incontestable de la première édition de « l’école chercheurs eX Modelo », nous organisons actuellement la deuxième édition. eX Modelo est une école de recherche sur l’exploration des modèles de simulation (analyse de sensibilité, calibration, validation, etc.) qui se tiendra du 25 au 29 mai 2020, dans un cadre champêtre à une heure de Paris.

Cette école thématique s’adresse aux masters, doctorant·e·s, ingénieur·e·s, chercheuses et chercheurs académiques, ainsi qu’aux entreprises qui s’intéressent à la modélisation, quel que soit leur domaine scientifique. L’objectif est d’apprendre aux participant·e·s à devenir autonomes dans l’exploration de leurs modèles, dans un contexte convivial.

Les cours, TP et retours d’expériences seront animés par un réseau de chercheuses et chercheurs qui ont une expertise reconnue dans ces pratiques transdisciplinaires.

Pendant cette semaine de formation, vous découvrirez pas à pas des méthodes avancées pour l’exploration des modèles, vous recevrez un enseignement théorique et vous participerez à des ateliers pratiques en groupe portant sur des cas d’étude adaptés.

La plate‑forme OpenMOLE, spécialement dédiée à l’exploration de modèles numériques, sera utilisée tout au long de la semaine pour faciliter la compréhension et la mise en œuvre des cas pratiques.

À vos agendas !

Informations pratiques :

  • soumission des candidatures avant le : 15 janvier 2020 ;
  • sélections des dossiers : 5 février 2020 ;
  • paiement avant le : 28 février 2020 ;
  • participation à l’école d’été : du 25 au 29 mai 2020.

Pour toute demande d’information, vous pouvez nous envoyer un courriel à school@exmodelo.org.

Statistiques / fiabilité : sortie d’OpenTURNS 0.14.0

Posté par  . Modéré par patrick_g. Licence CC By‑SA.
22
22
juin
2011
Science

OpenTURNS est une bibliothèque libre dédiée aux statistiques et à la fiabilité, utilisable en langage Python et distribuée dans Debian.

Elle peut être considérée comme une alternative plus moderne au language R (des algorithmes très récents sont mis en œuvre pour le calcul de certains quantiles, par exemple), même si la partie « statistiques » n’est limitée qu’à une gestion de la partie « fiabilité », et orientée objet. Sur la partie purement statistique, on retrouve donc les outils classiques : estimation de distribution, corrélations, analyse de sensibilité, tests statistiques, estimation par noyau, … Mais en introduisant la notion originale de copules qui permettent de modéliser la dépendance.

Pour la partie fiabilité, là aussi, on retrouve des algorithmes classiques, propagation par carré latin, séquences quasi‐aléatoires, simulations directionnelles, FORM / SORM (First / Second Order Reliability Method), calcul de facteurs d’importance, des surfaces de réponses par chaos polynomial, … Cette fois‐ci, l’aspect novateur réside dans le fait que la bibliothèque fait le plus possible de calculs analytiques en imposant un modèle de données basé sur les distributions et non les échantillons, comme le font certains autres outils (NumPy, R).

Dans sa version 0.14.0, elle propose de nouvelles lois de distribution, une interface Python plus souple, une simplification du mécanisme de couplage à des codes externes, la différentiation automatique des formules analytiques, du multithreading et une infrastructure [[CMake]].