Parcours Ingénierie Mathématique et Biostatistique

Mots-Clefs :  Data science,  Machine Learning, Biostatistique, Statistique,  Intelligence Artificielle, Données Massives.  

Le parcours Ingénierie Mathématique et Biostatistique forme des data scientists, ingénieurs en Intelligence Artificielle, statisticiens, biostatisticiens. Les métiers ciblés principalement sont ceux de la data, en lien avec les données de santé, le monde médical, les sciences du vivant. Les applications vues en cours sont en cohérence avec les thématiques du laboratoire de  MAP5 (UMR CNRS 8145, Mathématiques Appliquées). Les outils théoriques et les méthodes abordées (probabilités, statistique, machine learning et intelligence artificielle, modélisation déterministe, bases de données ; outils informatiques incontournables tels que R, Python, SQL, SAS, Julia) s’appliquent néanmoins à un large éventail de données, permettant une insertion professionnelle  dans tous types de  secteurs.  Les poursuites en thèse de doctorat sont de plus en plus fréquentes et ont lieu majoritairement dans des instituts de recherche à l’interface entre le traitement de données, et les applications en santé et dans les sciences du vivant. 

Equipe Enseignante

La majorité des intervenants sont des enseignants-chercheurs du laboratoire MAP5 rattachés à l’UFR Maths-Info, certains cours d’informatique impliquent des enseignants-chercheurs du laboratoire d’Informatique LIPADE. Certains enseignements spécialisés (études de cas, logiciels) sont assurés par des intervenants extérieurs professionnels des domaines concernés. Des cours optionnels et projets sont proposés, mutualisés avec le  Master Monnaie, banque, finance, assurance – Parcours : Ingénierie de l’assurance, et avec le Master Bio-Informatique

Partenariats

Voir la description détaillée sur la page de la mention  “Mathématiques et Applications”

Organisation 

Le parcours de master est `tubulaire’: la validation du M1 permet l’accès en M2. Lors du second semestre de l’année de M2 les étudiants doivent réaliser  un stage en entreprise ou en laboratoire de recherche d’une durée de quatre à six mois.

Conditions d’accès

Le Master IMB est ouvert aux étudiants titulaires d’une Licence en Mathématiques ou d’un diplôme équivalent, français ou étranger. L’accès direct en deuxième année (M2) est réservé aux candidats ayant validé un Master 1 en Mathématiques. La sélection des candidatures repose principalement sur la qualité des résultats académiques en mathématiques générales (algèbre linéaire, analyse) et appliquées (probabilités, statistique). Un bon niveau en informatique constitue un atout supplémentaire. 

 Débouchés

  • Data Scientist, Data Analyst, Chargé d’études statistiques, Biostatisticien, Statisticien épidémiologiste ; 
  • Autres métiers de la data: banque, assurance, Ingénieur en Intelligence Artificielle  instituts de sondage,  équipes “data” des grandes entreprises ou PME de tous types  confrontées au besoin d’analyse de grands jeux de données ;
  • Stages, thèse de doctorat, métiers de la la recherche  publique ou privée: dans des unités de recherche en lien avec le monde médical (INSERM, Institut Necker Enfants Malades) ou des sciences du vivant (Muséum National d’Histoire Naturel),  dans les services statistiques en milieu hospitalier (APHP),  les Observatoires Régionaux de la Santé (ORS), les unités de recherche en épidémiologie (EREN, CRESS), et les agences et instituts techniques tels que Santé publique France, l’Institut National du Cancer, l’ANRS Maladies infectieuses émergentes,l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (ANSES), les Caisses Primaires d’Assurance Maladie (CPAM).

Candidatures

Les informations pratiques sont recensées sur la  page des candidatures 

 

M1 Semestre 1

Probabilités - Statistique

Probabilités – Statistique 

cours: 45h TD: 45h 

Programme:

  •  Estimation paramétrique: exemples d’estimateurs, méthodes des moments, vraisemblance, information de Fisher, statistique asymptotique (consistance, normalité asymptotique), intervalle de confiance
  • Tests statistiques: cadre de Neyman-Pearson, exemples (Student, Chi2, Fisher, Wilcoxon, corrélation, Kolmogorov-Smirnov), cas des tests multiples, tests par permutations
  • Modèle linéaire: cadre classique, analyse du biais et de la variance, extensions, effets mixtes.

Equipe Enseignante :

Paul Bastide, Antoine Marchina

Programmation

Programmation (MT1AM040)

cours: 15h TP: 15h 

Programme :

L’objectif de ce cours est de familiariser les étudiants avec la programmation et avec les logiciels de calcul scientifique.

Equipe Enseignante :

Vittoria Perduca 

R pour la science des données

R pour la science des données

cours: 15h TD: 15h 

Mots clés : tidyverse, “tidy data” (données bien ordonnées), importation, nettoyage, manipulation, visualisation

Descriptif :

Le cours “R pour les sciences de données” est une initiation à l’utilisation de tidyverse, l’univers de packages développé sous la houlette de Hadley Wickham et visant à rendre l’analyse de données en R plus intuitive, cohérente et efficace. Sa conception s’appuie pour cela sur plusieurs principes fondamentaux.

 Le tidyverse promeut cohérence et intuitivité. Tous les packages du tidyverse partagent des conventions communes pour les noms de fonctions, les arguments, et les principes de conception. Cela réduit la courbe d’apprentissage et rend les outils interopérables. Les fonctions ont des noms qui décrivent clairement leur rôle, favorisant ainsi la lisibilité et l’intuitivité.

 La tidyverse place au cœur du projet la notion de “tidy data” (données bien ordonnées). Il adopte l’opérateur “pipe” (`%>%` ou `|>`) pour enchaîner les étapes de transformation des données de manière claire et lisible. Cela permet une écriture déclarative, où le code reflète les intentions de l’analyste, en s’éloignant des approches impératives plus difficiles à suivre.

 Le tidyverse intègre des outils pour chaque étape de l’analyse de données, importation et nettoyage (`readr`, `janitor`), manipulation (`dplyr`, `tidyr`),  visualisation (`ggplot2`). Ces outils interagissent de manière fluide, sans nécessiter de conversions ou d’adaptations complexes.

 Les outils du tidyverse sont optimisés pour une exploration interactive des données. À titre d’exemple, `ggplot2` permet de construire des graphiques en couches, en favorisant un cycle rapide d’essais et d’itérations.

 Tous les packages du tidyverse sont ouverts et encouragent la contribution communautaire. La documentation est exhaustive et axée sur l’éducation, avec un objectif clair de rendre l’analyse de données accessible à tous.

Equipe Enseignante : 

Antoine Chambaz

Bases de données

Bases de données

cours: 15h TD: 15h 

Mots Clés:

Système d’information, modèle conceptuel de données, modèle relationnel, algèbre relationnelle, requêtes SQL, projet de modélisation.

 

Objectifs :

Former les étudiants à la conception et la manipulation de bases de données au sein d’un système d’information

Compétences acquises : 

Savoir concevoir un modèle conceptuel de données pour modéliser une application. Savoir utiliser une base de données à partir du langage SQL

Programme : 

Objectifs des systèmes de gestion de données. Conception d’un modèle conceptuel de données avec l’approche entité-association et celle des dépendances fonctionnelles en intégrant les notions de normalisation. Dérivation d’un modèle conceptuel de données en un schéma de base de données relationnelle. Algèbre relationnelle et calcul relationnel de tuples. Définition et manipulation des données en SQL. Vérification des contraintes d’intégrité en SQL. Gestion de la concurrence dans les systèmes de gestion de bases de données via les transactions. Élaboration d’une étude de cas pour modéliser une problématique réelle.

Equipe Enseignante : 

Laurent Wendling 

Modélisation Déterministe I

Modélisation Déterministe I

cours: 15h TD: 15h 

Mots clés : Modèles dynamiques déterministes de propagation des épidémies, Nombre de reproduction de base, Modèle de Kermack-McKendrick, Systèmes différentiels non linéaires, Schémas  numériques, Étude qualitative de modèles de populations.

Objectifs :
Nous abordons dans ce cours, les bases de l’épidémiologie mathématique des maladies infectieuses d’un point de vue déterministe tant sur le plan théorique que numérique et des modèles de populations.

Compétences acquises :
La mise en place d’un modèle de propagation d’épidémie et son étude compartimentale locale et utilisation de schémas  numériques.

Programme :

  • Modèles SI, SIS, SIR sans effets démographiques d’une population. 
  •  Etude de systèmes différentiels non linéaires. 
  • Recherche et nature de points d’équilibre, interprétation épidémiologique.
  • Stabilité locale (voire globale) des points d’équilibre. Méthodes numériques. 
  • Propriétés des schémas : consistance, stabilité, convergence. 
  • Utilisation des fonctions de résolutions d’EDO de Octave,
  • Étude qualitative de modèles de populations.

Equipe Enseignante : 

Rachid Lounes, Georges Koepfler

Anglais

Anglais 

cours: 18h

M1 Semestre 2 (Ingénierie Mathématiques et Biostatistique)

NB : Parmi les UE marquées en “option”, deux sont à choisir parmi quatre. 

Machine Learning I

Machine Learning I

cours: 30h TD: 30h 

Mots Clés : 

Algorithmes de Machine Learning, apprentissage statistique, compromis biais variance, fléau de la dimension, régularisation, validation croisée

Objectifs et Compétences : 

Savoir utiliser les algorithmes de Machine Learning incontournables, interpréter les résultats en s’appuyant sur une compréhension théorique des fondamentaux de l’apprentissage statistique:

Programme :

  • Cadre supervisé et non supervisé, tâches d’apprentissage typiques et  exemples (classification, régression, clustering, réduction de dimension)  
  • Principe de minimisation du risque empirique, compromis biais variance et régularisation : dictionnaires finis, risque empirique, risque théorique, sur-apprentissage et régularisation, échantillon d’apprentissage et de test, compromis biais – variance, sélection d’hyper paramètres par hold-out et validation croisée
  • Algorithmes: 
    • Cadre supervisé: modèle linéaire et logistique réguarisé, méthodes locales: arbres de décision CART, k-NN, modèles linéaires pénalisés en grande dimension, sélection de variable,  SVM et RKHS
    •  Apprentissage non supervisé: réduction de dimension et reconnaissance de motifs, réduction de dimension, ACP, Clustering, détection d’anomalie. 

Equipe Enseignante :  

Paul BastideAntoine Chambaz, Joan Glaunes, Antoine Marchina, Vittorio Perduca, Anne Sabourin, Pierre-Emmanuel Sugier, Jonathan Vacher

Statistique pour données de santé

Statistique pour données de santé

Cours : 15h TD : 15h

 

 

Mots clés :

Epidémiologie, Risques Relatifs et Odds Ratio, Variables de confusions, Test du chi2, de tendance et d’ajustement, Regression linéaire, données appariées, Causalité.

 

Objectifs :
Mettre en évidence des associations, causales ou non, entre des facteurs d’exposition et des variables d’intérêt, qui pourront être des maladies.

Compétences acquises :
Estimation ponctuelle ; Intervalle de confiance ; Intervalle de fluctuation ; Test d’hypothèse ; Régression linéaire.

Programme:
Mesures d’association entre maladie et facteur de risque – Intervalles de confiance pour Risques Relatifs et Odds Ratio  – Significativité dans les tables de contingences – Les sources de biais en Épidémiologie – Prise en compte des variables de confusions – Test de tendance et test d’ajustement – Modèles de régression pour mesurer l’association. – Données appariées – Introduction à la causalité.

Equipe Enseignante : 

Flora  Alarcon

 

Statistiques pour la génétique et la génomique

Statistiques pour la génétique et la génomique 

Cours : 15h TD : 15h 

Mots clés : Données génétiques, grande dimension, relation génotype-phénotype, analyse d’association pangénomique (GWAS), introduction aux tests multiples, méthodes d’agrégation, méthodes d’enrichissement, données génomiques (et autres données omiques)Objectifs :

L’objectif de ce cours est de connaître les bases des méthodes statistiques pour l’analyse des données génétiques et génomiques pour établir des liens entre les génotypes et les phénotypes des individus, et notamment à déceler des marqueurs génétiques pour certaines maladies. 

 

Programme :

Statistique pour la génétique : bases de la génétique, locus, allèle, génotype, marqueur génétique, origines de la variabilité génétique, équilibre de Hardy-Weinberg, déséquilibre de liaison, consanguinité, calcul des fonctions de pénétrantes pour données familiales recombinaison, notion de distance génomique, analyses d’association.

Statistiques pour la génomique : analyses d’association pangénomiques (GWAS), problème des tests multiples, approches basées sur les gènes (agrégation de SNPs), analyses d’enrichissements (GSEA), présentation d’autres types de données omiques, études d’association pangénomiques médiées par le transcriptome (TWAS).

Utilisation de R pour des cas pratiques.

Objectifs :

L’objectif de ce cours est de connaître les bases de la statistique génétique, qui cherche à établir des liens entre les génotypes et les phénotypes des individus, et notamment à déceler des marqueurs génétiques pour certaines maladies.

Compétences acquises :

Bases de la génétique, notion de distance génomique, locus, allèle, recombinaison ; Tests du caractère génétique d’une maladie ; Analyse de liaison ; Analyse d’association ; Utilisation de R pour des cas pratiques

Programme :

cf Compétences acquises.

Equipe Enseignante : 

Pierrre-Emmanuel Sugier

Big Data

Big Data 

Cours : 15h TD: 15h

 

Mots clés : Traitement de données massives, Architecture des frameworks Big Data, Modèles de distribution de données, Modèles de programmation distribués

Objectifs :

L’objectif de ce cours est de connaître les bases des méthodes statistiques pour l’analyse des données génétiques et génomiques pour établir des liens entre les génotypes et les phénotypes des individus, et notamment à déceler des marqueurs génétiques pour certaines maladies. 

Descriptif :

Ce cours aborde les concepts fondamentaux de la programmation Big Data et dispenses les connaissances et compétences nécessaires pour manipuler, transformer et analyser des données massives en environnements mono-machine et Big Data (cluster de machines).

Les architecture des frameworks Big Data et les modèles de distribution de données et de traitements associés sont présentés sous forme de cours magistraux et d’exercices d’application.

Equipe Enseignante : 

Mourad Ouziri 

Modélisation déterministe II

Modélisation déterministe II: propagation d’épidémies

Cours : 15h TD : 15h 

 

Mots clés : Modèles dynamiques déterministes de propagation des épidémies, Nombre de reproduction de base,  Systèmes différentiels non linéaires, Cycles limites sur des exemples classiques.

Objectifs :
Nous approfondissons dans ce cours, les notions de bases de l’épidémiologie mathématique des maladies infectieuses vu au premier semestre dans le cours de « Déterministe 1 ».

Compétences acquises :
La mise en place d’un modèle de propagation d’épidémie et son étude compartimentale locale.

Programme :

  • Étude de systèmes différentiels non linéaires suite et fin.
  • Modèles SIRS sans naissances-morts, SIR avec effet démographie et mortalité due à la maladie, SEIR, SEIRS, MSEIR, MSEIRS,
  • Recherche et nature de points d’équilibre, nature de ces points, interprétation épidémiologique.
  • Cycles limites sur des exemples classiques. Etude qualitative, quantitative et numérique

Equipe Enseignante

Rachid Lounes, Georges Koepfler

Analyse de Données Dépendantes (option)

Analyse de Données Dépendantes (option)

Cours : 15h TD: 15h 

Programme :

Processus du second ordre : vecteurs et processus gaussiens. – Processus
stationnaire : fonction d’autocovariance, opérateur backward, filtrage linéaire, processus AR, MA,
ARMA, prédiction linéaire, équations de Yule-Walker. – Représentation spectrale : séries de Fourier, densité spectrale, théorème d’Herglotz, filtrage et densité spectrale, existence de solutions pour les
processus ARMA. – Estimation : estimation de la moyenne et de l’autocovariance

Equipe Enseignante : 

Assaf Shapira

Projets multidisciplinaires : applications en bioinformatique et en médecine (option)

Projets multidisciplinaires : applications en bioinformatique et en médecine (option)

Projets tutorés mutualisés avec l UFR Sciences du Vivant,  Master mention Bioinformatique,  Parcours bio-informatique

En construction. 

 

UE transverse UPCité : Sport (option)

UE transverse UPCité : Sport (option)

 

 

UE transverse UPCité Engagement (option)

UE transverse UPCité Engagement (option)

 

 

UE Préprofessionalisation

Pré-professionnalisation

Cette UE est consistituée de deux activitée 

  • Module de formation CAPEMPLOI (intervenants extérieurs, 15h de cours)
  • Etudes de cas, décrites ci-dessous

Etudes de Cas

cours: 15h TD: 15h 

Objectifs :

L’objectif principal est de permettre aux étudiants de comprendre comment des méthodologies scientifiques et analytiques sont appliquées dans des contextes réels. Des professionnels (INSERM, INVS, INRA, …) viennent exposer une étude qu’ils ont eu à mener, en partant du problème concret de départ, en passant par la modélisation et le traitement, pour arriver aux résultats pratiques après traitements des données. 

 Compétences acquises :

Appréhender un problème concret sous sa forme brute, puis le modéliser, le simplifier, afin de le traiter.

Programme :

Chaque intervenant utilise entre deux et quatre séances de cours/TD pour présenter les problèmes qu’il a rencontré et leur contexte, en engageant les étudiants dans la réflexion sur les étapes de résolution :

      Appréhender et comprendre un problème concret sous sa forme brute

      Modéliser et/ou simplifier ce problème afin de pouvoir le traiter

      Interpréter les résultats d’analyse afin d’en tirer des conclusions applicables à des problématiques scientifiques ou opérationnelles

Les intervenants et les domaines sont variables d’une année sur l’autre. Les étudiants peuvent ainsi mieux appréhender ce à quoi ils seront confrontés lors de leur stage de dernier semestre (semestre S4 du master).

 

M2 Semestre 3 (Ingénierie Mathématiques et Biostatistique)

NB :  Parmi les cours optionnels, sont à choisir

  • parmi les options du bloc I : 2 UE parmi 3
  • parmi les options du bloc II : 1 UE parmi 2.

 

Machine Learning II et Deep Learning

Machine Learning II et Deep Learning

Cours : 30h      TD : 30h 

 

Objectifs et Compétences : 

Maîtriser l’utilisation et les principes théoriques sous-tendant les modèles de Machine Learning avancé, de Deep Learning et d’Intelligence Artificielle.

 

Programme :

– Méthodes d’aggrégation (forêts aléatoires, bagging, agrégation d’experts, gradient boosting, etc…)

– Deep Learning: fondations.
SGD, back-propagation, implémentation (utilisation des librairies incontournabels, tensorflow …), architectures standard

– Sujets avancés:
Inférence causale, détection d’anomalie, éclairages théoriques (complexité de rademacher, bornes de généralisation).

 

Equipe  Enseignante :  

Paul Bastide,  Antoine Chambaz, Joan Glaunes, Antoine Marchina, Vittorio Perduca, Anne Sabourin, Pierre-Emmanuel Sugier, Jonathan Vacher

Algorithmes stochastiques

Algorithmes stochastiques 

Cours : 15h TD : 15h 

Mots-clés : Modèles de mélanges, HMMs, algorithme EM, Monte Carlo, MCMC.

 

Descriptif : 

Les algorithmes stochastiques sont des algorithmes avec une composante de simulation aléatoire qui visent à résoudre des problèmes d’estimation, d’échantillonnage ou d’optimisation complexes. Après une introduction aux chaînes de Markov, ce cours explore les fondements théoriques des modèles à variables latentes, et des quelques techniques d’échantillonnage. Les étudiants mettrons en pratique les concepts appris en cours lors de nombreux travaux pratiques en R.

 

Contenus :

– Introduction aux chaînes de Markov : mesure invariante et limite. 

– Modèles à variables latentes : modèles de mélanges, chaînes de Markov cachées (HMMs).

– Algorithme EM : présentation générale de l’algorithme et application pour l’estimation des paramètres dans les modèles de mélanges et HMMs.

– Algorithmes d’échantillonnage et d’estimation de l’espérance d’une fonction d’une variable aléatoire: algorithmes d’acceptation-rejet, de Monte Carlo, d’échantillonnage préférentiel, et introduction aux méthodes Monte Carlo par chaînes de Markov (algorithme de Metropolis-Hastings).

Equipe Enseignante: 

Vittorio Perduca 

Analyse de survie

Analyse de survie

Cours : 15h TD : 15h 

Mots clés : Fonctions de survie, Censure, Estimation non-paramétrique (estimateur de Kaplan-Meier de la fonction de survie, l’estimateur de Nelson-Aalen de la fonction de hasard cumulée), Modèle de Cox. 

Objectifs :
Les objectifs de ce cours sont d’analyser des données issues d’une étude de survie, de savoir interpréter les résultats et de savoir discuter les hypothèses des différents modèles. Dans un premier temps, la modélisation des durées de survie via des approches non paramétriques sera étudiée. Dans un second temps, l’ajustement sur des covariables sera considéré via le modèle de régression semi-paramétrique de Cox. Les hypothèses de validité de ce modèle seront également discutées.

Compétences acquises :
L’étudiant sera capable de formuler un modèle susceptible de convenir à ses données, de comparer les survies observées sur plusieurs groupes et de mettre en place le modèle de Cox. Un accent particulier est mis sur l’interprétation des résultats et la mise en pratique via le logiciel R de tels modèles.

Programme :
– Généralités, Fonctions de survie, Relation entre les diverses fonctions de survie, Censure à droite- Estimation nonparamétrique des quantités de base (l’estimateur de Kaplan-Meier de la fonction de survie, l’estimateur de Nelson-Aalen de la fonction de hasard cumulée,…)- Tests d’hypothèse concernant l’égalité de deux ou plusieurs courbes de survie- Modèles à hasards proportionnels  – Modèle de Cox, Vraisemblance conditionnelle de Cox,- Estimations et tests dans le modèle de Cox – Analyse des résidus et extensions possibles du modèle de Cox

 

Equipe Enseignante: 

Flora Alarcon

Logiciels de statistique et d'analyse de données

Logiciels de statistique et d’analyse de données

Cours : 15h TD : 15h 

En construction

Statistique non paramétrique (option, bloc I)

Statistique non paramétrique (option, bloc I)

Cours : 15h TD : 15h 

Objectifs :
L’objectif de ce cours est de présenter aux étudiants différentes méthodes d’estimation fonctionnelle. Ces méthodes peuvent être utilisées de façon autonome ou bien afin de permettre de choisir un modèle paramétrique plus simple et plus facile à présenter à des professionnels ou des médecins.

Programme :
Estimation d’une densité par méthode de projection (bases fonctionnelles orthonormées, construction de l’estimateur, étude du biais, de la variance, compromis par sélection de modèle, programmation) – Estimation d’une densité par méthode de noyau (noyau d’ordre quelconque, construction et étude de l’estimateur, compromis biais-variance par sélection de fenêtre, programmation). – Estimation d’une fonction de régression avec les deux méthodes : noyau et projection, étude et comparaison. – Applications en modèles de survie : estimation non paramétrique d’une densité, d’une fonction de risque instantané (hazard rate) dans le cas de modèle avec censure droite, d’une fonction de répartition en présence de censure par intervalle.

Equipe Enseignante: 

Fabienne Comte

Modèles différentiels et données (option, bloc I)

Modèles différentiels et données (option, bloc I)

Cours : 15h TD : 15h 

Objectifs :
Ce cours propose une introduction poussée, dans un cadre déterministe, à la modélisation, l’analyse et la simulation d’un système physique ou biologique. Souvent l’évolution d’un tel système se décrit à travers des équations différentielles ordinaires (EDOs) ou des équations aux dérivées partielles (EDPs). L’objectif est de présenter et d’étudier mathématiquement et numériquement ces problèmes. Une partie du cours sera consacrée aux aspects de simulation numérique et à la comparaison entre les modèles et les données expérimentales.

Compétences acquises :
Maîtriser les concepts de base en modélisation, analyse et simulation. Capacité à mettre en œuvre sur ordinateur des modèles de type EDO ou EDP. Comprendre les difficultés liées à la calibration et la validation de tels modèles. Interpréter les résultats, si possible au regard de données disponibles.

Programme :
Rappels et compléments sur les EDOs. Applications en évolution des populations, étude de dynamiques complexes et influence des paramètres. Modèles déterministes par EDPs (équation de transport, équation de la chaleur). Méthodes de discrétisation et simulations numériques (différences finies). Système d’EDPs proies-prédateurs.

Equipe Enseignante :

Marcela Szopos

Théorie des Jeux (option, bloc I)

Théorie des jeux  (option, bloc I)

Cours : 15h TD : 15h 

En construction

Projet tutoré (option, bloc II)

Projet tutoré (option, bloc II)

TD : 8h 

Objectifs :

Savoir lire un article (qui peut être en Anglais), et apprendre à en faire la synthèse écrite et à l’exposer en un temps assez court (10 mn). La compréhension repose sur une implémentation informatique. 

Open your mind via Interdisciplinary topics (option, bloc II)

Open your mind via Interdisciplinary topics (option, bloc II)

cours :15 H   TD : 15H

 

Enseignement multi-disciplinaire dans le cadre du projet d’enseignement de santé numlérique  DigiHealth

En construction

M2 Semestre 4 (Ingénierie mathématique et Biostatistique)

Stage en entreprise ou en laboratoire de recherche