Spécialité Mathématiques, Modélisation, Apprentissage

Mots-Clefs : Apprentissage, Machine Learning, Grande dimension, Données massives, Biostatistiques, Optimisation, Traitement d’Images, Vision par ordinateur.

 

Le Master de Mathématiques, Modélisation, Apprentissage est organisé sur la base d’un M1 commun et d’un M2 offrant différentes options.

Le M1 MMA est centré sur les différents aspects des mathématiques appliquées. Il a pour objectif de donner une solide culture de base en analyse, probabilité et statistique, tout en préparant aux parcours proposés en deuxième année.

Le M2 MMA propose une formation avancée dans les domaines des probabilités, des statistiques, de la modélisation mathématique, du traitement d’images et des applications des mathématiques aux sciences du vivant en cohérence avec les thématiques du laboratoire MAP5.

Le M1 MMA permet également de postuler au master Mathématiques, vision, apprentissage (MVA), dans le cadre d’un partenariat de formation entre l’Université Paris Saclay et Université Paris Cité.

Conditions d’accès

La spécialité Mathématiques Modélisation Apprentissage est accessible aux étudiants titulaires d’une Licence de Mathématiques (ou diplôme français ou étranger de niveau équivalent). Pour postuler directement en M2, il est nécessaire d’être titulaire d’un M1 de Mathématiques,  un bon niveau en probabilités et statistique est également requis.

Objectifs de la formation

Former des spécialistes en Apprentissage et en Modélisation aléatoire et déterministe, en vue d’applications en Imagerie ou en Sciences du vivant (Biologie, Santé, Médecine).

L’objectif est de former des spécialistes en mathématiques appliquées. La formation est destinée aux étudiants qui veulent se spécialiser en probabilité, statistique, traitement d’image, ou modélisation déterministe et numérique. Les débouchés concernent les métiers de la recherche (thèse de doctorat ), aussi bien dans le public que dans les départements R&D en entreprise, ainsi que tous les métiers liées à l’analyse d’image ou de données.

Le Master 1  propose une solide formation en mathématiques et mathématiques appliquées.
Le Master 2  forme aux techniques d’optimisation et d’apprentissage, avec des spécialisations dans les domaines de la modélisation probabiliste, des biostatistiques et du traitement d’image.

Intervenants. Les intervenants sont des enseignants-chercheurs de l’UFR de Mathématique et Informatique et de l’UFR Biomédicale, membres du Laboratoire MAP5 (UMR Cnrs 8145), des chercheurs de l’INRA, du CNRS, de l’Institut de radioprotection et de sûreté nucléaire (IRSN).

Débouchés

  • Recherche publique (Université, CNRS, INRIA, CEA, CNES, INRA,
    INSERM,…), services de recherche des hôpitaux
  • Industrie (Alcatel, Sagem, General Electric, Thales,…)
  • Laboratoires pharmaceutiques (GSK, Sanofis-aventis)
  • Thèse en laboratoires universitaires ou dans des équipes de recherche en
    entreprise
  • Ingénieurs experts en imagerie ou en bio-statistiques

Candidatures

Vous trouverez sur la page des candidatures toutes les informations utiles.

Possibilités en M2

Le M1 permet également de candidater au M2 Mathématiques, Vision, Apprentissage (MVA) dans le cadre d’un partenariat de formation entre l’Université Paris Saclay et Université Paris Cité.

M1 Semestre 1 (Mathématiques, modélisation, Apprentissage)

Probabilités avancées (MT2AM010)

Probabilités avancées (MT2AM010)

cours: 30h TD: 30h 

Objectifs :

Initiation aux processus en temps discret. Compréhension de l’espérance conditionnelle. Martingales à temps discret et les théorèmes de convergence associés.

Compétences acquises :

Espérance conditionnelle, martingale en temps discret

Programme :

Définition de l’espérance conditionnelle généraleTribus, temps d’arrêtMartingales à temps discretInégalités (maximale, Doob,…).Convergence presque sûre des martingalesConvergence dans L^p

Analyse de Fourier (MT2AM020)

Analyse de Fourier (MT2AM020)

cours: 15h TD: 15h 

Objectifs :

L’analyse de Fourier et ses prolongements (ondelettes, analyse harmonique, …) jouent un rôlecentral dans beaucoup de problèmes de mathématiques appliquées (équations différentielles et équations aux dérivées partielles, analyse numérique, convolution, traitement du signal et de l’image, etc). L’objectif de ce cours est de donner des bases mathématiques solides dans ce domaine.

Compétences acquises :

Transformations de Fourier continue et discrète.Applications de la transformée de Fourier.

Programme :

* Rappels sur les séries de Fourier * Transformée de Fourier dans L1, propriétés, calculs. Liens avec la convolution. * Formule d’inversion. Impact de la régularité d’une fonction sur sa transformée de Fourier. * Transformée de Fourier dans L2: construction, propriétés, exemples. * Espace de Schwartz et transformée de Fourier. Stabilité. Propriétés de densité. * Transformée de Fourier discrète, transformée de Fourier rapide. Lien entre séries de Fourier, transformée de Fourier, et transformée de Fourier discrète. Applications.

Analyse fonctionnelle (MT2AM030)

Analyse fonctionnelle (MT2AM030)

Cours : 15h TD: 15h 

Programme :

Espaces de fonctions continues sur un compact (théorème d’Ascoli, théorème de Stone-Weierstrass), espaces de Hilbert (projection, base hilbertienne, adjoint), théorème de Banach-Steinhaus, dualité des espaces de Banach et de Hilbert (convergence faible, convergence faible-étoile, identification, théorème de représentation de Riesz, théorème de Lax-Milgram), applications compactes.

Programmation (MT2AM040)

Programmation (MT2AM040)

Cours : 15h TP: 15h 

Objectifs :

L’objectif de ce cours est de familiariser les étudiants avec la programmation et avec les logiciels de calcul scientifique.

Compétences acquises :

Connaître et maîtriser les structures basiques de la programmation (variables, scripts, boucles, récursivité) et les limites du calcul numérique. Etre capable de concevoir et de programmer des algorithmes simples dans un langage fonctionnel (par exemple Scilab, Matlab, Octave, R), afin de résoudre numériquement des problèmes de calcul scientifique et/ou de simuler des phénomènes concrets issus de différents domaines applicatifs (physique, biologie, etc.).

Programme :

Chaque séance donne lieu à l’implémentation d’algorithmes classiques d’analyse numérique. 1. Introduction2. Résolution de systèmes linéaires (Gram-Schmidt, décomposition LU)3. Traitement d’images (filtres et débruitage)4. Analyse de données (moindres carrés, K-means, RANSAC)5. Résolution d’équations non linéaires (dichotomie, Newton-Raphson)6. Simulations de phénomènes aléatoires

Optimisation (MT2AM050)

Optimisation (MT2AM050)

Cours : 15h TP : 15h 

Objectifs :

Ce cours est une introduction aux problèmes d’optimisation.
Le cours se focalise essentiellement sur des problèmes d’optimisation sans contrainte en dimension finie.
Après une introduction des différentes notions mathématiques nécessaires (rappels de calcul différentiel, conditions d’optimalité, convexité, etc.),
une part importante est donnée à l’exposition des différents algorithmes classiques d’optimisation, 
l’étude théorique de leur convergence, ainsi que la mise en œuvre pratique de ces algorithmes.
Le logiciel libre de calcul scientifique Octave est utilisé en séance de Travaux Pratiques (TP).

Compétences acquises :

Calcul de gradients et matrices hessiennes de fonctionnelles. 
Étude de la convexité. Notion de forte convexité. 
Étude et de la convergence de divers algorithmes d’optimisation : Algorithme de descente de gradient, algorithme de Newton, algorithme de gradient conjugué.
Implémentation en Octave de ces algorithmes et étude expérimentale de la convergence.

Programme :

 * Rappels et compléments de calculs différentiels : Différentielle et gradient ; Dérivation des fonctions composées ; Différentielle d’ordre      deux et matrice hessienne ; Formules de Taylor
* Problèmes d’optimisation : Existence et unicité des solutions : Existence de solutions pour les fonctions coercives et continues ; Extremums locaux et dérivabilité ; Ensembles convexes ; Fonctions convexes ; Problèmes d’optimisation convexes ; Étude des fonctionnelles quadratiques
* Algorithmes de descente pour des problèmes sans contraintes : Forte convexité ; Algorithmes de recherche de pas de descente ; Algorithmes de descente de gradient ; Méthode de Newton ;
* Méthode du gradient conjugué : Convergence et implémentation

Modélisation déterministe (MT2AM060)

Modélisation déterministe (MT2AM060)

Cours : 15h TD : 15h 

Programme :

– EDO (Modélisation des phénomènes de naissance, mort, compétition, mutualisme, prédation. Dynamique des populations. Modèles proies-prédateurs de type Lotka-Volterra. Dynamique adaptative. Théorème de Cauchy-Lipschitz. Stabilité des points d’équilibre.)

– EDP hyperboliques : phénomènes de transport (Principes généraux et propriétés mathématiques. Équation de renouvellement.)

– EDP paraboliques : phénomènes de diffusion (Principes généraux et propriétés mathématiques. Analyse de Fourier. Systèmes de réaction-diffusion. Morphogénèse et motifs de Turing…)

– Méthodes de discrétisation (Différences finies). Simulations numériques.

 

Théorie de l’information (MT2AM070)

Théorie de l’information (MT2AM070)

Cours : 15h TD : 15h 

Objectifs :

La théorie de l’information, inventée par Shannon en 1948, est non seulement à la base de toutes les communications numériques actuelles, mais séduit aussi par sa portée mathématique, physique, et philosophique qui va bien au-delà. L’objectif de ce cours est de comprendre les concepts fondamentaux de la théorie de l’information, à commencer par la notion d’entropie.

Compétences acquises :

Notions élémentaires de théorie de l’information : entropie, codage.Principes de la communication à travers un canal bruité.

Programme :

* Arbres de décision et entropie algébrique. * Entropie probabiliste. Propriétés. * Entropie conditionnelle. Information mutuelle. Distance de Kullback. * Propriété d’équirépartition asymptotique. Suites typiques. * Codage : codes réguliers, déchiffrables, complets, codes de préfixe. * Inégalité de Kraft. Premier théorème de Shannon. * Codage de Huffman, optimalité. Lien entre codage et détermination de stratégies optimales. * Taux d’entropie de sources avec mémoire. Codage Lempel-Ziv. * Communication à travers un canal bruité. Deuxième théorème de Shannon. Example du code de Hamming 7,4. ***

 

Anglais (MT2AM080)

M1 Semestre 2 (Mathématiques, modélisation, Apprentissage)

Statistiques (MT2BM010)

Statistiques (MT2BM010)

Cours : 30h TD : 30h 

Programme :

Modèle statistique, identifiabilité – Estimation de paramètre et comparaison 
d’estimateurs – Lois empiriques et quantiles – Construction d’estimateurs par des méthodes de 
substitution (moments, quantiles) et par maximum de vraisemblance – Modèles réguliers et 
information de Fisher, efficacité – Intervalles de confiance – Régression linéaire multivariée – 
Réduction des données, exhaustivité, complétude, familles exponentielles – Tests paramétriques, 
hypothèses simples et complexes, Lemme de Neyman-Pearson, tests gaussiens.

Chaînes de Markov (MT2BM020)

Chaînes de Markov (MT2BM020)

cours : 15h TD : 15h 

Séries temporelles (MT2BM030)

Séries temporelles (MT2BM030)

Cours : 15h TD : 15h 

Programme :

Processus du second ordre : vecteurs et processus gaussiens. – Processus 
stationnaire : fonction d’autocovariance, opérateur backward, filtrage linéaire, processus AR, MA, 
ARMA, prédiction linéaire, équations de Yule-Walker. – Représentation spectrale : séries de Fourier, densité spectrale, théorème d’Herglotz, filtrage et densité spectrale, existence de solutions pour les 
processus ARMA. – Estimation : estimation de la moyenne et de l’autocovariance 

Méthodes variationnelles et EDP (MT2BM040)

Méthodes variationnelles et EDP (MT2BM040)

Cours : 15h TD : 15h 

Objectifs :

Ce cours présente la nécessité de nouvelles méthodes pour résoudre les Équations aux Dérivées Partielles (EDP) : problèmes à bord, problèmes peu réguliers. Il revoit les différents espaces fonctionnels vus en Licence : espaces réguliers, espaces L^p puis introduit les dérivées faibles et les espaces de Sobolev. Ce cours étudie ensuite les domaines ouverts bornés de R^d, leur régularité et l’existence de normale extérieure afin de pouvoir effectuer des intégrations par parties en toute dimension finie. Tous ces outils permettront de résoudre des EDP elliptiques dans un sens variationnel (sens faible) grâce au résultat de Lax-Milgram. Suivant le temps restant ce cours étend ces méthodes à l’équation de la chaleur.

Compétences acquises :

Savoir résoudre des EDP au sens classique (solutions exactes par changement de variable) ; Savoir résoudre une EDP elliptique au sens faible en utilisant Lax-Milgram ; Comprendre la nécessité des espaces de Sobolev et les utiliser.

Programme :

Présentation des problèmes surgissant en EDP et motivation de nouvelles méthodes ; Rappels d’analyse fonctionnelle ; Régularité des domaines ouverts et bornés ; Intégration par partie et formule de Green ; Espaces de Sobolev et théorèmes de trace ; Résolution variationnelle des EDP à bord.

 

Distributions et théorie de l’échantillonnage (MT2BM050)

Distributions et théorie de l’échantillonnage (MT2BM050)

Cours : 15h TD : 15h 

Programme :

Fonctions tests et distributions, opérations sur les distributions (dérivation, multiplication par une fonction), distributions tempérées (transformée de Fourier, convolution), distributions à support compact, distributions périodiques (série de Fourier, formule sommatoire de Poisson), échantillonnage (théorème de Shannon-Nyquist).

Optimisation sous contrainte (MT2BM060)

Optimisation sous contrainte (MT2BM060)

Cours : 15h TP : 15h 

Programme :

Existence et Unicité. Cas convexe Différentielle au sens de Gâteau. Ellipticité.  
Condition d’optimalité du premier ordre. Projection sur un convexe fermé. Exemples. Méthode du gradient projeté. Conditions de Karush-Kuhn-Tucker. Points réguliers. Cas de contraintes affines. 
Lagrangien. Dualité. Méthode d’Uzawa. Critère de convergence. 

Bases pour le traitement d’image (MT2BM070)

Bases pour le traitement d’image (MT2BM070)

Cours : 15h TP : 15h 

Programme :

Ce cours a pour but, à partir de problèmes inverses classiques en traitement d’images (restauration, segmentation) et en s’appuyant sur des applications bio-médicales, de présenter des techniques de mathématiques appliquées qui permettent de donner une réponse à ces problèmes :Approches linéaires (transformée de Fourier, en ondelettes),Approches géométriques (morphologie mathématique, EDP, contours actifs),Approches stochastiques (méthodes bayesiennes, champs markoviens…).Des chaînes de traitement utilisant plusieurs de ces approches successivement seront aussi présentées.

UE Projet

Projet tutoré (MT2BM080)

Objectifs :

Savoir lire un article (qui peut être en Anglais), et apprendre à en faire la synthèse écrite et à l’exposer en un temps assez court (10 mn). La compréhension repose sur une implémentation informatique.

Cap Emploi (MT2BX090)

cours: 15h

 

M2 Semestre 3 (Mathématiques, modélisation, Apprentissage)

Optimisation déterministe (MT2CM010)

Optimisation déterministe (MT2CM010)

Cours : 15h TD : 15h 

Programme :

Rappels sur l’optimisation différentiable et la dualité lagrangienne, ADMM, algorithme de Krasnosel’skii-Mann, accélération de Nesterov, descente de sous-gradient projeté et autres méthodes basiques d’optimisation non différentiable, résolvante et opérateur proximal, algorithme du point proximal, algorithme explicite-implicite (FISTA), algorithme de Douglas-Rachford, transformée de Legendre-Fenchel, dualité de Legendre-Rockafellar, algorithme dual, algorithme primal-dual (Chambolle-Pock, PAPC).

Algorithmes stochastiques (MT2CM020)

Algorithmes stochastiques (MT2CM020)

Cours : 15h TD : 15h 

Programme :

La définition classique des algorithmes en fait des processus déterministes : avec les mêmes données, la même suite d’opérations sera exécutée. Il s’avère que, dans certains cas, introduire de l’aléa dans la suite d’instructions définissant un algorithme peut s’avérer bénéfique. L’algorithme obtenu est alors appelé algorithme stochastique. Dans ce cours, nous étudierons des algorithmes stochastiques essentiels : l’algorithme EM (qui n’est pas, stricto sensu, un algorithme stochastique, mais est lié, dans sa conception, à ceux-ci), la méthode de Monte Carlo, l’échantillonnage préférentiel, l’algorithme de Hasting-Metropolis et le recuit simulé. Les deux derniers algorithmes appartiennent à la catégorie des algorithmes de type Markov Chain Monte Carlo (MCMC), construits à partir d’une chaîne de Markov. Les tâches effectuées par les algorithmes étudiés dans ce cours sont : l’estimation de paramètres ou de distributions, le calcul d’intégrales ou de quantités associées à des espérances, la simulation de variables aléatoires et processus suivant des lois données et l’optimisation de fonctions.

Classification (MT2CM030)

Classification (MT2CM030)

Cours : 15h TD : 15h 

Objectifs :

Les méthodes de classification permettent de faire des partitions d’individus en groupes ayant un comportement similaire. Ce cours a pour objectif de présenter quelques-unes des principales méthodes de classification et de les mettre en œuvre sur des exemples concrets.

Compétences acquises :

L’étude théorique de différentes méthodes de classification et leur utilisation pratique sous le logiciel R.

Programme :

Classification non supervisée (Classification ascendante hiérarchique, Centres mobiles). Classification supervisée (Méthode CART, k plus proches voisins, Méthodes de rééchantillonnage (Validation croisée)).

Apprentissage en grande dimension (MT2CM040)

Apprentissage en grande dimension (MT2CM040)

Cours : 15h TD : 15h 

Programme :

De nos jours, de nombreux jeux de données, que ce soit par exemple en biologie ou en image, font intervenir des centaines, milliers voire millions de variables. Les méthodes d’apprentissage et les statistiques sous-jacentes doivent être adaptées à ce phénomène, car les méthodes habituelles en petite dimension ne sont pas efficaces. Des choix doivent notamment être faits entre prédiction et sélection de variables. Les différentes méthodes abordées seront illustrées en TP.

Programme :

1. Introduction : en quoi la grande dimension ne peut pas être traitée comme la petite dimension
2. Grande dimension et abondance de données : réseaux de neurones, deep learning
3. Grande dimension et peu de données : réduction de dimension (ACP, PLS)
4. Grande dimension et peu de données : méthodes de vraisemblance pénalisée (Ridge, Lasso, modèles graphiques gaussiens)

UE Image et modélisation pour la biologie, 4 ECUE à choisir parmi

Équations de transport (MT2CM050)

cours: 15h TD: 15h

Objectifs :

Ce cours a pour vocation de décrire une démarche de modélisation, d’analyse et de simulation d’un système physique ou biologique, dans un cadre déterministe. Souvent l’évolution d’un tel système se décrit à travers des équations aux dérivées partielles (EDPs). L’objectif est de présenter des outils mathématiques assurant des solutions aux problèmes (formulation, caractère bien posé, méthodes numériques, problèmes en interaction avec les données). Une partie du cours sera consacrée aux aspects de simulation numérique et à l’interprétation des résultats.

Compétences acquises :

Maîtriser les concepts de base en modélisation, analyse et simulation. Savoir résoudre des EDPs au sens classique. Savoir résoudre une EDP elliptique au sens faible. Capacité à mettre en œuvre sur ordinateur ces modèles et interpréter les résultats.

Programme :

Présentation des problèmes surgissant en EDP et motivation de nouvelles méthodes. Rappels et compléments d’analyse fonctionnelle. Modèles déterministes par EDPs, solutions fortes, solutions faibles. Méthodes de discrétisation et simulations numériques

Mouvement brownien et calcul stochastique (MT2CM060)

Cours : 15h TD : 15h

Programme :

Les équations différentielles sont un formalisme mathématique qui permet de comprendre l’évolution des systèmes (physiques, chimiques, biologiques, démographiques, économiques, informatiques…) au cours du temps. Il apparaît dans de nombreux contextes applicatifs que ce formalisme ne tient pas assez compte d’un certain aléa dû par exemple aux erreurs de mesure ou à l’évolution du milieu au cours du temps. L’objet de ce cours est d’expliquer comment y remédier en introduisant du bruit (ou, plus généralement, de l’aléa) dans les équations différentielles. De nombreux exemples issus de la biologie, de l’économie ou de la physique illustrent le propos. Le cours comprend une partie programmation, en R, en Scilab ou en Python (au choix). 
Les élèves qui le souhaitent pourront être initiés à Python, langage facile mais puissant, très utilisé à la fois dans le monde académique et dans l’industrie. 
Le plan du cours est le suivant : Variables, vecteurs et processus gaussiens. – Mouvement brownien. – Calcul stochastique et formule d’Itô. -Equations différentielles stochastiques (introduction, générateurs et ien avec les chaines de Markov discrètes). 
Des applications à la biologie, l’économie ou la physique sont données dans chaque chapitre.

Modèles poissoniens et processus markoviens (MT2CM070)

Cours : 15h TD : 15h

Programme :

Les processus de Poisson sont des ensembles aléatoires de points dans l’espace qui servent à l’élaboration de nombreux modèles géométriques. Nous étudierons via des exemples les propriétés statistiques géométriques du processus booléen, modèle polyvalent qui sert pour l’étude des milieux poreux et des tissus, et des champs shot-noise, utilisés en imagerie ou en médecine.

On évoquera également d’autres processus permettant de modéliser plus fidèlement la répulsion ou le clustering de particules, comme les mesures de Gibbs ou les processus determinantaux.  Les systèmes de particules en interaction sont des ‘modèles jouets’ utilisés en physique statistique ou en biologie.

Ce sont des processus de Markov en temps continu, où l’évolution temporelle de chaque particule est régie par son interaction spatiale avec les autres particules. Après l’étude des processus markoviens de saut qui décrivent l’évolution d’une seule particule (construction, générateurs, semi-groupes, mesures invariantes ; exemples), nous introduirons les systèmes de particules au travers de deux modèles caractéristiques, le processus d’exclusion simple (qui modélise par exemple des flux de voitures), et le processus de contact (qui modélise des propagations d’infections).

Statistique non paramétrique (MT2CM080)

Cours : 15h TD : 15h

Objectifs :

L’objectif de ce cours est de présenter aux étudiants différentes méthodes d’estimation fonctionnelle. Ces méthodes peuvent être utilisées de façon autonomes ou bien afin de permettre de choisir un modèle paramétrique plus simple et plus facile à présenter à des professionnels ou des médecins.

Programme :

Estimation d’une densité par méthode de projection (bases fonctionnelles orthonormées, construction de l’estimateur, étude du biais, de la variance, compromis par sélection de modèle, programmation)

– Estimation d’une densité par méthode de noyau (noyau d’ordre quelconque, construction et étude de l’estimateur, compromis biais-variance par sélection de fenêtre, programmation).

– Estimation d’une fonction de régression avec les deux méthodes : noyau et projection, étude et comparaison.

– Applications en modèles de survie : estimation non paramétrique d’une densité, d’une fonction de risque instantané (hazard rate) dans le cas de modèle avec censure droite, d’une fonction de répartition en présence de censure par intervalle.

Imagerie biomédicale (MT2CM090)

Cours : 15h TP : 15h

Programme :

Ce cours permettra aux étudiants de découvrir l’utilisation de différentes techniques d’analyse d’images appliquées au domaine biomédical. Chaque cours présentera tout d’abord certaines méthodes d’analyse d’images (théorie, algorithme, implémentation), puis proposera aux étudiants de les utiliser dans des cas réels afin d’apprécier leur efficacité (les TPs seront réalisés en Python avec OpenCV).

Une grande partie du cours sera consacrée aux outils de morphologie mathématique (ouverture, fermeture, ligne de partage des eaux). Les méthodes d’analyse d’images abordées auront des applications en débruitage, segmentation, analyse de formes, etc.

L’ensemble permettra aux étudiants d’être capables, à l’issue du cours, de réaliser une chaîne de traitement complète d’une image. L’évaluation des étudiants sera réalisée à l’aide d’un projet à rendre avec un rapport

Vision par ordinateur et géométrie (MT2CM100)

Cours : 15h TD : 15h 

Programme :

Ce cours aborde différents problèmes d’analyse d’image et de vision par ordinateur. Les séances alternent entre cours et travaux pratiques (langage au choix pour la première partie, langage Python et Open CV pour la deuxième). La validation se fera par un contrôle en classe puis un mini-projet final.

La première partie du cours est centrée sur le traitement et l’analyse de vidéos numériques. Le but est de comprendre les problèmes spécifiques posés par la vidéo et d’apprendre à utiliser des outils mathématiques variés (méthodes variationnelles, edp, statistiques) dans ce contexte.

Programme :

– Estimation du flot optique ;
– Méthode de détection a contrario en vidéo ;
– Points d’intérêts et tracking dans les séquences d’images.

La deuxième partie du cours abordera différentes problématiques impliquant l’application de transformations géométriques aux images : recalages d’images, détection d’objets, reconstruction 3D. 

Programme :
– Modèles de déformations : transformations rigides, affines, homographiques, élastiques. Application d’un champ de déformation sur une image discrète.
– Mesures de similarité entre points ou nuages de points, modèles d’appariement associés.
– Extraction de points d’intérêt par descripteurs locaux, et appariement des points d’intérêt : méthode SIFT. Détection d’objets dans une image basé sur la méthode SIFT et l’algorithme RANSAC.
– Quelques notions de géométrie épipolaire pour les problèmes de reconstruction tri-dimensionnelle.

Problèmes inverses (MT2CM110)

Cours : 15h TD : 15h 

Programme :

L’objectif de ce cours sera d’apprendre à formuler puis à résoudre des problèmes inverses dédiés à des tâches de traitement d’images telles que le débruitage, le déflouage, l’extrapolation de spectre, etc.

Bien souvent, de tels problèmes mettent en jeu le calcul d’un minimiseur d’une fonctionnelle convexe mais non-différentiable. Le calcul numérique de tels minimiseurs est possible à l’aide d’algorithmes modernes basés sur la dualité et sur le prolongement de la notion de gradient aux fonctionnelles convexes non-différentiables. 

On s’intéressera en particulier à l’algorithme de Chambolle-Pock proposé en 2011, qui offre de rigoureuses garanties mathématiques de convergence. Cet algorithme sera maintes fois mis en œuvre sur des problèmes concrets de traitement d’images.

Mots clés : maximum de vraisemblance, maximum a posteriori, moindres carrés régularisés, représentations parcimonieuses, algorithmes primaux-duaux, transformée de Legendre-Fenchel, déconvolution, tomographie.

Perception, acquisition et analyse d’images (MT2CM120)

Cours : 15h TD : 15h 

Programme :

L’objectif de ce cours est de familiariser les étudiants avec les images numériques, leur formation, leur modélisation et leur représentation, et certains outils d’analyse d’image et de texture. La fin du cours sera consacrée à plusieurs séances sur les méthodes de deep learning pour l’analyse d’image. Les séances alternent entre cours et TP (langages Python ou Matlab).

Programme :

1. Formation et acquisition des images numériques : optique, capteurs, échantillonnage, quantification, dynamique, bruit, liens avec la perception visuelle, couleur 
2. Traitement d’images bas niveau : radiométrie, contraste, couleur, balance des blancs, transfert de couleur, imagerie HDR
3. Représentation et synthèse de textures : processus et champs aléatoires, champs gaussiens, shot noise, synthèse par patches, analyse de texture 
4. Deep learning pour l’analyse et la synthèse d’images : synthèse de texture, transfert de style, vision.

 

 

M2 Semestre 4 (Mathématiques, modélisation, Apprentissage)

Stage M2 (MT2DM010)

Contact

Responsables
M1 : Camille Pouchol
camille.pouchol@u-paris.fr
M2 : Joan Alexis GLAUNES
alexis.glaunes@u-paris.fr