Institut de Mathématiques de Luminy

SÉMINAIRES 2012
Statistique et Applications

Organisateurs :
Mohamed Boutahar, Denys Pommeret
Lieu : IML, Bâtiment TPR2- CNRS :
amphi du 1er étage, salle 130-134
Horaire : en règle générale le lundi, à 14h.

Dhafer Malouche

lundi 7 mai
Dhafer Malouche
(ESSAI, Tunis) :
Graphes non orientés dans la représentation des relations entre variables aléatoires

Webpage : http://essai.academia.edu/DhaferMalouche


Mounir Mesbah

lundi 16 avril
Mounir Mesbah
(LSTA, Univ. P. et M. Curie) :
Modèles statistiques à variables latentes : application à la mesure de la qualité de vie liée à la santé

Webpage : http://www.lsta.upmc.fr/mesbah.html


lundi 20 février

Bastien Marchina

Bastien Marchina
(I3M, Montpellier) :
Tester l'adéquation avec la fonction caractéristique

Webpage : http://ens.math.univ-montp2.fr/SPIP/_MARCHINA-Bastien_

Résumé : La fonction caractéristique d'une variable aléatoire X est une représentation de la loi de probabilité de X. Au même titre que la fonction de répartition, on peut déduire de la connaissance de la fonction caractéristique d'une variable aléatoire toutes les propriétés de sa loi de probabilité.
Ainsi, il apparaît intéressant de se pencher sur l'usage de la fonction caractéristique et de son estimateur naturel la fonction caractéristique empirique pour construire des tests d'adéquation de la loi de X à une loi P0, ou à une famille de lois.
Nous présenterons différentes stratégies de test d'adéquation basées sur la fonction caractéristique. Dans un premier temps, nous nous attacherons à donner des résultats théoriques, sur les variables aléatoires à valeurs complexes en particulier, qui nous permettront de donner un éclairage nouveau sur les statistiques de test existantes basées sur la fonction caractéristique. D'autre part, nous présenterons une nouvelle classe de tests d'adéquation basés sur la fonction caractéristique et tirant son inspiration du test lisse de Neyman. Nous proposerons pour ce dernier test des variantes permettant le test d'une hypothèse simple et d'une hypothèse composite.

Marc Chadeau-Hyam
(Imperial College London) :
A hidden Markov model
for smoking-induced lung cancer

Webpage : http://www1.imperial.ac.uk/medicine/people/m.chadeau/

Abstract: There is a growing interest in applying infectious disease models in the investigation of causal relationships between exposures and the risk of chronic diseases such as cancer, as these approaches can provide valuable insights into the mechanisms involved in carcinogenesis. We propose a Hidden Markov model for the risk of lung cancer related to exposure to tobacco smoke. The model relies on an individual-based compartmental structure, where the health status of each individual is either healthy, asymptomatically affected, diagnosed, or deceased. This health state partition covers the whole pathogenic pathway from exposure to disease onset and outcome. Its application has the potential to provide insight in some debated features of the risk of smoking-induced lung cancer. Our approach yielded good performances in reconstructing individual trajectories in both cases (specificity > 75%) and controls (specificity >85%). The elucidation of temporal effects of smoking-induced lung cancer, the predictive ability together with the flexible and general formulation of our model support its application to other diseases and suggest a large range of applications in chronic disease epidemiology.


Jean Sequeira

lundi 13 février
à 10h30

Jean Sequeira
(LSIS, Marseille) :
Analyse d'images et statistiques : des concepts fondamentaux aux applications industrielles

Webpage : http://jean.sequeira.perso.esil.univmed.fr/JeanSequeira.html

Résumé : L'image joue un rôle clé dans la communication entre l'homme et son environnement. Depuis quelques décennies, celle-ci, avec le support de l'ordinateur (on parle alors d'imagerie numérique), prend une place prépondérante dans le monde socio-économique, que ce soit avec la télédétection (images satellite, aéroportées, ...), l'imagerie médicale, la vision industrielle, la vidéoprotection, l'analyse de documents, la simulation, la "réalité augmentée" pour n'évoquer ici que les principaux domaines de l'analyse d'images (il ne faut pas oublier, non plus, la modélisation et la production d'images, avec la "Conception Assistée par Ordinateur", la "Visualisation Scientifique", l'Animation, ...).
Dans cette présentation, nous nous intéresserons uniquement à l'analyse d'images, à ses interactions avec les statistiques, et à son implication croissante dans le monde professionnel.
Les statistiques ont une place importante en analyse d'images, à la fois dans ce que l'on appelle le "Traitement Bas Niveau des images" (proche du "Traitement du Signal") et dans sa composante "Reconnaissance des Formes". Nous nous focaliserons davantage sur la partie "Reconnaissance des Formes" et nous illustrerons notre propos avec une description détaillée de la "Transformée de Hough", mais aussi avec la présentation de travaux récents développés au sein de l'équipe SimGraph du LSIS (et qui ont donné lieu à un dépôt de brevet) concernant le recalage d'images de modalités différentes, à travers l'estimation de la similarité locale entre deux nuages de points. Ces deux axes montreront qu'il existe de nombreux problèmes ouverts, et nous évoquerons d'autres pistes intéressantes pour lesquelles la résolution de problèmes au niveau mathématique permettrait de débloquer des verrous techniques en milieu industriel.


Emilie Guyon

lundi 30 janvier
Émilie Guyon
(IML, Marseille) :
Une revue des méthodes d'imputations multiples

http://iml.univ-mrs.fr/sta/Liste_STA.html

Résumé : Dans de nombreuses études, il arrive fréquemment que l’ensemble des données soit incomplet. Jusqu’à maintenant, de nombreuses techniques statistiques ont été suggérées afin de contrer ce problème. A ce jour, l’imputation multiple ( Little et Rubin, 1987) est considérée comme la méthode la plus performante de traitement des données manquantes car elle permet d’obtenir des jeux de données complets mais aussi de prendre en compte l’incertitude liée à la valeur à imputer.
Rubin (1996) décrit l’imputation multiple comme un processus en trois étapes. D’abord, m > 1 ensembles de valeurs plausibles pour les données manquantes sont créés. Chacun de ces ensembles est utilisé pour remplir les données manquantes et ainsi créer m ensembles complets de données. Ensuite, chacun de ces m ensembles de données peut être analysé en utilisant les méthodes habituellement utilisées avec des données complètes. Ainsi, l’imputation multiple peut être réalisée sur la base de plusieurs modèles et se decompose alors sous plusieurs formes. Finalement, les résultats des m analyses sont combinés afin d’obtenir un ensemble final de données.
Au travers de cet exposé, nous reviendrons essentiellement sur les principales méthodes d’imputation multiple.


lundi 23 janvier
Jacques Touboul
(LSTA, Paris VI) :
Extension de la méthode de poursuite
de projection et applications

Publications : http://hal.archives-ouvertes.fr/

Abstract: Projection Pursuit methodology permits to solve the difficult problem of finding an estimate of a density defined on a set of very large dimension. In his seminal article, Projection Pursuit, Huber (1985) evidenced the interest of the Projection Pursuit method thanks to the factorization of a density into a Gaussian component and some residual density in a context of Kullback-Leibler divergence maximisation.
In the present seminar, we introduce a new algorithm, and in particular, a test for the factorisation of a density estimated from an iid sample.



EL, le 23 avril 2012