Classification de variables en régression linéaire
Document type :
Article dans une revue scientifique
Permalink :
Title :
Variable clustering in high dimensional linear regression models
Classification de variables en régression linéaire
Classification de variables en régression linéaire
Author(s) :
Journal title :
Journal de la Société Française de Statistique
Abbreviated title :
Journal de la SFdS
Volume number :
155
Pages :
38-56
Publisher :
Société Française de Statistique et Société Mathématique de France
Publication date :
2014
ISSN :
1962-5197
Keyword(s) :
Variable clustering
Dimension reduction
Linear regression
Dimension reduction
Linear regression
HAL domain(s) :
Mathématiques [math]/Statistiques [math.ST]
French abstract :
Les trois dernières décennies ont vu l'avènement de profonds changements dans de nombreuses discipline scientifiques. Certains de ces changements, directement liés à la collecte massive de données, ont donné naissance à ...
Show more >Les trois dernières décennies ont vu l'avènement de profonds changements dans de nombreuses discipline scientifiques. Certains de ces changements, directement liés à la collecte massive de données, ont donné naissance à de nombreux défis en apprentissage statistique. La réduction de la dimension en est un. En régression linéaire, l'idée de parcimonie a longtemps été associée à la possibilité de modéliser un phénomène grâce à un faible nombre de variables. Un nouveau paradigme a récemment été introduit dans lequel s'inscrivent pleinement les présents travaux. Nous présentons ici un modèle permettant simultanément d'estimer un modèle de régression tout en effectuant une classification des covariables. Ce modèle ne considère pas les coefficients de régression comme des paramètres à estimer mais plutôt comme des variables aléatoires non observées suivant une distribution de mélange gaussien. La partition latente des variables est estimée par maximum de vraisemblance. Le nombre de groupes de variables est choisi en minimisant le critère BIC. Notre modèle possède une très bonne qualité de prédiction et son interprétation est aisée grâce à l'introduction de groupe de variables.Show less >
Show more >Les trois dernières décennies ont vu l'avènement de profonds changements dans de nombreuses discipline scientifiques. Certains de ces changements, directement liés à la collecte massive de données, ont donné naissance à de nombreux défis en apprentissage statistique. La réduction de la dimension en est un. En régression linéaire, l'idée de parcimonie a longtemps été associée à la possibilité de modéliser un phénomène grâce à un faible nombre de variables. Un nouveau paradigme a récemment été introduit dans lequel s'inscrivent pleinement les présents travaux. Nous présentons ici un modèle permettant simultanément d'estimer un modèle de régression tout en effectuant une classification des covariables. Ce modèle ne considère pas les coefficients de régression comme des paramètres à estimer mais plutôt comme des variables aléatoires non observées suivant une distribution de mélange gaussien. La partition latente des variables est estimée par maximum de vraisemblance. Le nombre de groupes de variables est choisi en minimisant le critère BIC. Notre modèle possède une très bonne qualité de prédiction et son interprétation est aisée grâce à l'introduction de groupe de variables.Show less >
English abstract : [en]
For the last three decades, the advent of technologies for massive data collection have brought deep changes in many scientific fields. What was first seen as a blessing, rapidly turned out to be termed as the curse of ...
Show more >For the last three decades, the advent of technologies for massive data collection have brought deep changes in many scientific fields. What was first seen as a blessing, rapidly turned out to be termed as the curse of dimensionality. Reducing the dimensionality has therefore become a challenge in statistical learning. In high dimensional linear regression models, the quest for parsimony has long been driven by the idea that a few relevant variables may be sufficient to describe the modeled phenomenon. Recently, a new paradigm was introduced in a series of articles from which the present work derives. We propose here a model that simultaneously performs variable clustering and regression. Our approach no longer considers the regression coefficients as fixed parameters to be estimated, but as unobserved random variables following a Gaussian mixture model. The latent partition is then determined by maximum likelihood and predictions are obtained from the conditional distribution of the regression coefficients given the data. The number of latent components is chosen using a BIC criterion. Our model has very competitive predictive performances compared to standard approaches and brings significant improvements in interpretability.Show less >
Show more >For the last three decades, the advent of technologies for massive data collection have brought deep changes in many scientific fields. What was first seen as a blessing, rapidly turned out to be termed as the curse of dimensionality. Reducing the dimensionality has therefore become a challenge in statistical learning. In high dimensional linear regression models, the quest for parsimony has long been driven by the idea that a few relevant variables may be sufficient to describe the modeled phenomenon. Recently, a new paradigm was introduced in a series of articles from which the present work derives. We propose here a model that simultaneously performs variable clustering and regression. Our approach no longer considers the regression coefficients as fixed parameters to be estimated, but as unobserved random variables following a Gaussian mixture model. The latent partition is then determined by maximum likelihood and predictions are obtained from the conditional distribution of the regression coefficients given the data. The number of latent components is chosen using a BIC criterion. Our model has very competitive predictive performances compared to standard approaches and brings significant improvements in interpretability.Show less >
Language :
Anglais
Audience :
Internationale
Popular science :
Non
Submission date :
2020-06-08T14:10:24Z