Revisite des "random Fourier features" ...
Document type :
Autre communication scientifique (congrès sans actes - poster - séminaire...): Communication dans un congrès sans actes
Permalink :
Title :
Revisite des "random Fourier features" basée sur l'apprentissage PAC-Bayésien via des points d'intérêts
Author(s) :
Gautheron, Léo [Auteur]
Germain, Pascal [Auteur]
Laboratoire Paul Painlevé - UMR 8524 [LPP]
Habrard, Amaury [Auteur]
Letarte, Gaël [Auteur]
Morvant, Emilie [Auteur]
Sebban, Marc [Auteur]
Zantedeschi, Valentina [Auteur]
Germain, Pascal [Auteur]
Laboratoire Paul Painlevé - UMR 8524 [LPP]
Habrard, Amaury [Auteur]
Letarte, Gaël [Auteur]
Morvant, Emilie [Auteur]
Sebban, Marc [Auteur]
Zantedeschi, Valentina [Auteur]
Conference title :
CAp 2019 - Conférence sur l'Apprentissage automatique
City :
Toulouse
Country :
France
Start date of the conference :
2019-07-03
Publication date :
2019-07-03
HAL domain(s) :
Statistiques [stat]/Machine Learning [stat.ML]
French abstract :
Cet article résume et étend notre travail récent publié à AISTATS 2019, dans lequel nous avons revisité la méthode des Random Fourier Features (RFF) de Rahimi et al. (2007) par le biais de la théorie PAC-Bayésienne. Bien ...
Show more >Cet article résume et étend notre travail récent publié à AISTATS 2019, dans lequel nous avons revisité la méthode des Random Fourier Features (RFF) de Rahimi et al. (2007) par le biais de la théorie PAC-Bayésienne. Bien que l'objectif principal des RFF soit d'approximer une fonction noyau, nous considérons ici la transformée de Fourier comme une distribution \\emph{a priori} sur un ensemble d'hypothèses trigonométriques. Cela suggère naturellement d'apprendre une distribution a posteriori sur cet ensemble d'hypothèses. Nous dérivons des bornes en généralisations qui sont optimisées en apprenant une distribution pseudo-posterior obtenue à partir d'une expression en forme close. À partir de cette études, nous proposons deux stratégies d'apprentissage basées sur des points d'intérêts : (i) la procédure en deux étapes proposée dans notre article précédent, où une représentation compacte des données est apprise, puis est utilisée pour apprendre un modèle linéaire, (ii) une nouvelle procédure, où l'on apprend en un seul temps la représentation et le modèle suivant une approche de type Boosting.Show less >
Show more >Cet article résume et étend notre travail récent publié à AISTATS 2019, dans lequel nous avons revisité la méthode des Random Fourier Features (RFF) de Rahimi et al. (2007) par le biais de la théorie PAC-Bayésienne. Bien que l'objectif principal des RFF soit d'approximer une fonction noyau, nous considérons ici la transformée de Fourier comme une distribution \\emph{a priori} sur un ensemble d'hypothèses trigonométriques. Cela suggère naturellement d'apprendre une distribution a posteriori sur cet ensemble d'hypothèses. Nous dérivons des bornes en généralisations qui sont optimisées en apprenant une distribution pseudo-posterior obtenue à partir d'une expression en forme close. À partir de cette études, nous proposons deux stratégies d'apprentissage basées sur des points d'intérêts : (i) la procédure en deux étapes proposée dans notre article précédent, où une représentation compacte des données est apprise, puis est utilisée pour apprendre un modèle linéaire, (ii) une nouvelle procédure, où l'on apprend en un seul temps la représentation et le modèle suivant une approche de type Boosting.Show less >
Language :
Français
Audience :
Nationale
Popular science :
Non
Administrative institution(s) :
CNRS
Université de Lille
Université de Lille
Submission date :
2020-06-08T14:10:29Z