Méthodes adaptatives pour l’optimisation ...
Type de document :
Thèse
URL permanente :
Titre :
Méthodes adaptatives pour l’optimisation dans un environnement stochastique
Titre en anglais :
Adaptive methods for optimisation in stochastic environments
Auteur(s) :
Shang, Xuedong [Auteur]
Inria Lille - Nord Europe
Centre de Recherche en Informatique, Signal et Automatique de Lille - UMR 9189 [CRIStAL]
Université de Lille
Sequential Learning [SEQUEL]
Scool [Scool]
Inria Lille - Nord Europe
Centre de Recherche en Informatique, Signal et Automatique de Lille - UMR 9189 [CRIStAL]
Université de Lille
Sequential Learning [SEQUEL]
Scool [Scool]
Directeur(s) de thèse :
Michal Valko
Emilie Kaufmann
Emilie Kaufmann
Date de soutenance :
2021-09-29
Organisme de délivrance :
Universite de Lille
Mot(s)-clé(s) :
Bandits Multi-Bras
Identification du meilleur bras
Apprentissage statistique
Optimisation globale
Optimisation des hyper-paramèters
Identification du meilleur bras
Apprentissage statistique
Optimisation globale
Optimisation des hyper-paramèters
Mot(s)-clé(s) en anglais :
Multi-armed Bandit
Global optimisation
Machine learning
Best-arm identification
Hyperparameter Optimization
Global optimisation
Machine learning
Best-arm identification
Hyperparameter Optimization
Discipline(s) HAL :
Informatique [cs]/Apprentissage [cs.LG]
Résumé :
Dans cette thèse, nous étudions le problème d’optimisation séquentielle dans des environnements stochastiques. A chaque instant, nous pouvons interroger un point de l’environnement, et recevoir une récompense bruitée. Nous ...
Lire la suite >Dans cette thèse, nous étudions le problème d’optimisation séquentielle dans des environnements stochastiques. A chaque instant, nous pouvons interroger un point de l’environnement, et recevoir une récompense bruitée. Nous nous concentrons d’abord sur le cas où l’environnement est représenté par un nombre fini de points, et ensuite sur le cas plus général où l’environnement est composé d’un nombre infini dénombrable de points, voire continu. Dans les deux cas, le coût d’une requête pouvant être élevée, nous envisageons ainsi à repérer au plus vite le point (quasi)-optimal. Cette étude est motivée par de nombreux scénarios réels comme, entre autres, les essais cliniques, les tests A/B, ou l’optimisation des placements publicitaires. Ainsi pour terminer, nous nous intéressons en particulier à l’une de ces applications plus importantes pour la communauté d’apprentissage statistique, c’est-à-dire l’optimisation des hyper-paramètres.Lire moins >
Lire la suite >Dans cette thèse, nous étudions le problème d’optimisation séquentielle dans des environnements stochastiques. A chaque instant, nous pouvons interroger un point de l’environnement, et recevoir une récompense bruitée. Nous nous concentrons d’abord sur le cas où l’environnement est représenté par un nombre fini de points, et ensuite sur le cas plus général où l’environnement est composé d’un nombre infini dénombrable de points, voire continu. Dans les deux cas, le coût d’une requête pouvant être élevée, nous envisageons ainsi à repérer au plus vite le point (quasi)-optimal. Cette étude est motivée par de nombreux scénarios réels comme, entre autres, les essais cliniques, les tests A/B, ou l’optimisation des placements publicitaires. Ainsi pour terminer, nous nous intéressons en particulier à l’une de ces applications plus importantes pour la communauté d’apprentissage statistique, c’est-à-dire l’optimisation des hyper-paramètres.Lire moins >
Résumé en anglais : [en]
In this thesis, we study the problem of sequential optimization under stochastic environments. At each round, we can query a data point from the environment, and receive a noisy reward. We first focus on the case where the ...
Lire la suite >In this thesis, we study the problem of sequential optimization under stochastic environments. At each round, we can query a data point from the environment, and receive a noisy reward. We first focus on the case where the environment is abstracted as a finite search space, then we investigate also on a more general setting where the environment is composed of an infinite number of points or even continuous. In both cases, the cost of a single query would be high, and we thus aim at identify the (near)-optimum as efficiently as possible. The whole study is motivated by numerous real scenarios including, but not limited to, clinical trial, A/B testing, advertisement placement optimization. We therefore conclude by some particular focus on one of its most important contributions for the machine learning community, i.e. hyper-parameter optimization.Lire moins >
Lire la suite >In this thesis, we study the problem of sequential optimization under stochastic environments. At each round, we can query a data point from the environment, and receive a noisy reward. We first focus on the case where the environment is abstracted as a finite search space, then we investigate also on a more general setting where the environment is composed of an infinite number of points or even continuous. In both cases, the cost of a single query would be high, and we thus aim at identify the (near)-optimum as efficiently as possible. The whole study is motivated by numerous real scenarios including, but not limited to, clinical trial, A/B testing, advertisement placement optimization. We therefore conclude by some particular focus on one of its most important contributions for the machine learning community, i.e. hyper-parameter optimization.Lire moins >
Langue :
Anglais
Collections :
Source :
Date de dépôt :
2021-12-08T02:00:41Z
Fichiers
- https://tel.archives-ouvertes.fr/tel-03466525v2/document
- Accès libre
- Accéder au document