Exponential weighted aggregation : oracle inequalities and algorithms

Dans plusieurs domaines des statistiques, y compris le traitement du signal et des images, l'estimation en grande dimension est une tâche importante pour recouvrer un objet d'intérêt. Toutefois, dans la grande majorité de situations, ce problème est mal-posé. Cependant, bien que la dimensi...

Full description

Bibliographic Details
Main Author: Luu, Duy tung
Other Authors: Normandie
Language:en
Published: 2017
Subjects:
Online Access:http://www.theses.fr/2017NORMC234/document
id ndltd-theses.fr-2017NORMC234
record_format oai_dc
collection NDLTD
language en
sources NDLTD
topic Estimation en grande dimension
A priori de faible complexité
Agrégation à poids exponentiels
Estimation pénalisée
Inégalité d'oracle
Diffusion de Langevin
Algorithme explicite-implicite
Consistence
High-dimensional estimation
Low-complexity prior
Exponential weighted aggregation
Penalized estimation
Oracle inequality
Langevin diffusion
Forward-backward algorithm
Consistency

spellingShingle Estimation en grande dimension
A priori de faible complexité
Agrégation à poids exponentiels
Estimation pénalisée
Inégalité d'oracle
Diffusion de Langevin
Algorithme explicite-implicite
Consistence
High-dimensional estimation
Low-complexity prior
Exponential weighted aggregation
Penalized estimation
Oracle inequality
Langevin diffusion
Forward-backward algorithm
Consistency

Luu, Duy tung
Exponential weighted aggregation : oracle inequalities and algorithms
description Dans plusieurs domaines des statistiques, y compris le traitement du signal et des images, l'estimation en grande dimension est une tâche importante pour recouvrer un objet d'intérêt. Toutefois, dans la grande majorité de situations, ce problème est mal-posé. Cependant, bien que la dimension ambiante de l'objet à restaurer (signal, image, vidéo) est très grande, sa ``complexité'' intrinsèque est généralement petite. La prise en compte de cette information a priori peut se faire au travers de deux approches: (i) la pénalisation (très populaire) et (ii) l'agrégation à poids exponentiels (EWA). L'approche penalisée vise à chercher un estimateur qui minimise une attache aux données pénalisée par un terme promouvant des objets de faible complexité (simples). L'EWA combine une famille des pré-estimateurs, chacun associé à un poids favorisant exponentiellement des pré-estimateurs, lesquels privilègent les mêmes objets de faible complexité.Ce manuscrit se divise en deux grandes parties: une partie théorique et une partie algorithmique. Dans la partie théorique, on propose l'EWA avec une nouvelle famille d'a priori favorisant les signaux parcimonieux à l'analyse par group dont la performance est garantie par des inégalités oracle. Ensuite, on analysera l'estimateur pénalisé et EWA, avec des a prioris généraux favorisant des objets simples, dans un cardre unifié pour établir des garanties théoriques. Deux types de garanties seront montrés: (i) inégalités oracle en prédiction, et (ii) bornes en estimation. On les déclinera ensuite pour des cas particuliers dont certains ont été étudiés dans littérature. Quant à la partie algorithmique, on y proposera une implémentation de ces estimateurs en alliant simulation Monte-Carlo (processus de diffusion de Langevin) et algorithmes d'éclatement proximaux, et montrera leurs garanties de convergence. Plusieurs expériences numériques seront décrites pour illustrer nos garanties théoriques et nos algorithmes. === In many areas of statistics, including signal and image processing, high-dimensional estimation is an important task to recover an object of interest. However, in the overwhelming majority of cases, the recovery problem is ill-posed. Fortunately, even if the ambient dimension of the object to be restored (signal, image, video) is very large, its intrinsic ``complexity'' is generally small. The introduction of this prior information can be done through two approaches: (i) penalization (very popular) and (ii) aggregation by exponential weighting (EWA). The penalized approach aims at finding an estimator that minimizes a data loss function penalized by a term promoting objects of low (simple) complexity. The EWA combines a family of pre-estimators, each associated with a weight exponentially promoting the same objects of low complexity.This manuscript consists of two parts: a theoretical part and an algorithmic part. In the theoretical part, we first propose the EWA with a new family of priors promoting analysis-group sparse signals whose performance is guaranteed by oracle inequalities. Next, we will analysis the penalized estimator and EWA, with a general prior promoting simple objects, in a unified framework for establishing some theoretical guarantees. Two types of guarantees will be established: (i) prediction oracle inequalities, and (ii) estimation bounds. We will exemplify them for particular cases some of which studied in the literature. In the algorithmic part, we will propose an implementation of these estimators by combining Monte-Carlo simulation (Langevin diffusion process) and proximal splitting algorithms, and show their guarantees of convergence. Several numerical experiments will be considered for illustrating our theoretical guarantees and our algorithms.
author2 Normandie
author_facet Normandie
Luu, Duy tung
author Luu, Duy tung
author_sort Luu, Duy tung
title Exponential weighted aggregation : oracle inequalities and algorithms
title_short Exponential weighted aggregation : oracle inequalities and algorithms
title_full Exponential weighted aggregation : oracle inequalities and algorithms
title_fullStr Exponential weighted aggregation : oracle inequalities and algorithms
title_full_unstemmed Exponential weighted aggregation : oracle inequalities and algorithms
title_sort exponential weighted aggregation : oracle inequalities and algorithms
publishDate 2017
url http://www.theses.fr/2017NORMC234/document
work_keys_str_mv AT luuduytung exponentialweightedaggregationoracleinequalitiesandalgorithms
AT luuduytung agregationapoidsexponentielsinegalitesoraclesetalgorithmes
_version_ 1718710802820628480
spelling ndltd-theses.fr-2017NORMC2342018-07-09T19:07:37Z Exponential weighted aggregation : oracle inequalities and algorithms Agrégation à poids exponentiels : inégalités oracles et algorithmes Estimation en grande dimension A priori de faible complexité Agrégation à poids exponentiels Estimation pénalisée Inégalité d'oracle Diffusion de Langevin Algorithme explicite-implicite Consistence High-dimensional estimation Low-complexity prior Exponential weighted aggregation Penalized estimation Oracle inequality Langevin diffusion Forward-backward algorithm Consistency Dans plusieurs domaines des statistiques, y compris le traitement du signal et des images, l'estimation en grande dimension est une tâche importante pour recouvrer un objet d'intérêt. Toutefois, dans la grande majorité de situations, ce problème est mal-posé. Cependant, bien que la dimension ambiante de l'objet à restaurer (signal, image, vidéo) est très grande, sa ``complexité'' intrinsèque est généralement petite. La prise en compte de cette information a priori peut se faire au travers de deux approches: (i) la pénalisation (très populaire) et (ii) l'agrégation à poids exponentiels (EWA). L'approche penalisée vise à chercher un estimateur qui minimise une attache aux données pénalisée par un terme promouvant des objets de faible complexité (simples). L'EWA combine une famille des pré-estimateurs, chacun associé à un poids favorisant exponentiellement des pré-estimateurs, lesquels privilègent les mêmes objets de faible complexité.Ce manuscrit se divise en deux grandes parties: une partie théorique et une partie algorithmique. Dans la partie théorique, on propose l'EWA avec une nouvelle famille d'a priori favorisant les signaux parcimonieux à l'analyse par group dont la performance est garantie par des inégalités oracle. Ensuite, on analysera l'estimateur pénalisé et EWA, avec des a prioris généraux favorisant des objets simples, dans un cardre unifié pour établir des garanties théoriques. Deux types de garanties seront montrés: (i) inégalités oracle en prédiction, et (ii) bornes en estimation. On les déclinera ensuite pour des cas particuliers dont certains ont été étudiés dans littérature. Quant à la partie algorithmique, on y proposera une implémentation de ces estimateurs en alliant simulation Monte-Carlo (processus de diffusion de Langevin) et algorithmes d'éclatement proximaux, et montrera leurs garanties de convergence. Plusieurs expériences numériques seront décrites pour illustrer nos garanties théoriques et nos algorithmes. In many areas of statistics, including signal and image processing, high-dimensional estimation is an important task to recover an object of interest. However, in the overwhelming majority of cases, the recovery problem is ill-posed. Fortunately, even if the ambient dimension of the object to be restored (signal, image, video) is very large, its intrinsic ``complexity'' is generally small. The introduction of this prior information can be done through two approaches: (i) penalization (very popular) and (ii) aggregation by exponential weighting (EWA). The penalized approach aims at finding an estimator that minimizes a data loss function penalized by a term promoting objects of low (simple) complexity. The EWA combines a family of pre-estimators, each associated with a weight exponentially promoting the same objects of low complexity.This manuscript consists of two parts: a theoretical part and an algorithmic part. In the theoretical part, we first propose the EWA with a new family of priors promoting analysis-group sparse signals whose performance is guaranteed by oracle inequalities. Next, we will analysis the penalized estimator and EWA, with a general prior promoting simple objects, in a unified framework for establishing some theoretical guarantees. Two types of guarantees will be established: (i) prediction oracle inequalities, and (ii) estimation bounds. We will exemplify them for particular cases some of which studied in the literature. In the algorithmic part, we will propose an implementation of these estimators by combining Monte-Carlo simulation (Langevin diffusion process) and proximal splitting algorithms, and show their guarantees of convergence. Several numerical experiments will be considered for illustrating our theoretical guarantees and our algorithms. Electronic Thesis or Dissertation Text en http://www.theses.fr/2017NORMC234/document Luu, Duy tung 2017-11-23 Normandie Fadili, Jalal Chesneau, Christophe