Mon compte
Ma liste - 0
Catalogue
Ressources numériques
Nouveautés
Liens utiles
Mon compte
Recherche rapide
Recherche avancée
Recherche alphabétique
Historique
Information
Recherche
Auteur
Titre
Sujet
Titre de revue
Collection
Cotes BU
Cotes ENSEA
Cotes IUFM
Modifier la recherche
>
CERGY
Elargir la recherche
Parcourir le catalogue
par auteur:
Li , Xiaoyin , 1987-....
Doukhan , Paul , 1955-....
Bardet , Jean-Marc , 19..-....
Massart , Pascal , 1958-....
Fokianos , Konstantinos
Alquier , Pierre , 1980-....
Löcherbach , Eva , 1970-....
Lang , Gabriel
Université de Cergy-Pontoise , 1991-2019
École doctorale Économie, Management, Mathématiques, Physique et Sciences Informatiques , Cergy-Pontoise, Val d'Oise
Analyse, géométrie et modélisation , Cergy-Pontoise, Val d'Oise , 1993-....
Affichage MARC
Auteur :
Li , Xiaoyin , 1987-....
Titre :
L'apprentissage sous la dépendance pour l'agrégation des estimateurs et classifications, avec applications à ADN , Xiaoyin Li ; sous la direction de Paul Doukhan
Editeur :
2014
Notes :
Titre provenant de l'écran-titre
Ecole(s) Doctorale(s) : Ecole doctorale Économie, Management, Mathématiques et Physique (EM2P) (Cergy-Pontoise, Val d'Oise)
Partenaire(s) de recherche : Analyse, géométrie et modélisation (Cergy-Pontoise, Val d'Oise) (Laboratoire), Laboratoire d'Analyse, Géométrie et Modélisation (Laboratoire)
Autre(s) contribution(s) : Jean-Marc Bardet (Président du jury) ; Pierre Alquier, Eva Löcherbach, Gabriel Lang, Donatas Surgailis (Membre(s) du jury) ; Pascal Massart, Konstantinos Fokianos (Rapporteur(s))
Thèse de doctorat Mathématiques - EM2C Cergy-Pontoise 2014
Dans cette thèse, nous donnons une introduction systématique à la condition dépendance faible, introduit par Doukhan and Louhichi (1999) , qui est plus générale que les cadres classiques de mélange ou de séquences associées. La notion est suffisamment large pour inclure des modèles standards tels que les modèles stables de Markov , les modèles bilinéaires , et plus généralement , les schémas de Bernoulli. Dans certains cas, aucunes des propriétés de mélangeant ne peut s'attendre sans hypothèse de régularité supplémentaire sur la distribution innovations pour lesquelles une condition de dépendance faible peut être facile- ment dérivée. Nous étudions la relation entre dépendance faible et mélangeant pour les processus de valeurs discrètes. Nous montrons que la dépendance faible implique des conditions de mélangeant sous des hypothèses naturelles. Les ré- sultats se spécialisent au cas des processus Markovian. Plusieurs exemples de processus à valeur entier sont examinés et leurs propriétés de dépendance faibles sont étudiés à l'aide d'une contraction principale.Dans la deuxième partie, nous établissons des vitesses de convergences en apprentissage statistique pour les prédictions d'une série chronologique. En util- isant l'approche PAC- bayésienne, les vitesses lentes de convergence d/n pour l'estimateur de Gibbs sous la perte absolue ont été donnés dans un travail précé- dent Alquier and Wintenberger (2012), où n est la taille de l'échantillon et d la dimension de l'ensemble des prédicteurs. Sous les mêmes conditions de dépendance faible, nous étendons ce résultat à une fonction de perte Lipschitz convexe. Nous identifions également une condition sur l'espace des paramètres qui assure des vitesses similaires pour la procédure classique de l'ERM pé- nalisé. Nous appliquons cette méthode pour la prédiction quantile du PIB français. Dans des conditions supplémentaires sur les fonctions de perte ( satis- faites par la fonction de perte quadratique ) et pour les processus uniformément mélangeant, nous montrons que l'estimateur de Gibbs atteint effectivement les ivvitesses rapides de convergence d/n. Nous discutons de l' optimalité de ces dif- férentes vitesses à abaisser les limites en soulignant des références quand elles sont disponibles. En particulier, ces résultats apportent une généralisation des résultats de Dalalyan and Tsybakov (2008) sur l'estimation en régression sparse à certains auto-régression.
This thesis aims at a systematic introduction to a weak dependence condition, provided by Doukhan and Louhichi (1999), which is more general than the clas- sical frameworks of mixing or associated sequences. The notion is broad enough to include some standard models such as stable Markov models, bilinear models, and more generally, Bernoulli shifts. In some cases no mixing properties can be expected without additional regularity assumption on the distribution of the innovations distribution for which a weak dependence condition can be easily de- rived. We investigate the relationship between weak dependence and mixing for discrete valued processes. We show that weak dependence implies mixing con- ditions under natural assumptions. The results specialize to the case of Markov processes. Several examples of integer valued processes are discussed and their weak dependence properties are investigated by means of a contraction principle.In the second part, we establish rates of convergences in statistical learning for time series forecasting. Using the PAC-Bayesian approach, slow rates of con- vergence d/n for the Gibbs estimator under the absolute loss were given in a previous work Alquier and Wintenberger (2012), where n is the sample size and d the dimension of the set of predictors. Under the same weak dependence conditions, we extend this result to any convex Lipschitz loss function. We also identify a condition on the parameter space that ensures similar rates for the clas- sical penalized ERM procedure. We apply this method for quantile forecasting of the French GDP. Under additional conditions on the loss functions (satisfied by the quadratic loss function) and for uniformly mixing processes, we prove that the Gibbs estimator actually achieves fast rates of convergence d/n. We discuss the optimality of these different rates pointing out references to lower bounds when they are available. In particular, these results bring a generalization of the results of Dalalyan and Tsybakov (2008) on sparse regression estimation to some autoregression.
Configuration requise : un logiciel capable de lire un fichier au format : PDF
URL:
(Accès au texte intégral)
http://www.theses.fr/2014CERG0744/document
http://biblioweb.u-cergy.fr/theses/2014CERG0744.pdf
http://www.theses.fr/2014CERG0744/abes
https://tel.archives-ouvertes.fr/tel-01188750
Exemplaires
Pas de données exemplaires
Pour toute question,
contactez la bibliothèque
Horizon Information Portal 3.25_france_v1m© 2001-2019
SirsiDynix
Tous droits réservés.