class
test promotional banner En Savoir plus

Apprentissage non-supervise dans les modeles lineaires gaussiens - application a la biometrie dynami

Nemesin Valerian (Auteur)
Note moyenne:

Résumé

Dans cet ouvrage, nous nous sommes intéressés au filtre de Kalman couple. Celui-ci intègre, par rapport au modèle original, de nouvelles possibilités d'interactions entre états cachés et observations, tout en conservant des algorithmes exacts et rapides dans le cas linéaire et gaussien. Nous étudions plus particulièrement le problème de l'estimation non supervisée et robuste des paramètres d'un filtre de Kalman couple à partir d'observations en nombre limité. Le manuscrit décrit ainsi plusieurs algorithmes d'apprentissage par estimation du maximum de vraisemblance selon le principe EM (Expectation-Maximization). ... Lire la suite
917,00 DH
En stock
Livrable dans 2 à 3 jours

Caractéristiques

Caractéristiques
Date Parution 01/09/2018
EAN 9783841622938
Nb. de Pages 152
Editeur Presses Academiques Francophones
Caractéristiques
Poids 234 g
Présentation Poche
Dimensions 22,0 cm x 15,0 cm
Détail

Dans cet ouvrage, nous nous sommes intéressés au filtre de Kalman couple. Celui-ci intègre, par rapport au modèle original, de nouvelles possibilités d'interactions entre états cachés et observations, tout en conservant des algorithmes exacts et rapides dans le cas linéaire et gaussien. Nous étudions plus particulièrement le problème de l'estimation non supervisée et robuste des paramètres d'un filtre de Kalman couple à partir d'observations en nombre limité. Le manuscrit décrit ainsi plusieurs algorithmes d'apprentissage par estimation du maximum de vraisemblance selon le principe EM (Expectation-Maximization). Ces algorithmes originaux permettent d'intégrer des contraintes a priori sur les paramètres du système étudié, comme expressions de connaissances partielles sur la physique de l'application ou sur le capteur. Ces systèmes contraints réduisent l'ambiguïté liée au problème d'identifiabilité du filtre de Kalman couple lors de l'estimation des paramètres. Ils permettent également de limiter le nombre de maxima locaux de la fonction de vraisemblance en réduisant la dimension de l'espace de recherche, et permettent d'éviter parfois le piégeage de l'algorithme EM.
Avis libraires et clients

Note moyenne
0 notes
Donner une note