Théorème de Masreliez

Le théorème de Masreliez est un algorithme récursif largement utilisé dans la technologie pour l'estimation robuste et le filtre de Kalman étendu[1], nommé d'après son auteur, le physicien suédo-américain, C. Johan Masreliez.

Contexte

En statistique inférentielle, un estimateur est une valeur calculée sur un échantillon et que l'on espère être une bonne évaluation de la valeur que l'on aurait calculée sur la population totale. On cherche à ce qu'un estimateur soit sans biais, convergent, efficace et robuste, ici avec statistique robuste les estimateurs qui ne sont pas trop affectés par des départs petites à partir des hypothèses du modèle. La thèse de doctorat Masreliez en 1972 traités « estimation robuste » et il est venu avec un estimateur pour une sorte de moyenne robuste[2]. L'estimateur est toujours justifiant un variance maximal pour les distributions de probabilité symétrique, ayant un pourcentage connu de probabilité dans chaque «queue», indépendante de la façon dont la loi de probabilité ressemblait autrement. Puis il a développé ce résultat ainsi la construction[pas clair] de son filtre RII récursif de type Kalman robuste (1975) comme « une approximation de non-filtrage gaussien[incompréhensible] avec l'équation d'état linéaire et l'équation d'observation aussi linéaire[3] ».

Applications

Le théorème de Masreliez a depuis lors reçu plusieurs utilisations[4], par exemple pour estimer la précision moyenne conditionnelle dans les situations d'observation non-gaussien[5]. Le théorème est utilisé également dans une large gamme de domaines technologiques (radar, vision électronique, communication ...). C'est un thème majeur de l'automatique et du traitement du signal. Un exemple d'utilisation peut être la mise à disposition, en continu, d'informations telles que la position ou la vitesse d'un objet à partir d'une série d'observations relative à sa position, incluant éventuellement des erreurs de mesures. Une donnée aberrante est une observation qui se trouve « loin » des autres observations. La présence d’une donnée aberrante peut signifier par exemple un cas qui ne fait pas partie de la population que l’on étudie, ou bien une erreur de saisie ou de mesure. Certaines données aberrantes peuvent être aisément identifiées avec un théorème de Masreliez modifié[6]. D'autres sont :

Le calcul

Le théorème de Masreliez est un estimateur récursif. Cela signifie que pour estimer l'état courant, seules l'estimation de l'état précédent et les mesures actuelles sont nécessaires. L'historique des observations et des estimations n'est ainsi pas requis.

Les objets du calcul mathématique sont l’estimation (en. score function) du gradient du logarithme de la fonction de vraisemblance [8] :

une fonction de (le paramètre à évaluer) e (l'observation).

Pour commencer, l'état du théorème de Masreliez est représenté par deux variables :

  • , l'estimation de l'état à l'instant k ;
  • , La matrice de covariance de l'erreur (une mesure de la précision de l'état estimé).

Le théorème a deux phases distinctes : Prédiction et Mise à jour. La phase de prédiction utilise l'état estimé de l'instant précédent pour produire une estimation de l'état courant. Dans l'étape de mise à jour, les observations de l'instant courant sont utilisées pour corriger l'état prédit dans le but d'obtenir une estimation plus précise. Les modèles d'évolution et d'observation n'ont pas besoin d'être des fonctions linéaires de l'état mais peuvent à la place être des fonctions (différentiables).

La fonction f peut être utilisée pour calculer l'état prédit à partir de l'état estimé précédent et, semblablement, la fonction h peut être employée pour calculer l'observation prédite de l'état prédit. Cependant, f et h ne peuvent pas être appliqués directement au calcul de la covariance : une matrice des dérivées partielles, la Jacobienne, est calculée.

À chaque instant, la Jacobienne est évaluée avec les états estimés courants. Ces matrices peuvent être employées dans les équations du théorème. Ce processus linéarise essentiellement la fonction non linéaire autour de l'estimation courante. Ceci donne les équations:

Prédiction

(état prédit)
(estimation prédite de la covariance)

avec

  •  : matrice qui relie l'état précédent à l'état actuel
  •  : entrée de commande
  •  : matrice d'estimation a priori de la covariance de l'erreur
  •  : matrice de covariance du bruit de process

Mise à jour

(innovation)
(covariance de l'innovation)
(gain de Kalman optimal)
(état mis à jour)
(covariance mise à jour)

avec

  •  : observation ou mesure du process à l'instant k
  •  : matrice qui relie l'état à la mesure
  •  : matrice d'estimation a posteriori de la covariance de l'erreur
  •  : matrice de covariance du bruit de mesure
  •  : matrice identité aux dimensions adéquates

où les matrices de transition et d'observation sont définies comme étant les Jacobiennes suivantes :

.

La convergence de ce théorème n'est aucunement assurée, car il s'agit d'une convergence locale.

Notes et références

  1. (en) T. Cipra et A. Rubio, « Kalman filter with a non-linear non-Gaussian observation relation », Trabajos de Estadística, vol. 6, no 2, 1991, p. 111-119, DOI:10.1007/BF02873526.
  2. (en) C. J. Masreliez, Robust recursive estimation and filtering, Ph.D. dissertation, University of Washington, Seattle, 1972.
  3. (en) C. J. Masreliez, « Approximate non-Gaussian filtering with linear state and observation relations », IEEE Trans. Auto. Control, vol. 20, 1975, p. 107-110.
  4. Academic search, >150 citationes relevantes.
  5. Mehmet Ertu rul Çelebi et Ludwik Kurz, « Robust locally optimal filters: Kalman and Bayesian estimation theory », Information Sciences, vol 92, no 1-4, July 1996, p. 1-32.
  6. Jo-anne Ting, Evangelos Theodorou et Stefan Schaal, « A Kalman filter for robust outlier detection », in International Conference on Intelligent Robots and Systems - IROS, 2007, p. 1514-1519.
  7. Henri Pesonen; Robust estimation techniques for GNSS positioning, NAV07-The Navigation Conference and Exhibition (2007), London.
  8. (en) Bernhard Spangl et al., Approximate Conditional-mean Type Filtering for State-space Models, Universität für Bodenkultur, Wien, 2008.

Voir aussi

Articles connexes

Bibliographie

  • (en) Ricardo A. Maronna, R. Douglas Martin et Victor J. Yohai, Robust Statistics - Theory and Methods, Wiley, 2006 (ISBN 978-0-470-01092-1) (pages 273-4, 289)
  • (en) D. R. Cox et D. V. Hinkley, Theoretical Statistics, Chapman & Hall, 1974 (ISBN 0-412-12420-3)
  • (en) Mark J. Schervish, Theory of Statistics, New York, Springer, 1995 (ISBN 0-387-94546-6), Section 2.3.1 (score functions)

Liens externes

  • Portail de la physique
  • Portail des probabilités et de la statistique
Cet article est issu de Wikipedia. Le texte est sous licence Creative Commons - Attribution - Sharealike. Des conditions supplémentaires peuvent s'appliquer aux fichiers multimédias.