PROPRIÉTÉS D’UN ESTIMATEUR
Propriétés d’un estimateur
Précisons qu’un
estimateur dépendant des (Xi )16i6n , il dépend en particulier
de la taille n
de l’échantillon. On ne s’étonnera donc pas que la suite d’estimateurs
(θb)n soit souvent identifiée à l’estimateur
lui-même. . .
Convergence
d’un estimateur
La première bonne propriété
que l’on peut attendre d’un estimateur est qu’il s’approche de la vraie
valeur de θ quand la taille
n de l’échantillon
tend vers +∞.
Définition :
Un estimateur θ b d’un paramètre θ est dit convergent s’il converge en probabilité
vers
θ quand la taille
de l’échantillon tend vers +∞.
Il est peut-être nécessaire de rappeler ici la définition de la convergence
en probabilité :
Définition
:
Une suite (Zn ) de v.a. converge en probabilité
vers une v.a. Z si
∀ε > 0, ∃N, ∀n > N, P(|Zn − Z|
> ε) 6 ε.
Un outil souvent
efficace pour
montrer la convergence en probabilité
est
l’inégalité
de
Bienaymé-Tchebychev :
Proposition :
Soit X une v.a. admettant un moment d’ordre
2. Alors

∀ε > 0, P(|X −
EX| > ε) 6 Var X/
ε2
Le corollaire suivant est quelque
peu anticipé, mais
comme il s’agit d’un chapitre
de rap- pels :
Corollaire 0.3.4 :
Un estimateur sans biais dont la variance tend vers zéro est convergent.
Biais d’un
estimateur
Le bon sens impose également que l’estimateur ne soit, à n fixé, pas trop
loin de la vraie valeur.
On
peut par exemple
s’attendre à ce que
l’estimateur
ait
sa loi centrée sur le paramètre inconnu.
Définition
:
On dit qu’un
estimateur θb d’un paramètre θ
est un estimateur sans biais
de θ (ou qu’il est non biaisé)
si :
Eθb =
θ.
De façon plus générale, on définit le biais d’un estimateur :
Définition :
On appelle biais d’un estimateur θb du paramètre θ
la quantité :
B(θb) := Eθb − θ.
Il est rassurant de voir qu’un
estimateur sans biais a un biais nul. . .
Signalons enfin qu’un estimateur est dit asymptotiquement sans biais si son biais tend vers
0 lorsque la taille
de l’échantillon tend vers +∞.
Dispersion
d’un estimateur
Il est enfin nécessaire d’évaluer la précision de l’estimateur,
c’est-à-dire,
dans
l’idéal, la quantité |θb − θ| pour chaque estimation θb. On préfère
agir sur l’estimateur θb, qui étant
une variable aléatoire, amène à regarder une quantité de
la forme E|θb − θ|. Travailler avec des valeurs absolues
n’étant pas très pratique,
on préfère
généralement utiliser une autre
distance
(tout
comme on travaille
généralement avec la distance euclidienne dans le plan)
et considérer la quantité E|θb − θ|^2 . Développant le carré, on observe que
:
(θb − θ)^2 =
(θb − Eθb)^2 + (Eθb − θ)
= (θb − Eθb)^2
+ (Eθb − θ)^2
+ 2(θb − Eθb)(Eθb − θ)
Prenant l’espérance de ces quantités, il
vient (quels sont les termes aléatoires ?) :
E(θb − θ)^2
= E(θb − Eθb)^2
+ (Eθb − θ)^2
+ 2(Eθb − Eθb)(Eθb − θ) = Var θb + (B(θ))^2 + 0
Ce qui conduit à la définition :
Définition
:
Soit θb un
estimateur de θ. On appelle écart
quadratique moyen
de θb ou
risque qua- dratique la quantité :
EQM (θb) := E(θb − θ)^2
= Var θb + (B(θ))2 .
Remarquons que l’écart
quadratique moyen d’un estimateur sans biais n’est rien d’autre que
sa variance.
Remarque :
Entre deux
estimateurs d’un paramètre θ, on choisit celui dont l’écart quadratique est le plus faible.
0.4. EXEMPLES
Définition :
Un estimateur θb1 est dit relativement plus efficace qu’un estimateur θb2 si
EQM (θb1) 6 EQM (θb2 ).
Passons à présent aux exemples
classiques.
Exemples
Dans toute
cette
partie,
on se placera
dans
le cas de n-échantillons aléatoires simples : (Xi )16i6n est une suite de copies indépendantes de X. (On
supposera le cas échéant que X admet
un moment d’ordre
suffisant pour les démonstrations.)
Tags: SONDAGE


Inscription à :
Publier les commentaires (Atom)
Share your views...
0 Respones to "PROPRIÉTÉS D’UN ESTIMATEUR "
Enregistrer un commentaire