Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
928 connectés 

  FORUM HardWare.fr
  Emploi & Etudes
  Aide aux devoirs

  Estimateur sans biais

 


 Mot :   Pseudo :  
 
Bas de page
Auteur Sujet :

Estimateur sans biais

n°3013850
paulnr
Posté le 06-11-2010 à 21:19:23  profilanswer
 

Salut tout le monde,
Je me pose une petite question concernant les estimateurs.
Je cherche à prouver que mon estimateur est sans biais,
Pour cela je calcul E(ô)             où ô est mon estimateur de o
 
Je trouve que E(ô)=ô ça prouve quelque chose ou faut t'il que je trouve E(ô)=o?
 
Merci

mood
Publicité
Posté le 06-11-2010 à 21:19:23  profilanswer
 

n°3013857
djidee
Posté le 06-11-2010 à 21:21:06  profilanswer
 

Pour moi c'est bon. Si tu as un écart, la distance à o (la moyenne par exemple), est la valeur du biais.


Message édité par djidee le 06-11-2010 à 21:21:52

---------------
"ty [djidee] en tout cas pour toutes tes réponses, je pensais que tu ne faisais que troller" (MP reçu le 17/06/2011)
n°3013865
dreamer18
CDLM
Posté le 06-11-2010 à 21:23:29  profilanswer
 

un estimateur est toujours sans biais de son espérance. Si l'espérance vaut ton paramètre, c'est bon.


Message édité par dreamer18 le 06-11-2010 à 21:37:02

---------------
"Parceque toi tu fracasses du migrant à la batte de baseball, c'est ça ?" - Backbone-
n°3014306
Gato66
Posté le 07-11-2010 à 08:59:32  profilanswer
 

Salut ,
 
peux-tu détailler ? (en particulier comment tu arrives à E(ô)=ô ?)

n°3014307
dreamer18
CDLM
Posté le 07-11-2010 à 09:10:14  profilanswer
 

C'est une erreur. Il a surement voulu écrire E(ô)=o


---------------
"Parceque toi tu fracasses du migrant à la batte de baseball, c'est ça ?" - Backbone-
n°3014310
Gato66
Posté le 07-11-2010 à 09:45:35  profilanswer
 

Vu sa dernière phrase on peut penser que non.

n°3014311
dreamer18
CDLM
Posté le 07-11-2010 à 09:47:10  profilanswer
 

oui mais sa dernière phrase n'a pas de sens :D


---------------
"Parceque toi tu fracasses du migrant à la batte de baseball, c'est ça ?" - Backbone-
n°3014340
paulnr
Posté le 07-11-2010 à 10:46:06  profilanswer
 

J'ai la fonction
f(x)=(1/(θc^(1/θ))x^((1/θ)-1) pour 0<x<c
f(x)=0 pour x<0 et x>c
 
Où c>0 est un paramètre connu
 
 
Je recherche ensuite la fonction de vraisemblance, dérivée partielle par rapport à θ, j'égalise à 0 et je test ce point critique par la dérivée partielle seconde, ce point donne une dérivée partielle seconde négative.  
Je pose Q =l'estimateur car je peut pas faire téta chapeau sur l'ordi :)
 
Je trouve Q=ln c -(1/n)Somme(ln xi)
 
(Maintenant que je me repenche dessus après une nuit de sommeil le résultat me parait "bizarre" )
 
Je cherche maintenant si cette estimation est sans biais, je fais donc E(Q) et je trouve Q et non pas θ.
En clair est-ce que E(Q)=Q à du sens?
 
Merci pour vos réponses

n°3014349
djidee
Posté le 07-11-2010 à 11:11:30  profilanswer
 

dreamer18 a écrit :

C'est une erreur. Il a surement voulu écrire E(ô)=o


 
Je pensais comme toi aussi  [:djidee:5]


---------------
"ty [djidee] en tout cas pour toutes tes réponses, je pensais que tu ne faisais que troller" (MP reçu le 17/06/2011)
n°3014371
Gato66
Posté le 07-11-2010 à 11:25:24  profilanswer
 

Mais dans ce cas il aurait voulu écrire :

 

Je trouve que E(ô)=o ça prouve quelque chose ou faut t'il que je trouve E(ô)=o?

 

(voir sa dernière question !)


Message édité par Gato66 le 07-11-2010 à 11:27:08
mood
Publicité
Posté le 07-11-2010 à 11:25:24  profilanswer
 

n°3014375
dj_shadow8​9
Posté le 07-11-2010 à 11:28:07  profilanswer
 

Dans mes souvenirs (maintenant on fait tout avec des logiciels :o) pour qu'un estimateur soit sans bien tu dois trouver E(A)=A ou bien E(A-estimateur)=0

n°3014377
dreamer18
CDLM
Posté le 07-11-2010 à 11:29:13  profilanswer
 

paulnr a écrit :

En clair est-ce que E(Q)=Q à du sens?

non. Une espérance est un nombre, pas une VA. (mes cours de maths sont loins, je peux dire des bêtises aussi)


---------------
"Parceque toi tu fracasses du migrant à la batte de baseball, c'est ça ?" - Backbone-
n°3014379
dreamer18
CDLM
Posté le 07-11-2010 à 11:29:50  profilanswer
 

Je ne comprends pas ta densité, tu peux la sortir en latex stp :D
 
j'ai compris, je regarde :)


Message édité par dreamer18 le 07-11-2010 à 11:33:03

---------------
"Parceque toi tu fracasses du migrant à la batte de baseball, c'est ça ?" - Backbone-
n°3014383
dj_shadow8​9
Posté le 07-11-2010 à 11:34:31  profilanswer
 

Mais y'a pas une règle qui dit que l'estimateur du minimum de vraisemblance est toujours sans biais et à variance minimale ? :o

n°3014386
djidee
Posté le 07-11-2010 à 11:37:37  profilanswer
 

dj_shadow89 a écrit :

Mais y'a pas une règle qui dit que l'estimateur du minimum de vraisemblance est toujours sans biais et à variance minimale ? :o


 
Viens pas foutre ta merde ici, je gère  [:djidee:2]  
 

Spoiler :

Ou pas :o


---------------
"ty [djidee] en tout cas pour toutes tes réponses, je pensais que tu ne faisais que troller" (MP reçu le 17/06/2011)
n°3014387
dreamer18
CDLM
Posté le 07-11-2010 à 11:37:51  profilanswer
 

non, des estimateurs de maximum de vraisemblance peuvent être biaisés (même s'ils sont souvent au moins asymptotiquement sans biais).
 
Un maximum de vraisemblance (max x_i) d'une loi uniforme sur [0; theta] estime theta mais lui est toujours inférieur, et il y a des estimateurs qui ont de meilleurs risques quadratiques que celui du maximum de vraisemblance :D


---------------
"Parceque toi tu fracasses du migrant à la batte de baseball, c'est ça ?" - Backbone-
n°3014400
dj_shadow8​9
Posté le 07-11-2010 à 11:42:48  profilanswer
 

djidee a écrit :


 
Viens pas foutre ta merde ici, je gère  [:djidee:2]  
 

Spoiler :

Ou pas :o



 
Apprends d'abord à faire un IC [:monsieur spock]
 
 

dreamer18 a écrit :

non, des estimateurs de maximum de vraisemblance peuvent être biaisés (même s'ils sont souvent au moins asymptotiquement sans biais).
 
Un maximum de vraisemblance (max x_i) d'une loi uniforme sur [0; theta] estime theta mais lui est toujours inférieur, et il y a des estimateurs qui ont de meilleurs risques quadratiques que celui du maximum de vraisemblance :D


 
 
 
My bad :)

n°3014407
dreamer18
CDLM
Posté le 07-11-2010 à 11:47:03  profilanswer
 

Tu trouves quoi comme fonction de vraisemblance ? En prenant une log vraisemblance pour simplifier (theta étant en puissance) après simplification j'obtiens  
 
Log[L(theta)] = -n * log(theta) -  (n/theta) * log(c) + (n * [(1/theta)-1] * [somme (i=1...n) log (x_i)])


---------------
"Parceque toi tu fracasses du migrant à la batte de baseball, c'est ça ?" - Backbone-
n°3014414
dj_shadow8​9
Posté le 07-11-2010 à 11:49:54  profilanswer
 

dreamer18 a écrit :

Tu trouves quoi comme fonction de vraisemblance ? En prenant une log vraisemblance pour simplifier (theta étant en puissance) après simplification j'obtiens  
 
Log[L(theta)] = -n * log(theta) -  (n/theta) * log(c) + (n * [(1/theta)-1] * [somme (i=1...n) log (x_i)])


 
 
 
Je viens de refaire le calcul en passant par une log vraisemblance aussi, sauf erreur de calcul et de mauvaise lecture de la densité, je trouve un estimateur de la forme  
 
 
A = somme (i...n)/n
 
donc une espérance... Right  ?

n°3014424
dreamer18
CDLM
Posté le 07-11-2010 à 11:56:48  profilanswer
 

Tu trouves quoi en log vraisemblance ?
 
Ma fonction de log vraisemblance est (en sortant n fois le 1/theta -1 de la somme des x_i):
 
Log(L(theta)) = -n * log(theta) - (n/theta)*log(c) + [(n/theta)-n]*(somme [i=1...n] log(x_i) )
 
sachant qu'en développant j'ai la partie constante (avec n) de ma somme de log(x_i) qui dégage.
 
Je me retrouve avec la dérivée :
 
Log(L(theta))' = - n/theta + ((n log(c)) / theta²) - (n/theta²) * somme (i=1...n) log (x_i)


---------------
"Parceque toi tu fracasses du migrant à la batte de baseball, c'est ça ?" - Backbone-
n°3014445
dj_shadow8​9
Posté le 07-11-2010 à 12:06:56  profilanswer
 

dreamer18 a écrit :

Tu trouves quoi en log vraisemblance ?
 
Ma fonction de log vraisemblance est (en sortant n fois le 1/theta -1 de la somme des x_i):
 
Log(L(theta)) = -n * log(theta) - (n/theta)*log(c) + [(n/theta)-n]*(somme [i=1...n] log(x_i) )
 
sachant qu'en développant j'ai la partie constante (avec n) de ma somme de log(x_i) qui dégage.
 
Je me retrouve avec la dérivée :
 
Log(L(theta))' = - n/theta + ((n log(c)) / theta²) - (n/theta²) * somme (i=1...n) log (x_i)


 
 
 
Oké, j'avais mal lu la densité ( assez loin les stats finalement :cry:)  
 
En reprenant et en simplifiant, j'ai cette dérivée  
 
n/théta ( -1 + (ln(c)-n*somme)/theta )
 
 
arrivé là, en cours on avait l'habitude d'étudier les limites

n°3014498
paulnr
Posté le 07-11-2010 à 12:46:49  profilanswer
 

dreamer18 a écrit :

Tu trouves quoi en log vraisemblance ?
 
Ma fonction de log vraisemblance est (en sortant n fois le 1/theta -1 de la somme des x_i):
 
Log(L(theta)) = -n * log(theta) - (n/theta)*log(c) + [(n/theta)-n]*(somme [i=1...n] log(x_i) )
 
sachant qu'en développant j'ai la partie constante (avec n) de ma somme de log(x_i) qui dégage.
 
Je me retrouve avec la dérivée :
 
Log(L(theta))' = - n/theta + ((n log(c)) / theta²) - (n/theta²) * somme (i=1...n) log (x_i)


 
mon log vraisemblance est:
-n ln θ- (n/θ) ln c + ((1/θ)-1)Somme (i=1...n) ln xi
 
et ma dérivée:
-n/θ+(n/θ²)ln c + (1/θ²)Somme (i=1...n)ln xi
 
En égalisant à 0 j'obtient:
(1/n)Somme(i=1...n) ln (c/xi)=θ
 
Ma dérivée seconde est alors:
(n/θ²)-(2n/θ^3)ln c +(2/θ^3)Somme (i=1...n) ln xi
en bidouillant je me retrouve avec
(n/θ²)+(2/θ^3)(Somme(i=1...n)ln c/xi)
 
Or Somme(i=1...n)ln c/xi = nθ
 
J'obtiens donc (n/θ²)+(2/θ^3)(nθ)
Ce qui donne -n/θ²
Ce qui est strictement négatif, donc concave et donc maximum de vraisemblance
 
On peut donc dire que Q=(1/n)Somme(i=1...n)ln c/xi
 
On est d'accord jusqu'à là?
 

n°3014538
dj_shadow8​9
Posté le 07-11-2010 à 13:09:35  profilanswer
 

paulnr a écrit :


 
mon log vraisemblance est:
-n ln θ- (n/θ) ln c + ((1/θ)-1)Somme (i=1...n) ln xi
 
et ma dérivée:
-n/θ+(n/θ²)ln c + (1/θ²)Somme (i=1...n)ln xi
 
En égalisant à 0 j'obtient:
(1/n)Somme(i=1...n) ln (c/xi)=θ
 
Ma dérivée seconde est alors:
(n/θ²)-(2n/θ^3)ln c +(2/θ^3)Somme (i=1...n) ln xi
en bidouillant je me retrouve avec
(n/θ²)+(2/θ^3)(Somme(i=1...n)ln c/xi)
 
Or Somme(i=1...n)ln c/xi = nθ
 
J'obtiens donc (n/θ²)+(2/θ^3)(nθ)
Ce qui donne -n/θ²
Ce qui est strictement négatif, donc concave et donc maximum de vraisemblance
 
On peut donc dire que Q=(1/n)Somme(i=1...n)ln c/xi
 
On est d'accord jusqu'à là?
 


 
 
 
 
 
 :jap:

n°3015259
traderx
Posté le 07-11-2010 à 18:03:21  profilanswer
 

paulnr a écrit :


 
mon log vraisemblance est:
-n ln θ- (n/θ) ln c + ((1/θ)-1)Somme (i=1...n) ln xi
 
et ma dérivée:
-n/θ+(n/θ²)ln c + (1/θ²)Somme (i=1...n)ln xi
 
En égalisant à 0 j'obtient:
(1/n)Somme(i=1...n) ln (c/xi)=θ
 
Ma dérivée seconde est alors:
(n/θ²)-(2n/θ^3)ln c +(2/θ^3)Somme (i=1...n) ln xi
en bidouillant je me retrouve avec
(n/θ²)+(2/θ^3)(Somme(i=1...n)ln c/xi)
 
Or Somme(i=1...n)ln c/xi = nθ
 
J'obtiens donc (n/θ²)+(2/θ^3)(nθ)
Ce qui donne -n/θ²
Ce qui est strictement négatif, donc concave et donc maximum de vraisemblance
 
On peut donc dire que Q=(1/n)Somme(i=1...n)ln c/xi
 
On est d'accord jusqu'à là?
 


pauln je vois de quel exo tu parles et je pense aussi que je sais aussi dans quelle fac tu es^^.
 
maintenant si tu veux démontrer que l'emv est san biais il faut déjà résoudre la question 5 de ton exo qui est de trouver la loi Y. sachant que Y=log(c/X), tu constatera que log(c/X) apparait dans ton estimateur. donc tu as E(Q)=(1/n)somme(i=1.....n)Yi ====> E(Q)=(1/n).n.E(Y). si tu avais pu déterminer la loi de Y comme je viens de dire tu aurrais surement vu que Y suis une loi exponentielle de paramètre téta donc E(Y)=téta, en simplifiant l'expréssion que je t'ai donner plus haut tu verras aussi que E(Q)=E(Y)=téta donc ton estimateur est sans biais. je te laisses faire de même pour la variance afin de prouver que ton estimateur est convergent et éfficace.  
j'espère t'avoir aider  
 
traderX

n°3015563
dreamer18
CDLM
Posté le 07-11-2010 à 21:36:51  profilanswer
 

bien vu, mes cours de maths sont très loins, j'ai fait la faute de calcul :D sinon ton estimateur de vraisemblance est le bon. Tu n'as plus qu'à calculer son espérance en calculant la Loi décrite plus haut par ton camarade de promo :)


---------------
"Parceque toi tu fracasses du migrant à la batte de baseball, c'est ça ?" - Backbone-
mood
Publicité
Posté le   profilanswer
 


Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Emploi & Etudes
  Aide aux devoirs

  Estimateur sans biais

 

Sujets relatifs
Plus de sujets relatifs à : Estimateur sans biais


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR