Je vais essayer de répondre point par point mais d'abord je vais faire quelques mises au point (les definitions ou ce qui s'y rapporte seront en bleu) car je pense que tu parles de la fonction d'autocorellation. En tout cas à ma connaissance c'est elle que l'on nomme "petit gamma".
A la base de tout ca il y a les fonctions de covariance et d'intercovariance et les proprietes de stationnarité.
Je vais noter g "petit gamma" et G "grand gamma".
Soient un processus X, E l'esperence mathematique et n1, n2 deux instant differents, la fonction de covariance se definit par:
Gx(n1,n2) = cov(Xn1, Xn2) = E[X(n1,w)X(n2,w)*] - E[X(n1,w)]E[X(n2,w)]*
La fonction de covariance est un indicateur de la ressemblance entre des valeurs du processus X a deux instants differents (n1 et n2 ici).
Soient deux processus X et Y, E l'esperence mathematique et n1, n2 deux instant differents, la fonction de d'intercovariance se definit par:
Gx,y(n1,n2) = cov(Xn1,Yn2) = E[X(n1,w)Y(n2,w)*] - E[X(n1,w)]E[Y(n2,w)]*
La fonction de covariance est un indicateur de la ressemblance entre des valeurs des processus X et Y a deux instants differents (n1 et n2 ici).
En particulier on a pour des processus reels que l'on compare aux memes instants:
cov(X,Y) = E[(X - mx)(Y - my)] = E[XY] - mxmy = E[XY] - E[X]E[Y]
Concernant la stationnarité, il y a plusieurs definitions dependant de de l'ordre, ici c'est la stationnarité du second ordre qui nous interesse et qui se definit par:
Gx(n1,n2) = Gx(n1+k,n2+k) quelquesoit k
On comprend donc que le processus est stationnaire à l'ordre 2 si sa fonction de covariance ne depend pas des instants n1 et n2 mais uniquement du decalage entre n1 et n2 (il suffit de prendre k = -n1 pour s'en convaincre). Pour mettre en evidence la stationnarite à l'ordre 2 on va donc chercher à écrire la covariance en fonction de ce decalage entre les instant, en notant p ce décalage on a donc une nouvelle expression pour la covariance:
Gx(n,n-p)
X sera donc un processus stationnaire d'ordre 2 si Gx(n,n-p) = f(p), ie Gx(n,n-p) depend uniquement de p (donc depend uniquement du decalage).
On en arrive enfin à la définition de la fonction d'autocorrelation "petit gamma":
Si X est stationnaire à l'ordre 2 alors Gx(n,n-p) ne depend que de p et on note gx(p) la fonction d'autocorrelation du processus X telle que:
gx(p) = Gx(n,n-p)
De meme on dit que X et Y sont mutuellement stationnaires si Gx,y(n,n-p) ne depend que de p et si c'est le cas on note alors leur fonction d'intercorrelation:
gx,y(p) = Gx,y(n,n-p)
Voila donc pour les bases. Passons a tes questions. Mais je pense qu'une bonne partie de ta confusion viens du fait que tu melanges les fonctions G (grand gamma) et g (petit gamma)
Que vaut g[X+Y] ? Est-ce g[X]+g[Y]+2*g[X,Y] ?
Deja, il faut partir des formules de covariance de d'intercovariance G avant de parler d'autocorrelation g.
Je rappelle que l'esperance mathematique verifie des proprietes de linearite:
E[aX + bY] = aE[X] + bE[Y]
On commence donc par
Gx+y(n1,n2) = E[(Xn1+Yn1)(Xn2+Yn2)*] - E[Xn1+Yn1]E[Xn2+Yn2]*
Gx+y(n1,n2) = E[Xn1Xn2* + Yn1Yn2* + Xn1Yn2* + Yn1Xn2*] - (E[Xn1] + E[Yn1])(E[Xn2]* + E[Yn2]*)
Gx+y(n1,n2) = E[Xn1Xn2*] - E[Xn1]E[Xn2]* + E[Xn1Yn2*] - E[Xn1]E[Yn2]* + E[Yn1Xn2*] - E[Yn1]E[Xn2]* + E[Yn1Yn2*] - E[Yn1]E[Yn2]*
Gx+y(n1,n2) = Gx(n1,n2) + Gx,y(n1,n2) + Gy,x(n1,n2) + Gy(n1,n2)
Ou autrement
Gx+y(n,n-p) = Gx(n,n-p) + Gx,y(n,n-p) + Gy,x(n,n-p) + Gy(n,n-p)
Donc si X et Y sont stationnaires ET mutuellement stationnaires on peut ecrire
gx+y(p) = gx(p) + gx,y(p) + gy,x(p) + gy(p)
et en particulier si X et Y sont decorreles et que donc gx,y(p) = gy,x(p) = 0 on a gx+y(p) = gx(p) + gy(p)
Donc pour moi ta formule g[X+Y] = g[X]+g[Y]+2*g[X,Y] est fausse. Je pense que tu confonds avec une formule de la variance, je vais detailler.
En notant E l'esperance on peut definir la variance de variable aleatoire var(X) telle que:
var(X) = E[(X - mx)²] = E[X²] - mx² = E[X²] - E[X]²
On definit aussi la covariance entre deux variables aleatoires (v. plus haut) telle que:
cov(X,Y) = E[(X - mx)(Y - my)] = E[XY] - mxmy = E[XY] - E[X]E[Y]
On a donc:
var(X+Y) = E[(Y+X)²] - E[Y+X]²
var(X+Y) = E[Y² + X² + 2XY] - (E[X]² + E[Y]² + 2 E[X]E[Y])
var(X+Y) = E[X²] - E[X]² + E[Y²] - E[Y]² + 2(E[XY] - E[X]E[Y])
var(X+Y) = var(X) + var(Y) + 2cov(X,Y)
Pourquoi écrit on parfois g(t) et parfois g(t1,t2) ?
Comme je l'ai dit precedemment je pense que tu confonds les fonctions G (grand gamma) et g (petit gamma)
Que se passe-t-il quand soit n, X(n,w) est constant quelquesoit w?
Gx(n1,n2) = Gx(n1,n2) = cov(Xn1, Xn2) = E[X(n1,w)X(n2,w)*] - E[X(n1,w)]E[X(n2,w)]* = E[X(n1,w0)X(n2,w0)*] - E[X(n1,w0)]E[X(n2,w0)]*
Or pour n1 et n2 fixes X(n1,w0) et X(n2,w0) sont des variables aleatoires constantes, soit a et c leur valeur respectives on a alors:
E[X(n1,w0)X(n2,w0)*] = E[ac*] = ac* et E[X(n1,w0)] = E[a] = a et E[X(n2,w0)]* = E[c]* = c*
D'ou Gx = ac* - ac* = 0
Pour la question de cosinus je comprends pas tres bien ce que tu veux dire.
Voila, j'espere que j'ai pas dit de betises et que ca pourra t'aider.
Message édité par plzhelp le 31-10-2006 à 16:15:46
---------------
...