Vi posto il mio svolgimento
per il primo esercizio:
$X(nu)=1+A_1/2*(e^(j*2*pi*nu)+e^(-j*2*pi*nu))+A_2/2(e^(j*4*pi*nu)+e^(-j*4*pi*nu))=sum_(k=0)^2 A_k *(e^(j*2*pi*nu*k)+e^(-j*2*pi*nu*k))$ dove si è assunto che $A_0=1$
a) antitrsformando:
$x(n)=sum_(k=0)^2 [A_k/2*(delta(n-k)+delta(n+k))]
se $y(n)=x(n)$*$delta(n-3)$ allora:
$y(n)=[delta(n)+A_1/2(delta(n-1)+delta(n+1))+A_2/2(delta(n-2)+delta(n+2))]$*$delta(n-3)$ $=>$
$Y(nu)=[1+A_1/2*(e^(j*2*pi*nu)+e^(-j*2*pi*nu))+A_2/2(e^(j*4*pi*nu)+e^(-j*4*pi*nu))]e^(-j*6*pi*nu)$ $=>$
$e^(-j*6*pi*nu)+A_1/2(e^(-j*4*pi*nu)+e^(-j*8*pi*nu))+A_2/2(e^(-j*2*pi*nu)+e^(-j*10*pi*nu))$ $=>$
$y(n)=delta(n-3)+A_1/2(delta(n-2)+delta(n-4))+A_2/2(delta(n-1)+delta(n-5))$
$y(2)=A_1/2=5$ $=>A_1=10$
$x(n)=1+5delta(n-1)+5delta(n+1)+A_2/2delta(n-2)+A_2/2delta(n+2)$
c) se la potenza $xi_x=100$ allora:
$xi_x= sum_(n=-infty)^infty |x(n) | ^2 =100$ $=>$ $1+25+25+A_2^2/4+A_2^2/4=100$ $=>$ $A_2^2=49*2$ $=>$ $A_2=7sqrt(2)$
$x(n)=1+5(delta(n-1)+delta(n+1))+7/sqrt(2)(delta(n-2)+delta(n+2))$
per il secondo esercizio:
a) siccome la cdf è del tipo $N(t)=(e^(-lambda) lambda^t )/(t!)$
$E(t)=int_-infty^infty (t e^(-lambda) lambda^t )/(t!) dt = lambda*e^-lambda int_-infty^infty lambda^(t-1)/((t-1)!)dt=lambda*e^-lambda*e^lambda=lambda$
$E(t^2)=int_-infty^infty (t^2 e^(-lambda) lambda^t )/(t!) dt = lambda e^-lambda int_-infty^infty (t lambda^t-1 )/((t-1)!) dt = lambda e^-lambda (lambda+1) e^lambda=lambda^2+lambda$
$VAR(t)=E((t-E(t))^2)=E(t^2)-E(t)^2=lambda^2+lambda-lambda^2=lambda$
$r_(N,N)(s,t)=E[N(t)N(s)]=VAR{N(s)}+E{N(s)}E{N(t)}=lambdat+lambda^2st$
c) la pdf mista di ordine N, la N(k) dipende da k, e la sequenza dei tempi di arrivo T(k) ha media $k/lambda$ e varianza $k/lambda^2$ dunque tale processo non è stazionario neppure in senso stretto.
si noti però che il processo D(k) distanza tra i tempi di arrivo T(k)-T(k-1) è stazionario perchè la sua statistica non dipende da k, infatti ha media $1/lambda$ e varianza $1/lambda^2$.
d) il processo è markoviano in quanto al tempo $t_N$ esso non dipende dal suo valore negli istanti che vanno da $t_1$ a $t_(N-2)$ ma solo da $t_(N-1)$
$F(x_N|x_(N-1),...,x_1;t_N,t_(N-1),...,t_1)=F(x_N|x_(N-1);t_N,t_(N-1))$ nel predire lo stato futuro basta tener conto dello stato presente e non della storia passata.
e) $underline(t)$ vettore di osservazioni, $p(underline(t),lambda)=prod_(i=0)^M (e^-lambda lambda^(t_i))/(t_i!)=(e^(-Mlambda)lambda^(sum_(i=0)^M t_i))/(prod_(i=0)^M t_i !)
$log(p(underline(t),lambda))= -Mlambda+log(lambda) sum_(i=0)^M t_i-sum_(i=0)^M log(t_i !)$
$(partial log(p(underline(t),lambda)))/(partial lambda) = -M +1/lambda sum_(i=0)^M t_i =0 $ $=>$ $ hat(lambda)_(ML)= 1/M sum_(i=0)^M t_i$
per il terzo esercizio:
a) il p-esimo percentile l'ho calcolato come:
$p=int_(x_p)^infty 1/(sqrt(2*pi)sigma) exp{-(x- mu)^2/(2*sigma^2)} dx$
ricordando che $Q((x-mu)/sigma)=int_(x)^infty 1/(sqrt(2*pi)sigma) exp{-(u- mu)^2/(2*sigma^2)} du$
$p=Q((x_p-mu)/sigma)$ $=>$ $x_p=sigma*Q^-1(p)+mu
Per il Toerema del Limite centrale una v.a. continua con qualsiasi distribuzione, dopo N ripetizioni tende ad una normale con media $mu=sum_(i=0)^N mu_i$ e varianza $sigma^2=sum_(i=0)^N sigma^2_i$
oppure ricordando che la combinazione lineare di variabili normali da una variabile normale i cui parametri sono la combinazione lineare dei parametri delle singole variabili aleatorie, cioè:
$x=alpha_1 x_1+alpha_2 x_2+ ... + alpha_N x_N$ $=>$ $mu=alpha_1 mu_1+alpha_2 mu_2+ ... + alpha_N mu_N$ $=>$ $sigma^2=alpha_1 sigma^2_1+alpha_2 sigma^2_2+ ... + alpha_N sigma^2_N
dunque per $Y=sum_(i=0)^N X_i$ $=>$ $f_Y(y)=1/(sqrt(2*pi* sum_(i=0)^N sigma^2_i)) exp{-(y- sum_(i=0)^N mu_i)^2/(2 sum_(i=0)^N sigma^2_i)}
c) allo stesso modo per $Z=1/N sum_(i=0)^N X_i$ $=>$ $f_Z(z)=1/(sqrt(2*pi* 1/N sum_(i=0)^N sigma^2_i)) exp{-(z - 1/N sum_(i=0)^N mu_i)^2/(2 1/N sum_(i=0)^N sigma^2_i)}