PDA

View Full Version : Prove Expectation and Variance


champdean
09 มีนาคม 2010, 17:53
Let X be a discrete random variable which takes k possible values from {x1,x2,...,xk}.
Let Y be a discrete random variable which takes j possible values from {y1,y2,...,yj}.
Joint distribution function of X and Y is given by P(x,y)
Q1: Let g(X) and h(y) be functions that depend on X and Y respectively. Prove that

$E[g(X)+h(Y)]$ = $E[g(X)]+E[h(Y)]$

Q2: Let a and b be two constant numbers. Construct a new random variable W as

$$W = aX + bY$$

Prove that

$$\sigma ^2_w= a^2\sigma ^2_x + b^2\sigma ^2_y + 2abCov(X,Y)$$

Where $\sigma ^2_w, \sigma ^2_x$, and $\sigma ^2_y$ are variance of W,X and Y respectively.

โดยที่ $$E[g(X)]=\Sigma g(X)p(x)$$, $$Var(X) = \Sigma (X-\mu )^2p(x)$$ รบกวนด้วยครับ

nongtum
09 มีนาคม 2010, 18:27
คำแนะนำ

ข้อ 1 เขียน $E[g(X)+h(Y)]$ ในรูป summation โดยใช้ joint distribution function เป็น weight
ใช้สมบัติเชิงเส้นของผลรวมแยกผลรวมออกเป็นสองชุด แล้วเราจะได้ข้อสรุปจากนิยามของ joint distribution อย่างไร

ข้อ 2 ใช้ $Var[W]=Cov[W,W]=E[W^2]-(E[W])^2$ ก่อนแทน $W=aX+bY$ แล้วใช้สมบัติเชิงเส้นในข้อ 1 ช่วยจัดรูป
อย่าลืมว่า $Cov[X,Y]=E[XY]-E[X]E[Y]$

champdean
12 มีนาคม 2010, 15:08
ทำได้แล้วคับ น่าจะถูกนะครับ

Q1: $$E[g(X)+h(Y)]= \sum_X \sum_Y [g(X)+h(Y)]p(x,y)$$
$$= \sum_X \sum_Y g(X)p(x,y)+\sum_X h(Y)\sum_Y p(x,y)$$
$$= \sum_X g(X)\sum_Yp(x,y)+\sum_Y \sum_X h(Y)p(x,y)]$$
$$= \sum_X g(X)p(X)+\sum_Y h(Y)p(Y)$$
$$= E[g(X)]+E[h(Y)]$$

Q2: $$W=aX+bY,E(W)=a\mu_X+b\mu_Y$$
$$Var(W)=E[(W-\mu_W)^2]$$
$$=E[(aX+bY-a\mu_X+b\mu_Y)^2]$$
$$=E[a(X-\mu_X)+b(Y-\mu_Y)]^2$$
$$=Ea^2(X-\mu_X)^2+Eb^2(Y-\mu_Y)^2+E2ab(X-\mu_X)(Y-\mu_Y)$$
$$=a^2\sum_X(X-\mu_X)^2p(X)+b^2\sum_Y(Y-\mu_Y)^2p(Y)+2ab\sum(X-\mu_X)(Y-\mu_Y)$$
$$=a^2\sigma_x^2+b^2\sigma_y^2+2ab\sigma_x\sigma_y$$

nongtum
13 มีนาคม 2010, 00:21
ที่ทำมาแม้จะทำคนละแบบกับที่ผมแนะ แต่ก็ถูกแล้วครับ เวลาทำส่งจริงระวังเรื่องตำแหน่งและสัญลักษณ์ใต้เครื่องหมาย summation หน่อยเน้อ