1. Expected Value of R.V function
1. Expected Value of R.V function
- N개 R.V. 함수에 대해서
- E[X]=∫xfX(x)dx
- R.V. Z=X+Y일 때 E[Z]=∫−∞∞∫−∞∞(X+Y)fX,Y(x,y)dxdy=E[X]+E[Y]
- 함수 g(x,y)에 대해 g=EX,Y[g(x,y)]=∫−∞∞∫−∞∞g(x,y)fX,Y(x,y)dxdy
- E[∑iαiXi]=∑iαiE[Xi]
결합 Moment
- mnk≡EX,Y[XnYk]=∫−∞∞∫−∞∞xnykfX,Y(x,y)dxdy
- mn0=E[Xn], m0k=E[Yk]
- n+k = moment의 차수
- Correlation(상관관계) : RXY=m11=EX,Y[XY]
- E[XY]=E[X]E[Y]면 uncorrelated
- 독립시행이면 uncorrelated
- correlated면 독립이 아님
- 하지만 uncorrelated라고 해서 독립인 것은 아님
- RXY=0이면 X와 Y는 직교(orthogonal)한다고 표현
결합 Central Moment
- μnk=EX,Y[(X−X)n(Y−Y)k]
- 랜덤변수의 분산 : μ20=σX2, μ02=σY@
- Covariance : CXY=CYX=μ11
=E[(X−X)(Y−Y)]=E[XY]−XY=RXY−XY
- CXY=0이면 uncorrelated
- CXY=−E[X]E[Y]면 orthogonal
- 상관계수(Correlation Coefficient) : ρ=μ20μ02μ11=σXσYCXY=E[σxx−μxσyy−μy]
- 증명 : Cauchy-Schwarz inequality
f(x)=σxx−μxfX,Y(x,y), g(y)=σyy−μyfX,Y(x,y)
가우스 분포이므로 우변은 1이 됨. ∴−1≤∣ρ∣≤1
2. Joint Characteristic Function
- ΦX,Y(w1,w2)=E[ exp[jw1X+jw2Y] ]
=∫−∞∞∫−∞∞fX,Y(x,y)exp[jw1X+jw2Y]dxdy
- inverse Ch. : fX,Y(x,y)=(2π)21∫−∞∞∫−∞∞ΦX,Y(w1,w2)exp[−(jw1X+jw2Y)]dw1dw2
- marginality : ΦX(w)=ΦX,Y(w,0)
- Joint Moment : mn,k=(−j)n+k∂w1n∂w2k∂n+kΦX,Y(w1,w2)∣w1=w2=0
3. Joint Gaussian Random Variable
- fX(x)=(2π)n(det∑)1exp[−21(X−μ)T∑−1(X−μ)]
- 2차원 Gaussian R.V.에 대해
- ∑=[σx2ρσxσyρσxσyσy2]
- ∑−1=1−ρ21[σx21−σxσyρ−σxσyρσy21]
- det∑=σX2σY2(1−ρ2)
- fX,Y(x,y)=2πσXσY1−ρ21exp[−2(1−ρ2)1[(σXx−μx)2−2ρ(σXx−μx)(σYy−μy)+(σYy−μy)2]]
- property : 2차원 joint gaussian R.V fX,Y(x,y)
- X~N(μx,σX2)
- E[(X−μx)(Y−μy)]=ρσXσY(Covariance)
- E[XY]=ρσXσY+μxμy
- X,Y가 joint Gaussian이고 ρ=0이면 uncorrelated
- 임의의 uncorrelated한 gaussian R.V.는 독립
- 가우시안의 선형 transform, marginal, conditional distribution은 모두 gaussian
- Linear Transform(Coordination Rotation)
- 랜덤변수 X, Y를 uncorrelated한 랜덤변수로 선형 변환(각도 θ로 회전)
- [Y1Y2]=[cosθsinθsinθcosθ]
[XY]
- CY1Y2=(σY2−sigmaX2)2sin2θ+CXYcos2θ
- 위 식이 0일 때 uncorrelated
- θ=21tan−1[σX2−σY22ρσXσY]
- N차원 랜덤변수 T : Y=g(X1,X2,....XN)이 있다고 할 때
- FY(y)=P(g()≤y)
∫...∫fX1,...,XN(x1,...,xN)dx1...dxN
- fY(y)=dydFY(y)
=fX(x1,...xN)∣J∣
- x1=T−1(y),...,xN=TN−1(y)
- y=[y1,...yN]T
- J=⎣⎢⎢⎡∂y1∂T1−1...∂y1∂TN−1.........∂yN∂T1−1...∂yN∂TN−1⎦⎥⎥⎤
- J : Jacobian determinant
- 실수값 p에대해 J가 0이 아니면 함수 f는 역함수가 존재
- p에서 J의 절대값은 그 점에서의 수축/확산에 대한 정보를 제공
- ex.{Y1=aX1+bX2Y2=cX1+dX2 : [Y1Y2] =[acbd] [X1X2]
- fY1,Y2(y1,y2)=fX1,X2(x1,x2)∣∂(y1,y2)∂(x1,x2)∣
=fX1,X2(x1,x2) / ∣∂(x1,x2)∂(y1,y2)∣=fX1,X2(x1,x2) / ∣[acbd]∣
=∣ad−bc∣1fX1,X2(ad−bcdy1−by2,ad−bc−cy1+ay2)
5. Estimation
Estimation of Mean
- 랜덤한 N개 값에서의 sample mean :
- xN^=N1∑n=1Nxn
- N개 random variable에서 추정한 sample mean :
- XN^=N1∑n=1NXn
- 좋은 Estimate의 조건
- unbiased : 예측값의 평균이 실제 평균으로 수렴할 것
- E[XN^]=E[N1∑Xn]=N1∑E[Xn]=X
- 예측값의 분산이 최소값이 될 것
- E[(XN^−X)2]=E[XN^2]−X2=NσX2
- sample 개수 N이 충분히 커지면 sample 분산은 0으로 수렴
- Chebychev's Inequality
- P(∣XN^−X∣<ϵ)≥1−ϵ2σXN^2=1−Nϵ2σX2
- N이 충분히 큰 상태에서 sample mean과 X의 실제 mean이 같을 확률은 1로 수렴
Estimation of Variance
- sample variance VN≡N1∑(Xn−XN^)2으로 sample variance를 가정
- E[VN]=NN−1σX이므로 not unbiased
- 양변에 N−11을 곱해 unbiased인 분산의 예측값을 계산 가능
- σX^2=N−11∑(Xn−XN^)2
Law of large numbers
- weak law : 충분히 큰 N에 대해서 sample mean은 실제 평균과 동일
- strong law : 충분히 큰 N에 대해서 sample mean이 실제 평균과 동일할 확률이 1로 수렴