聯合分布
定義
兩個隨機變數 X , Y X, Y X , Y 的聯合分佈函數 F ( x , y ) F(x, y) F ( x , y ) 定義為: F ( x , y ) = P ( X ≤ x , Y ≤ y ) F(x, y) = P(X \leq x, Y \leq y) F ( x , y ) = P ( X ≤ x , Y ≤ y )
cdf給出了 ( X , Y ) (X, Y) ( X , Y ) 落在矩形區域的機率
如圖所示,( X , Y ) (X, Y) ( X , Y ) 落入圖 3.2 3.2 3 . 2 中的概率是 P ( a < X ≤ b , c < Y ≤ d ) = F ( b , d ) − F ( a , d ) − F ( b , c ) + F ( a , c ) P(a < X \leq b, c < Y \leq d) = F(b, d) - F(a, d) - F(b, c) + F(a, c) P ( a < X ≤ b , c < Y ≤ d ) = F ( b , d ) − F ( a , d ) − F ( b , c ) + F ( a , c )
離散
聯合概率質量函數 p ( x , y ) p(x, y) p ( x , y ) 定義為: p ( x , y ) = P ( X = x , Y = y ) p(x, y) = P(X = x, Y = y) p ( x , y ) = P ( X = x , Y = y )
邊際概率質量函數: p X ( x ) = ∑ y p ( x , y ) p_X(x) = \sum_{y} p(x, y) p X ( x ) = ∑ y p ( x , y ) , p Y ( y ) = ∑ x p ( x , y ) p_Y(y) = \sum_{x} p(x, y) p Y ( y ) = ∑ x p ( x , y )
p X ( x ) p_X(x) p X ( x ) 給出了 X X X 的概率質量函數
p Y ( y ) p_Y(y) p Y ( y ) 給出了 Y Y Y 的概率質量函數
連續
聯合概率密度函數 f ( x , y ) f(x, y) f ( x , y ) 定義為: f ( x , y ) = ∂ 2 F ( x , y ) ∂ x ∂ y \displaystyle f(x, y) = \frac{\partial^2 F(x, y)}{\partial x \partial y} f ( x , y ) = ∂ x ∂ y ∂ 2 F ( x , y )
和與商
和
Suppose that X , Y X, Y X , Y are two random variables with joint pdf f ( x , y ) f(x, y) f ( x , y ) , then the pmf & cdf of Z = X + Y Z = X + Y Z = X + Y is given by:
pmf
p Z ( z ) = P ( Z = z ) = P ( X + Y = z ) = ∑ x P ( X = x , Y = z − x ) = ∑ x f ( x , z − x ) p_Z(z) = P(Z = z) = P(X + Y = z) = \sum_{x} P(X = x, Y = z - x) = \sum_{x} f(x, z - x) p Z ( z ) = P ( Z = z ) = P ( X + Y = z ) = ∑ x P ( X = x , Y = z − x ) = ∑ x f ( x , z − x )
cdf
If X , Y X, Y X , Y are independent, then:
F Z ( z ) = P ( Z ≤ z ) = P ( X + Y ≤ z ) = ∫ − ∞ ∞ ∫ − ∞ z − x f ( x , y ) d y d x = ∫ − ∞ ∞ f X ( x ) F Y ( z − x ) d x F_Z(z) = P(Z \leq z) = P(X + Y \leq z) = \int_{-\infty}^{\infty} \int_{-\infty}^{z - x} f(x, y) dy dx = \int_{-\infty}^{\infty} f_X(x) F_Y(z - x) dx F Z ( z ) = P ( Z ≤ z ) = P ( X + Y ≤ z ) = ∫ − ∞ ∞ ∫ − ∞ z − x f ( x , y ) d y d x = ∫ − ∞ ∞ f X ( x ) F Y ( z − x ) d x
商
Quotient of two continuous random variables
Let X , Y X, Y X , Y be two continuous random variables with joint density f ( x , y ) f(x, y) f ( x , y ) , then the pdf & cdf of Z = X / Y Z = X / Y Z = X / Y is given by:
cdf
F Z ( z ) = P ( Z ≤ z ) = P ( X / Y ≤ z ) = ∫ ∫ A f ( x , y ) d x d y F_Z(z) = P(Z \leq z) = P(X / Y \leq z) = \int_{}^{} \int_{A}^{} f(x, y) dx dy F Z ( z ) = P ( Z ≤ z ) = P ( X / Y ≤ z ) = ∫ ∫ A f ( x , y ) d x d y
pdf
e.g.
X ∼ N ( 0 , 1 ) X \sim N(0, 1) X ∼ N ( 0 , 1 ) , Y ∼ N ( 0 , 1 ) Y \sim N(0, 1) Y ∼ N ( 0 , 1 ) , X , Y X, Y X , Y are independent, then Z = X / Y Z = X / Y Z = X / Y is called the Cauchy distribution
f Z ( z ) = 1 π ( 1 + z 2 ) \displaystyle f_Z(z) = \frac{1}{\pi(1 + z^2)}
f Z ( z ) = π ( 1 + z 2 ) 1
F Z ( z ) = ∫ − ∞ ∞ ∣ x ∣ 1 2 π e − x 2 2 e − ( x z ) 2 2 d x = ∫ − ∞ ∞ ∣ x ∣ 2 π e − x 2 2 ( 1 + z 2 ) d x = ∫ 0 ∞ x 1 π e − x 2 2 ( 1 + z 2 ) d x = 1 z 2 + 1 2 1 2 π ∫ 0 ∞ z 2 + 1 2 e ( − u ) z 2 + 1 2 d u = 1 2 π ( z 2 + 1 2 ) = 1 π ( z 2 + 1 ) \begin{aligned} F_Z(z) &= \int_{-\infty}^{\infty} |x| \frac{1}{2\pi} e^{-\frac{x^2}{2}} e^{-\frac{(xz)^2}{2}} dx \\ &= \int_{-\infty}^{\infty} \frac{|x|}{2\pi} e^{-\frac{x^2}{2}(1+z^2)} dx \\ &= \int_{0}^{\infty} x\frac{1}{\pi} e^{-\frac{x^2}{2}(1+z^2)} dx \\ &= \frac{1}{\frac{z^{2}+1}{2}} \frac{1}{2\pi} \int_{0}^{\infty} \frac{z^{2}+1}{2} e^{(-u)\frac{z^{2}+1}{2}} du \\ &= \frac{1}{2\pi (\frac{z^{2}+1}{2})} \\ &= \frac{1}{\pi(z^{2}+1)} \end{aligned} F Z ( z ) = ∫ − ∞ ∞ ∣ x ∣ 2 π 1 e − 2 x 2 e − 2 ( x z ) 2 d x = ∫ − ∞ ∞ 2 π ∣ x ∣ e − 2 x 2 ( 1 + z 2 ) d x = ∫ 0 ∞ x π 1 e − 2 x 2 ( 1 + z 2 ) d x = 2 z 2 + 1 1 2 π 1 ∫ 0 ∞ 2 z 2 + 1 e ( − u ) 2 z 2 + 1 d u = 2 π ( 2 z 2 + 1 ) 1 = π ( z 2 + 1 ) 1
順序統計量
順序統計量:X ( 1 ) ≤ X ( 2 ) ≤ . . . ≤ X ( n ) X_{(1)} \leq X_{(2)} \leq ... \leq X_{(n)} X ( 1 ) ≤ X ( 2 ) ≤ . . . ≤ X ( n )
X ( 1 ) X_{(1)} X ( 1 ) 稱為最小順序統計量,X ( n ) X_{(n)} X ( n ) 稱為最大順序統計量
X ( k ) X_{(k)} X ( k ) 稱為第 k k k 順序統計量
X ( k ) X_{(k)} X ( k ) 的概率密度函數: f X ( k ) ( x ) = n ! ( k − 1 ) ! ( n − k ) ! f ( x ) F ( x ) k − 1 [ 1 − F ( x ) ] n − k f_{X_{(k)}}(x) = \frac{n!}{(k-1)!(n-k)!} f(x) F(x)^{k-1} [1 - F(x)]^{n-k} f X ( k ) ( x ) = ( k − 1 ) ! ( n − k ) ! n ! f ( x ) F ( x ) k − 1 [ 1 − F ( x ) ] n − k
期望值
隨機變量的期望值
單變量
離散隨機變量 X X X 的期望值: E ( X ) = ∑ x x p ( x ) \displaystyle E(X) = \sum_{x} x p(x) E ( X ) = x ∑ x p ( x )
連續隨機變量 X X X 的期望值: E ( X ) = ∫ − ∞ ∞ x f ( x ) d x \displaystyle E(X) = \int_{-\infty}^{\infty} x f(x) dx E ( X ) = ∫ − ∞ ∞ x f ( x ) d x
多變量
離散隨機變量 X 1 , X 2 , . . . , X n X_1, X_2, ..., X_n X 1 , X 2 , . . . , X n 的聯合期望值:
E ( X 1 , X 2 , . . . , X n ) = ∑ x 1 ∑ x 2 . . . ∑ x n x 1 x 2 . . . x n p ( x 1 , x 2 , . . . , x n ) \displaystyle E(X_1, X_2, ..., X_n) = \sum_{x_1} \sum_{x_2} ... \sum_{x_n} x_1 x_2 ... x_n p(x_1, x_2, ..., x_n) E ( X 1 , X 2 , . . . , X n ) = x 1 ∑ x 2 ∑ . . . x n ∑ x 1 x 2 . . . x n p ( x 1 , x 2 , . . . , x n )
連續隨機變量 X 1 , X 2 , . . . , X n X_1, X_2, ..., X_n X 1 , X 2 , . . . , X n 的聯合期望值:
E ( X 1 , X 2 , . . . , X n ) = ∫ − ∞ ∞ . . . ∫ − ∞ ∞ x 1 x 2 . . . x n f ( x 1 , x 2 , . . . , x n ) d x 1 d x 2 . . . d x n \displaystyle E(X_1, X_2, ..., X_n) = \int_{-\infty}^{\infty} ... \int_{-\infty}^{\infty} x_1 x_2 ... x_n f(x_1, x_2, ..., x_n) dx_1 dx_2 ... dx_n E ( X 1 , X 2 , . . . , X n ) = ∫ − ∞ ∞ . . . ∫ − ∞ ∞ x 1 x 2 . . . x n f ( x 1 , x 2 , . . . , x n ) d x 1 d x 2 . . . d x n
變異數和標準差
定義
隨機變量 X X X 的變異數: V a r ( X ) = E [ ( X − E ( X ) ) 2 ] = E ( X 2 ) − [ E ( X ) ] 2 \displaystyle Var(X) = E[(X - E(X))^2] = E(X^2) - [E(X)]^2 V a r ( X ) = E [ ( X − E ( X ) ) 2 ] = E ( X 2 ) − [ E ( X ) ] 2
V a r ( X ) = E ( ( X − μ ) 2 ) = E ( X 2 + μ 2 − 2 X μ ) = E ( X 2 ) + μ 2 − 2 μ E ( X ) = E ( X 2 ) − E ( X ) 2 Var(X) = E((X - \mu)^2) =E(X^2+ \mu^2 - 2X\mu) = E(X^2) + \mu^2 - 2\mu E(X) = E(X^2) - E(X)^2 V a r ( X ) = E ( ( X − μ ) 2 ) = E ( X 2 + μ 2 − 2 X μ ) = E ( X 2 ) + μ 2 − 2 μ E ( X ) = E ( X 2 ) − E ( X ) 2
隨機變量 X X X 的標準差: S D ( X ) = V a r ( X ) \displaystyle SD(X) = \sqrt{Var(X)} S D ( X ) = V a r ( X )
連續&離散
離散隨機變量 X X X 的變異數: V a r ( X ) = ∑ x ( x − E ( X ) ) 2 p ( x ) \displaystyle Var(X) = \sum_{x} (x - E(X))^2 p(x) V a r ( X ) = x ∑ ( x − E ( X ) ) 2 p ( x )
連續隨機變量 X X X 的變異數: V a r ( X ) = ∫ − ∞ ∞ ( x − E ( X ) ) 2 f ( x ) d x \displaystyle Var(X) = \int_{-\infty}^{\infty} (x - E(X))^2 f(x) dx V a r ( X ) = ∫ − ∞ ∞ ( x − E ( X ) ) 2 f ( x ) d x
柴比雪夫不等式 (Chebyshev’s Inequality)
對於任意隨機變量 X X X 和任意實數 k > 0 k > 0 k > 0 ,有: $$\displaystyle P(|X - E(X)| \geq k) \leq \frac{Var(X)}{k^2}$$
通過馬可夫不等式,有:
P ( ∣ X − E ( X ) ∣ ≥ k ) = P ( ( X − E ( X ) ) 2 ≥ k 2 ) ≤ E [ ( X − E ( X ) ) 2 ] k 2 = V a r ( X ) k 2 \displaystyle P(|X - E(X)| \geq k) = P((X - E(X))^2 \geq k^2) \leq \frac{E[(X - E(X))^2]}{k^2} = \frac{Var(X)}{k^2} P ( ∣ X − E ( X ) ∣ ≥ k ) = P ( ( X − E ( X ) ) 2 ≥ k 2 ) ≤ k 2 E [ ( X − E ( X ) ) 2 ] = k 2 V a r ( X )
協方差和相關係數
定義
隨機變量 X , Y X, Y X , Y 的協方差:C o v ( X , Y ) = E [ ( X − E ( X ) ) ( Y − E ( Y ) ) ] = E ( X Y ) − E ( X ) E ( Y ) \displaystyle Cov(X, Y) = E[(X - E(X))(Y - E(Y))] = E(XY) - E(X)E(Y)
C o v ( X , Y ) = E [ ( X − E ( X ) ) ( Y − E ( Y ) ) ] = E ( X Y ) − E ( X ) E ( Y )
C o v ( X , Y ) = E ( X Y − X E ( Y ) − Y E ( X ) + E ( X ) E ( Y ) ) = E ( X Y ) − E ( X ) E ( Y ) \displaystyle Cov(X, Y) = E(XY - XE(Y) - YE(X) + E(X)E(Y)) = E(XY) - E(X)E(Y) C o v ( X , Y ) = E ( X Y − X E ( Y ) − Y E ( X ) + E ( X ) E ( Y ) ) = E ( X Y ) − E ( X ) E ( Y )
如果 X , Y X, Y X , Y 獨立,則 C o v ( X , Y ) = E ( X Y ) − E ( X ) E ( Y ) = E ( X ) E ( Y ) − E ( X ) E ( Y ) = 0 Cov(X, Y) = E(XY) - E(X)E(Y) = E(X)E(Y) - E(X)E(Y) = 0 C o v ( X , Y ) = E ( X Y ) − E ( X ) E ( Y ) = E ( X ) E ( Y ) − E ( X ) E ( Y ) = 0 (反之不成立)
協方的性質
C o v ( a + X , Y ) = C o v ( X , Y ) Cov(a+X, Y) = Cov(X, Y) C o v ( a + X , Y ) = C o v ( X , Y ) where a a a is a constant
C o v ( a + X , Y ) = E ( ( a + X ) Y ) − E ( a + X ) E ( Y ) = E ( a Y ) + E ( X Y ) − a E ( Y ) + E ( X ) E ( Y ) Cov(a+X, Y) = E((a+X)Y) - E(a+X)E(Y) = E(aY) + E(XY) - aE(Y) + E(X)E(Y) C o v ( a + X , Y ) = E ( ( a + X ) Y ) − E ( a + X ) E ( Y ) = E ( a Y ) + E ( X Y ) − a E ( Y ) + E ( X ) E ( Y )
因此加減常數不影響協方差
C o v ( a X , b Y ) = a b C o v ( X , Y ) Cov(aX, bY) = ab Cov(X, Y) C o v ( a X , b Y ) = a b C o v ( X , Y ) where a , b a, b a , b are constants
C o v ( a X , b Y ) = E ( a X b Y ) − E ( a X ) E ( b Y ) = a b E ( X Y ) − a b E ( X ) E ( Y ) = a b C o v ( X , Y ) Cov(aX, bY) = E(aXbY) - E(aX)E(bY) = abE(XY) - abE(X)E(Y) = abCov(X, Y) C o v ( a X , b Y ) = E ( a X b Y ) − E ( a X ) E ( b Y ) = a b E ( X Y ) − a b E ( X ) E ( Y ) = a b C o v ( X , Y )
C o v ( X , Y + Z ) = C o v ( X , Y ) + C o v ( X , Z ) Cov(X, Y+Z) = Cov(X, Y) + Cov(X, Z) C o v ( X , Y + Z ) = C o v ( X , Y ) + C o v ( X , Z )
C o v ( X , Y + Z ) = E ( X ( Y + Z ) ) − E ( X ) E ( Y + Z ) = E ( X Y ) + E ( X Z ) − E ( X ) E ( Y ) − E ( X ) E ( Z ) = C o v ( X , Y ) + C o v ( X , Z ) Cov(X, Y+Z) = E(X(Y+Z)) - E(X)E(Y+Z) = E(XY) + E(XZ) - E(X)E(Y) - E(X)E(Z) = Cov(X, Y) + Cov(X, Z) C o v ( X , Y + Z ) = E ( X ( Y + Z ) ) − E ( X ) E ( Y + Z ) = E ( X Y ) + E ( X Z ) − E ( X ) E ( Y ) − E ( X ) E ( Z ) = C o v ( X , Y ) + C o v ( X , Z )
C o v ( a W + b X , c Y + d Z ) = a c C o v ( W , Y ) + a d C o v ( W , Z ) + b c C o v ( X , Y ) + b d C o v ( X , Z ) Cov(aW+bX, cY+dZ) = ac Cov(W, Y) + ad Cov(W, Z) + bc Cov(X, Y) + bd Cov(X, Z) C o v ( a W + b X , c Y + d Z ) = a c C o v ( W , Y ) + a d C o v ( W , Z ) + b c C o v ( X , Y ) + b d C o v ( X , Z )
相關係數
如果 X , Y X, Y X , Y 是聯合分布的兩個隨機變量,而協方差和變異數存在,則 X , Y X, Y X , Y 的相關係數定義為:
ρ ( X , Y ) = C o v ( X , Y ) V a r ( X ) V a r ( Y ) \displaystyle \rho(X, Y) = \frac{Cov(X, Y)}{\sqrt{Var(X)Var(Y)}}
ρ ( X , Y ) = V a r ( X ) V a r ( Y ) C o v ( X , Y )
條件期望值
隨機變量的條件期望值
離散: E ( Y ∣ X = x ) = ∑ y x P ( Y = y ∣ X = x ) \displaystyle E(Y|X=x) = \sum_{y} x P(Y=y|X=x) E ( Y ∣ X = x ) = y ∑ x P ( Y = y ∣ X = x ) = ∑ y y P ( Y ∣ X ) ( y ∣ x ) \displaystyle \sum_{y} y P_{(Y|X)}(y|x) y ∑ y P ( Y ∣ X ) ( y ∣ x )
連續: E ( Y ∣ X = x ) = ∫ − ∞ ∞ y f ( Y ∣ X ) ( y ∣ x ) d x \displaystyle E(Y|X=x) = \int_{-\infty}^{\infty} y f_{(Y|X)}(y|x) dx E ( Y ∣ X = x ) = ∫ − ∞ ∞ y f ( Y ∣ X ) ( y ∣ x ) d x
一般來說,E ( h ( Y ) ∣ X = x ) = ∫ − ∞ ∞ h ( y ) f ( Y ∣ X ) ( y ∣ x ) d x \displaystyle E(h(Y)|X=x) = \int_{-\infty}^{\infty} h(y) f_{(Y|X)}(y|x) dx E ( h ( Y ) ∣ X = x ) = ∫ − ∞ ∞ h ( y ) f ( Y ∣ X ) ( y ∣ x ) d x
Thm: Law of Total Expectation
定義
X , Y X, Y X , Y 是兩個隨機變量,則 E ( Y ) = E ( E ( Y ∣ X ) ) E(Y) = E(E(Y|X)) E ( Y ) = E ( E ( Y ∣ X ) )
證明:
E ( E ( Y ∣ X ) ) = ∫ − ∞ ∞ E ( Y ∣ X = x ) f X ( x ) d x = ∫ − ∞ ∞ [ ∫ − ∞ ∞ x f ( Y ∣ X ) ( y ∣ x ) d y ] f X ( x ) d x = ∫ − ∞ ∞ y ∫ − ∞ ∞ f ( x , y ) d x d y = ∫ − ∞ ∞ y f Y ( y ) d y = E ( Y ) \begin{aligned} E(E(Y|X)) &= \int_{-\infty}^{\infty} E(Y|X=x) f_X(x) dx \\ &= \int_{-\infty}^{\infty} [\ \int_{-\infty}^{\infty} x f_{(Y|X)}(y|x) dy]\ f_X(x) dx \\ &= \int_{-\infty}^{\infty} y \int_{-\infty}^{\infty} f(x, y) dx dy \\ &= \int_{-\infty}^{\infty} y f_Y(y) dy \\ &= E(Y) \end{aligned} E ( E ( Y ∣ X ) ) = ∫ − ∞ ∞ E ( Y ∣ X = x ) f X ( x ) d x = ∫ − ∞ ∞ [ ∫ − ∞ ∞ x f ( Y ∣ X ) ( y ∣ x ) d y ] f X ( x ) d x = ∫ − ∞ ∞ y ∫ − ∞ ∞ f ( x , y ) d x d y = ∫ − ∞ ∞ y f Y ( y ) d y = E ( Y )
Thm: Law of Total Variance
定義
X , Y X, Y X , Y 是兩個隨機變量,則 V a r ( Y ) = E ( V a r ( Y ∣ X ) ) + V a r ( E ( Y ∣ X ) ) Var(Y) = E(Var(Y|X)) + Var(E(Y|X)) V a r ( Y ) = E ( V a r ( Y ∣ X ) ) + V a r ( E ( Y ∣ X ) )
The moment generating function
定義
隨機變量 X X X 的矩生成函數: M X ( t ) = E ( e t X ) \displaystyle M_X(t) = E(e^{tX}) M X ( t ) = E ( e t X )
離散: M X ( t ) = ∑ x e t x p ( x ) \displaystyle M_X(t) = \sum_{x} e^{tx} p(x) M X ( t ) = x ∑ e t x p ( x )
連續: M X ( t ) = ∫ − ∞ ∞ e t x f ( x ) d x \displaystyle M_X(t) = \int_{-\infty}^{\infty} e^{tx} f(x) dx M X ( t ) = ∫ − ∞ ∞ e t x f ( x ) d x
性質
如果mgf對於所有含0的開區間 t t t 都存在,則唯一確定了隨機變量的分佈
若期望值存在則第 r r r 矩: E ( X r ) = M X ( r ) ( 0 ) \displaystyle E(X^r) = M_X^{(r)}(0) E ( X r ) = M X ( r ) ( 0 )
若 X X X 有mgf,且 Y = a + b X Y = a + bX Y = a + b X 則 M Y ( t ) = E ( e t ( a + b X ) ) = e a t E ( e ( b t ) X ) = e a t M X ( b t ) \displaystyle M_Y(t) = E(e^{t(a+bX)}) = e^{at} E(e^{(bt)X}) = e^{at} M_X(bt) M Y ( t ) = E ( e t ( a + b X ) ) = e a t E ( e ( b t ) X ) = e a t M X ( b t )
若 X , Y X, Y X , Y 獨立,則 M X + Y ( t ) = M X ( t ) M Y ( t ) \displaystyle M_{X+Y}(t) = M_X(t)M_Y(t) M X + Y ( t ) = M X ( t ) M Y ( t )
極限定理
大數法則
當 n → ∞ n \rightarrow \infty n → ∞ 時,樣本平均值 X ˉ = 1 n ∑ i = 1 n X i \bar{X} = \frac{1}{n} \sum_{i=1}^{n} X_i X ˉ = n 1 ∑ i = 1 n X i 將收斂到期望值 E ( X ) E(X) E ( X )
弱大數法則
如果 X 1 , X 2 , . . . , X n X_1, X_2, ..., X_n X 1 , X 2 , . . . , X n 是獨立同分佈的隨機變量,且 E ( X i ) = μ E(X_i) = \mu E ( X i ) = μ ,V a r ( X i ) = σ 2 Var(X_i) = \sigma^2 V a r ( X i ) = σ 2 ,∀ i \forall i ∀ i ,
Let X ˉ = 1 n ∑ i = 1 n X i \bar{X} = \frac{1}{n} \sum_{i=1}^{n} X_i X ˉ = n 1 ∑ i = 1 n X i
則對於任意 ϵ > 0 \epsilon > 0 ϵ > 0 ,有: P ( ∣ X ˉ − μ ∣ ≥ ϵ ) → 0 \displaystyle P(|\bar{X} - \mu| \geq \epsilon) \rightarrow 0 P ( ∣ X ˉ − μ ∣ ≥ ϵ ) → 0 ,當 n → ∞ n \rightarrow \infty n → ∞
我們可以說,樣本平均值 X ˉ \bar{X} X ˉ 機率收斂到期望值 μ \mu μ , 可寫成 X ˉ → p μ \bar{X} \xrightarrow{p} \mu X ˉ p μ as n → ∞ n \rightarrow \infty n → ∞
證明:
E ( X ˉ ) = E ( 1 n ∑ i = 1 n X i ) = 1 n ∑ i = 1 n E ( X i ) = μ E(\bar{X}) = E(\frac{1}{n} \sum_{i=1}^{n} X_i) = \frac{1}{n} \sum_{i=1}^{n} E(X_i) = \mu E ( X ˉ ) = E ( n 1 ∑ i = 1 n X i ) = n 1 ∑ i = 1 n E ( X i ) = μ
V a r ( X ˉ ) = V a r ( 1 n ∑ i = 1 n X i ) = 1 n 2 ∑ i = 1 n V a r ( X i ) = σ 2 n Var(\bar{X}) = Var(\frac{1}{n} \sum_{i=1}^{n} X_i) = \frac{1}{n^2} \sum_{i=1}^{n} Var(X_i) = \frac{\sigma^2}{n} V a r ( X ˉ ) = V a r ( n 1 ∑ i = 1 n X i ) = n 2 1 ∑ i = 1 n V a r ( X i ) = n σ 2
By Chebyshev’s Inequality:
P ( ∣ X ˉ − μ ∣ ≥ ϵ ) ≤ σ 2 n ϵ 2 → 0 \displaystyle P(|\bar{X} - \mu| \geq \epsilon) \leq \frac{\sigma^2}{n\epsilon^2} \rightarrow 0 P ( ∣ X ˉ − μ ∣ ≥ ϵ ) ≤ n ϵ 2 σ 2 → 0 as n → ∞ n \rightarrow \infty n → ∞ . Hence, X ˉ → p μ \bar{X} \xrightarrow{p} \mu X ˉ p μ as n → ∞ n \rightarrow \infty n → ∞
continuous mapping theorem
令 Y n Y_n Y n 是以 n n n 為索引的隨機變量序列,如果 Y n → p Y Y_n \xrightarrow{p} Y Y n p Y ,且 g ( x ) g(x) g ( x ) 是一個連續函數,則 g ( Y n ) → p g ( Y ) g(Y_n) \xrightarrow{p} g(Y) g ( Y n ) p g ( Y )
中心極限定理 (Central Limit Theorem)
如果 X 1 , X 2 , . . . , X n X_1, X_2, ..., X_n X 1 , X 2 , . . . , X n 是獨立同分佈的隨機變量,且 E ( X i ) = μ E(X_i) = \mu E ( X i ) = μ ,V a r ( X i ) = σ 2 Var(X_i) = \sigma^2 V a r ( X i ) = σ 2 ,有共同的cdf為 F F F 和mgf為 M M M
令 S n = ∑ i = 1 n X i \displaystyle S_n = \sum_{i=1}^{n} X_i S n = i = 1 ∑ n X i ,則 lim n → ∞ P ( S n u σ n ≤ x ) = Φ ( x ) \displaystyle \lim_{n \rightarrow \infty} P(\frac{S_nu}{\sigma \sqrt{n}} \leq x) = \Phi(x) n → ∞ lim P ( σ n S n u ≤ x ) = Φ ( x ) ,− ∞ < x < ∞ -\infty < x < \infty − ∞ < x < ∞
換句話說, S n σ n → d Z \displaystyle \frac{S_n}{\sigma \sqrt{n}} \xrightarrow{d} Z σ n S n d Z ,as n → ∞ n \rightarrow \infty n → ∞ ,其中 Z → N ( 0 , 1 ) Z \rightarrow N(0, 1) Z → N ( 0 , 1 )
或者 X ˉ = 1 n ∑ i = 1 n X i \displaystyle \bar{X} = \frac{1}{n} \sum_{i=1}^{n} X_i X ˉ = n 1 i = 1 ∑ n X i
S n σ n = 1 σ 1 n ∑ i = 1 n X i = n X n ˉ σ → d Z \displaystyle \frac{S_n}{\sigma \sqrt{n}} = \frac{1}{\sigma} \frac{1}{\sqrt{n}} \sum_{i=1}^{n} X_i = \frac{\sqrt{n} \bar{X_n}}{\sigma} \xrightarrow{d} Z σ n S n = σ 1 n 1 i = 1 ∑ n X i = σ n X n ˉ d Z
證明:
令 X 1 , X 2 , . . . , X n X_1, X_2, ..., X_n X 1 , X 2 , . . . , X n 是獨立同分佈的隨機變量,且 E ( X i ) = μ E(X_i) = \mu E ( X i ) = μ ,V a r ( X i ) = σ 2 Var(X_i) = \sigma^2 V a r ( X i ) = σ 2
假設共同 mgf ≔ M X ( t ) \coloneqq M_X(t) : = M X ( t ) 存在並定義在 0 0 0 的鄰域
不失一般性,假設 μ = 0 \mu = 0 μ = 0
Let Z n = n σ X n ˉ = 1 σ n ( X 1 + X 2 + . . . + X n ) \displaystyle Z_n = \frac{\sqrt{n}}{\sigma}\bar{X_n} = \frac{1}{\sigma \sqrt{n}}(X_1 + X_2 + ... + X_n) Z n = σ n X n ˉ = σ n 1 ( X 1 + X 2 + . . . + X n )
M Z n ( t ) = M 1 σ n ( X 1 + X 2 + . . . + X n ) ( t ) = M X ( t σ n ) n \displaystyle M_{Z_n}(t) = M_{\frac{1}{\sigma \sqrt{n}}(X_1 + X_2 + ... + X_n)}(t) = M_X(\frac{t}{\sigma \sqrt{n}})^n M Z n ( t ) = M σ n 1 ( X 1 + X 2 + . . . + X n ) ( t ) = M X ( σ n t ) n
Consider Taylor expansion of M X ( t ) M_X(t) M X ( t ) around t = 0 t = 0 t = 0
M X ( t ) = M X ( 0 ) + M X ′ ( 0 ) t + 1 2 t 2 M X ′ ′ ( 0 ) \displaystyle M_X(t) = M_X(0) + M_X'(0)t + \frac{1}{2}t^2 M_X''(0) M X ( t ) = M X ( 0 ) + M X ′ ( 0 ) t + 2 1 t 2 M X ′ ′ ( 0 ) where ϵ ( t ) \epsilon(t) ϵ ( t ) is the remainder term ϵ ( t ) t 2 → 0 \displaystyle \frac{\epsilon(t)}{t^2} \rightarrow 0 t 2 ϵ ( t ) → 0 as t → 0 t \rightarrow 0 t → 0
M X ′ ( 0 ) = 1 \displaystyle M_X'(0) = 1 M X ′ ( 0 ) = 1 , t M X ′ ( 0 ) = E ( X ) = 0 \displaystyle tM_X'(0) = E(X) = 0 t M X ′ ( 0 ) = E ( X ) = 0 , M X ′ ′ ( 0 ) = σ 2 \displaystyle M_X''(0) = \sigma^2 M X ′ ′ ( 0 ) = σ 2
Thus M X ( t σ n ) = 1 + 1 2 ( t σ n ) 2 σ 2 + ϵ ( t σ n ) = 1 + t 2 2 n + ϵ ( n ) \displaystyle M_{X}(\frac{t}{\sigma \sqrt{n}}) = 1 + \frac{1}{2}(\frac{t}{\sigma \sqrt{n}})^2 \sigma^2 + \epsilon(\frac{t}{\sigma \sqrt{n}}) = 1 + \frac{t^2}{2n} + \epsilon(n) M X ( σ n t ) = 1 + 2 1 ( σ n t ) 2 σ 2 + ϵ ( σ n t ) = 1 + 2 n t 2 + ϵ ( n )
M Z n ( t ) = M X ( t σ n ) n = ( 1 + t 2 2 n + ϵ ( n ) ) n → e t 2 2 \displaystyle M_{Z_n}(t) = M_X(\frac{t}{\sigma \sqrt{n}})^n = (1 + \frac{t^2}{2n} + \epsilon(n))^n \rightarrow e^{\frac{t^2}{2}} M Z n ( t ) = M X ( σ n t ) n = ( 1 + 2 n t 2 + ϵ ( n ) ) n → e 2 t 2 as n → ∞ n \rightarrow \infty n → ∞
The mgf of Z n Z_n Z n converges to e t 2 2 e^{\frac{t^2}{2}} e 2 t 2 , which is the mgf of N ( 0 , 1 ) N(0, 1) N ( 0 , 1 )
Z n → d N ( 0 , 1 ) \displaystyle Z_n \xrightarrow{d} N(0, 1) Z n d N ( 0 , 1 ) as n → ∞ n \rightarrow \infty n → ∞
⇒ S n σ n = n X n ˉ σ → d N ( 0 , 1 ) \Rightarrow \displaystyle \frac{S_n}{\sigma \sqrt{n}} = \frac{\sqrt{n} \bar{X_n}}{\sigma} \xrightarrow{d} N(0, 1) ⇒ σ n S n = σ n X n ˉ d N ( 0 , 1 ) as n → ∞ n \rightarrow \infty n → ∞