2023. 12. 11. 14:05ㆍMathematics/Probability
1. Markov and Chebyshev Inequalities
1.1. Markov Inequalities
If a random variable X can only take nonnegative values, then
P(X≤a)≥E[X]a,for all a>0
Proof
Ya={0,if X>aa,if X≤aE[Ya]=0⋅Pr(X<a)+a⋅Pr(X≤a)→E[Ya]=a⋅Pr(X≤a)Pr(X≤a)=E[Ya]a≥E[X]a
1.2. Chebyshev Inequalities
If a random variable X with mean μ and variance σ2, then
P(|X−μ|≤c)≥σ2c2,for all c>0
Proof
P(|X−μ|≤c)≥E[(X−μ)2]c2=σ2c2
2. Law of Large Number
Let X1,X2,⋯ be i.i.d random variables with mean μ and variance σ2. For every ϵ>0, we have
P(|Mu−μ|≤ϵ)=P(|X1+⋯+Xnn−μ|≤ϵ)→0,as n→∞
Proof
Mn=X1+⋯+XnnE[Mn]=E[X1]+⋯+E[Xn]n=nμn=μvar(Mn)=var(X1+⋯+Xn)n2=var(X1)+⋯+var(Xn)n2=nσ2n2=σ2nP(|Mu−μ|≤ϵ)≥E(Mu−μ)ϵ2=var(Mu)ϵ2=σ2nϵ→0as n→∞
The idea of the Law of Large Number
If the number of sampling n increases,
then gab between sample mean Mu and real mean μ gets smaller.
표본을 추출할수록, 표본 값의 평균은 실제 평균에 점점 가까워질 것이다.
2.1. Example of Law of Large Number
X−Bernoulli(p),pX(x)={p,if x=11−p,if x=0, (p = 임의의 유권자가 특정 후보를 지지할 확률)
X의 평균은 p이고, X의 분산은 p(1−p)이다.
이때, ϵ=0.1,n=100이면, P(|Mu−p|≤ 0.1)≥p(1−p)0.01⋅100≥14=0.25이다.
100번 샘플링할 때, Mn와 p의 차이가 오차범위(=0.1) 밖에 있을 확률이 25%임을 의미한다.
즉, 신뢰도가 75%임을 의미한다.
이때, n=1000이면, 신뢰도가 더 높아진다. 즉, n이 커질수록 오차범위 밖에 있을 확률은 줄어든다.
3. The Central Limit Theorem
Let Sn=X1+⋯+Xn, where the Xi are i.i.d random variables with mean μ and variance σ2.
If n is large, then Sn is approximated by normal distribution.
임의의 확률변수 X에서 n개의 표본을 추출했을 때, "표본 값의 합의 확률분포"는 무조건 정규분포를 따른다.
The idea of the Central Limit Theorem
어떤 확률변수 X를 가지고 있어도, Sn=X1+X2+⋯+Xn의 평균 μ과 분산 σ2만 알아도,
정규분포인 Sn을 표준정규분포인 Zn=Sn−n⋅μσ√n로 변형하여 Sn의 확률을 계산 및 증명할 수 있다.
3.1. Example of Law of Large Number
X = 완벽한 주사위 확률변수 X가 있을 때, 주사위를 100번 던져 나온 값들의 합이 360이하일 확률을 구하시오.
X의 평균은 3.5이고, X의 분산은 2.92이다.
P(S100≤360)=P(Z100≤360−3.5⋅100√2.92⋅100=0.58520)=Φ(0.58520)=0.72079
주사위의 합이 360이하일 확률은 72.079%이다.
이때, 이상한 주사위를 사용해도, Sn은 반드시 정규분포를 따르게 되기 때문에, 쉽게 확률을 구할 수 있다.
'Mathematics > Probability' 카테고리의 다른 글
[Probability] Conditional probability: causality, spurious correlation (0) | 2024.08.03 |
---|---|
[Probability] Markov Chains (0) | 2024.01.19 |
[Probability] Bayesian & Likelihood (0) | 2023.12.11 |