여기서는 예전에 설명했던 Random Variable의 종류들에 대한 Expectation과 Variance가 어떻게 되는지만 간단하게 말해줄 것이다. 단, 증명은 단순히 전개하면 알 수 있으므로 생략한다.
두 개의 Discrete Random Variable $X,Y$가 같은 시행에 연관되어 있을 때, Joint PMF는 다음과 같이 정의될 수 있다.
$$ p_{X,Y}(x,y) = P(X=x, Y=y) $$
$P(X=x, Y=y)$는 $P(X=x\ and\ Y=y)$나 $P({X=x} \cap {Y=y})$와 같은 뜻이다.
Joint PMF는 하나의 시행에서 여러 속성을 통해 결과를 표현할 때 유용하다. 예를 들어 $X$는 키, $Y$는 성적으로 두고 학생을 랜덤하게 뽑는 경우를 $P(X=160, Y=80)$과 같이 표현할 수 있다.
Joint PMF $p_{X, Y}(x, y)$에서 각각의 랜덤 변수 $X,Y$
에 대한 PMF를 뽑아내면 그것을 Marginal PMF라 부르고 다음과 같이 구할 수 있다.
$$p_X(x) = \displaystyle \sum_y p_{X,Y}(x,y)$$
$$p_Y(y) = \displaystyle \sum_x p_{X,Y}(x,y)$$
어떤 $x$ 또는 $y$에 대해 나머지 랜덤 변수의 모든 경우 확률의 합이다.
여기서는 이전 포스팅의 $E[g(X)] = \displaystyle \sum_x g(x)p_X(x)$를 Joint PMF에 대한 것으로 확장한 것이다. 형태는 같고 단지 랜덤 변수 $Y$ 가 추가되었을 뿐이다. 아래는 확장된 식이다.
$$E[g(X, Y)] = \displaystyle \sum_{x, y} g(x, y)p_{X, Y}(x, y)$$
$g(X, Y) = aX+bY+c$인 경우, $E[g(X, Y)]$는 지난 번에 이야기한 선형성에 의해 다음과 같다.
$$E[g(X, Y)] = aE[X] + bE[Y] + c$$
[확률과 통계] 2.7 Independence (0) | 2020.10.24 |
---|---|
[확률과 통계] 2.6 Conditioning (0) | 2020.10.24 |
[확률과 통계] 2.3 Functions of Random Variables & 2.4 Expectation, Mean, and Variance (0) | 2020.10.24 |
[확률과 통계] 2.1 Basic Concepts & 2.2 Probability Mass Function (0) | 2020.10.24 |
[확률과 통계] 1.5 Independence (0) | 2020.10.24 |
댓글 영역