@@ -245,6 +245,40 @@ $H(Y4|Y1=1)$은 $3/4\log4/3+1/4\log4$이다.
245245
246246### 2.4.3 Mutual Information
247247
248+ ![ alt text] ( image.png )
249+
250+ > ** 상호 정보량(Mutual Information)이란?**
251+
252+ 상호 정보량은 엔트로피와 조건부 엔트로피의 차이로 정의된다.
253+
254+ $$
255+ I(X; Y) = H(X) - H(X \mid Y), \quad I(Y; X) = H(Y) - H(Y \mid X)
256+ $$
257+
258+ 조건부 엔트로피와 상호 정보량의 관계는 위와 같은 도식으로도 표현 가능하다.
259+ 특히 $I(X; X)$의 경우 아래와 같이 계산되며, 결과적으로 $H(X)$와 같다.
260+
261+ $$
262+ \begin{align*}
263+ I(X; X) &= H(X) - H(X \mid X) \\
264+ &= H(X)
265+ \end{align*}
266+ $$
267+
268+ ---
269+
270+ 만약 $X$와 $Y$가 서로 ** 독립** 이라면, 위 도식 혹은 정의에 의해 $$ I(X; Y) = 0 $$ 임을 보일 수 있다.
271+ 또한, $I(X; Y) = 0$이면 $X$와 $Y$는 독립이다.
272+
273+ 상호 정보량은 다음과 같이 ** KL divergence** 로도 표현된다.
274+
275+ $$
276+ I(X; Y) = D(p_{X,Y} \parallel p_X p_Y)
277+ $$
278+
279+ 위 식에서 볼 수 있듯이, 상호 정보량은 두 확률 분포 간의 거리 또는 발산 정도를 의미한다.
280+ $I(X; Y) = 0$이라면, $p_ {X,Y} = p_X p_Y$가 되어 $X$와 $Y$는 독립이 된다.
281+
248282### 2.4.4 Properties of Mutual Information
249283
250284** 정리 36 (데이터 처리 부등식 I)**
@@ -693,6 +727,18 @@ i.i.d. ←────────────|───────────
693727
694728### 2.5.3 kth Order Markov Process
695729
730+ 확률 과정 X에 대해,
731+ $$
732+ P_{X_i | X^{i-1}}(x_i \mid x^{i-1}) = P_{X_i | X_{i-k}^{i-1}}(x_i \mid x_{i-k}^{i-1}),
733+ $$
734+ 이 성립하는 시퀀스는 ** k차 마르코프 과정(kth Order Markov Process)** 를 따릅니다.
735+
736+ 즉, k차 마르코프 과정을 따르는 시퀀스에 대해서
737+ $$
738+ P_{X^n}(x^n) = \prod_{i=1}^{n} P_{X_i \mid X_{i-k}^{i-1}}(x_i \mid x_{i-k}^{i-1})
739+ $$
740+ 이 성립합니다.
741+
696742### 2.5.4 Stationary Distribution
697743
698744### 2.5.5 Stationary Markov Process
0 commit comments