Skip to content

Commit ba36f64

Browse files
committed
add chapter 4.3 and 5.3
1 parent 2b314c8 commit ba36f64

1 file changed

Lines changed: 46 additions & 0 deletions

File tree

_posts/2025-08-04-02.Information-Theory.md

Lines changed: 46 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -245,6 +245,40 @@ $H(Y4|Y1=1)$은 $3/4\log4/3+1/4\log4$이다.
245245

246246
### 2.4.3 Mutual Information
247247

248+
![alt text](image.png)
249+
250+
>**상호 정보량(Mutual Information)이란?**
251+
252+
상호 정보량은 엔트로피와 조건부 엔트로피의 차이로 정의된다.
253+
254+
$$
255+
I(X; Y) = H(X) - H(X \mid Y), \quad I(Y; X) = H(Y) - H(Y \mid X)
256+
$$
257+
258+
조건부 엔트로피와 상호 정보량의 관계는 위와 같은 도식으로도 표현 가능하다.
259+
특히 $I(X; X)$의 경우 아래와 같이 계산되며, 결과적으로 $H(X)$와 같다.
260+
261+
$$
262+
\begin{align*}
263+
I(X; X) &= H(X) - H(X \mid X) \\
264+
&= H(X)
265+
\end{align*}
266+
$$
267+
268+
---
269+
270+
만약 $X$와 $Y$가 서로 **독립**이라면, 위 도식 혹은 정의에 의해 $$I(X; Y) = 0$$임을 보일 수 있다.
271+
또한, $I(X; Y) = 0$이면 $X$와 $Y$는 독립이다.
272+
273+
상호 정보량은 다음과 같이 **KL divergence**로도 표현된다.
274+
275+
$$
276+
I(X; Y) = D(p_{X,Y} \parallel p_X p_Y)
277+
$$
278+
279+
위 식에서 볼 수 있듯이, 상호 정보량은 두 확률 분포 간의 거리 또는 발산 정도를 의미한다.
280+
$I(X; Y) = 0$이라면, $p_{X,Y} = p_X p_Y$가 되어 $X$와 $Y$는 독립이 된다.
281+
248282
### 2.4.4 Properties of Mutual Information
249283

250284
# 2.4.4 상호정보량의 성질
@@ -722,6 +756,18 @@ i.i.d. ←────────────|───────────
722756

723757
### 2.5.3 kth Order Markov Process
724758

759+
확률 과정 X에 대해,
760+
$$
761+
P_{X_i | X^{i-1}}(x_i \mid x^{i-1}) = P_{X_i | X_{i-k}^{i-1}}(x_i \mid x_{i-k}^{i-1}),
762+
$$
763+
이 성립하는 시퀀스는 **k차 마르코프 과정(kth Order Markov Process)**를 따릅니다.
764+
765+
즉, k차 마르코프 과정을 따르는 시퀀스에 대해서
766+
$$
767+
P_{X^n}(x^n) = \prod_{i=1}^{n} P_{X_i \mid X_{i-k}^{i-1}}(x_i \mid x_{i-k}^{i-1})
768+
$$
769+
이 성립합니다.
770+
725771
### 2.5.4 Stationary Distribution
726772

727773
### 2.5.5 Stationary Markov Process

0 commit comments

Comments
 (0)