Skip to content

Commit 029dbab

Browse files
committed
Add markdown summary for chapter 4.3
1 parent 4a5cad6 commit 029dbab

2 files changed

Lines changed: 34 additions & 0 deletions

File tree

_posts/2019-04-29-license.md

Lines changed: 34 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -184,6 +184,40 @@ $H(Y4|Y1=1)$은 $3/4\log4/3+1/4\log4$이다.
184184

185185
### 2.4.3 Mutual Information
186186

187+
![alt text](image.png)
188+
189+
>**상호 정보량(Mutual Information)이란?**
190+
191+
상호 정보량은 엔트로피와 조건부 엔트로피의 차이로 정의된다.
192+
193+
$$
194+
I(X; Y) = H(X) - H(X \mid Y), \quad I(Y; X) = H(Y) - H(Y \mid X)
195+
$$
196+
197+
조건부 엔트로피와 상호 정보량의 관계는 위와 같은 도식으로도 표현 가능하다.
198+
특히 $I(X; X)$의 경우 아래와 같이 계산되며, 결과적으로 $H(X)$와 같다.
199+
200+
$$
201+
\begin{align*}
202+
I(X; X) &= H(X) - H(X \mid X) \\
203+
&= H(X)
204+
\end{align*}
205+
$$
206+
207+
---
208+
209+
만약 $X$와 $Y$가 서로 **독립**이라면, 위 도식 혹은 정의에 의해 $$I(X; Y) = 0$$임을 보일 수 있다.
210+
또한, $I(X; Y) = 0$이면 $X$와 $Y$는 독립이다.
211+
212+
상호 정보량은 다음과 같이 **KL divergence**로도 표현된다.
213+
214+
$$
215+
I(X; Y) = D(p_{X,Y} \parallel p_X p_Y)
216+
$$
217+
218+
위 식에서 볼 수 있듯이, 상호 정보량은 두 확률 분포 간의 거리 또는 발산 정도를 의미한다.
219+
$I(X; Y) = 0$이라면, $p_{X,Y} = p_X p_Y$가 되어 $X$와 $Y$는 독립이 된다.
220+
187221
### 2.4.4 Properties of Mutual Information
188222

189223
### 2.4.5 Conditional Mutual Information

_posts/image.png

16.3 KB
Loading

0 commit comments

Comments
 (0)