Skip to content

Commit 37ecbfd

Browse files
committed
ch 6.4 summarize
1 parent 78bbb2f commit 37ecbfd

1 file changed

Lines changed: 36 additions & 0 deletions

File tree

_posts/2025-08-04-02.Information-Theory.md

Lines changed: 36 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -949,6 +949,42 @@ $\Delta$가 작아질수록 $H(X^\Delta)$는 더 커지는데, 이는 $\Delta$
949949
예를 들어 $U \sim \mathrm{Unif}(0, 1/2)$라면 $h(U) = -\log 2$가 된다. 이는 미분 엔트로피가 $\log\Delta$ 항을 포함하여 정규화되기 때문이다.
950950

951951
### 2.6.4 Properties of Differential Entropy
952+
**정리 60 (상호정보량의 스케일 불변성)**
953+
**정리.**
954+
$$
955+
I(aX;Y) = I(X;Y)
956+
$$
957+
958+
**증명.**
959+
$$
960+
\begin{aligned}
961+
I(aX;Y) &= h(aX) - h(aX \mid Y) \\
962+
&= \big( h(X) + \log |a| \big) - \big( h(X \mid Y) + \log |a| \big) \\
963+
&= h(X) - h(X \mid Y) \\
964+
&= I(X;Y)
965+
\end{aligned}
966+
$$
967+
968+
---
969+
970+
**비고.**
971+
수식 (3)에서,
972+
$$
973+
\begin{aligned}
974+
h(aX \mid Y)
975+
&= \mathbb{E} \left[ \log \frac{1}{f_{X\mid Y}(aX \mid Y)} \right] \\
976+
&= \mathbb{E} \left[ \log \frac{1}{f_{X\mid Y}(X \mid Y)} \right] + \log |a|
977+
\end{aligned}
978+
$$
979+
980+
---
981+
982+
**설명.**
983+
- 이산(discrete) 변수의 경우, 1:1 변환 \( f(x) \)를 해도 엔트로피는 변하지 않는다.
984+
- 연속(continuous) 변수의 경우, 스케일 변환 \( X \to aX \) 시 차분 엔트로피는 \(\log |a|\)만큼 변한다.
985+
- 하지만 상호정보량은
986+
\( h(aX) \)\( h(aX\mid Y) \) 모두 \(\log |a|\)가 더해지므로 서로 상쇄되어 변하지 않는다.
987+
- 즉, 단위 변화나 크기 스케일 변화에 대해서도 두 변수 간의 정보량은 동일하게 유지된다.
952988

953989
### 2.6.5 Joint Differential Entropy
954990

0 commit comments

Comments
 (0)