Skip to content

Commit 00a9476

Browse files
committed
Refactor Information Theory chapter by removing redundant lines and improving formatting for clarity in sections on Markov processes and joint differential entropy.
1 parent b717d3d commit 00a9476

File tree

1 file changed

+6
-13
lines changed

1 file changed

+6
-13
lines changed

_posts/2025-08-04-02.Information-Theory.md

Lines changed: 6 additions & 13 deletions
Original file line numberDiff line numberDiff line change
@@ -797,11 +797,8 @@ $$
797797
P_{X_i | X^{i-1}}(x_i \mid x^{i-1}) = P_{X_i | X_{i-k}^{i-1}}(x_i \mid x_{i-k}^{i-1}),
798798
$$
799799

800-
801800
이 성립하는 시퀀스는 k차 마르코프 과정(kth Order Markov Process)를 따른다.
802801

803-
804-
805802
즉, k차 마르코프 과정을 따르는 시퀀스에 대해서
806803

807804
$$
@@ -1158,12 +1155,10 @@ $\Delta$가 작아질수록 $H(X^\Delta)$는 더 커지는데, 이는 $\Delta$
11581155

11591156
### 2.6.5 Joint Differential Entropy
11601157

1161-
## 6.5 Joint Differential Entropy
1162-
11631158
**Theorem 61 (Chain Rule of Differential Entropy).**
11641159

11651160
$$
1166-
h(X_1, X_2) = h(X_1) + h(X_2 \mid X_1)
1161+
h(X_1, X_2) = h(X_1) + h(X_2 \mid X_1)
11671162
$$
11681163

11691164
사실 discrete의 경우와 똑같다고 생각하면 된다.
@@ -1174,15 +1169,15 @@ $( X_1, X_2, X_3, \ldots, X_n )$ 들을 $X$ 라고 정의하자. 그러면 우
11741169
예를 들어 $X_1$ 와 $X_2$ 가 연속적인 확률변수라면,
11751170

11761171
$$
1177-
h(X_1, X_2) = \mathbb{E} \left[ \log \frac{1}{f_{X_1,X_2}(X_1,X_2)} \right]
1172+
h(X_1, X_2) = \mathbb{E} \left[ \log \frac{1}{f_{X_1,X_2}(X_1,X_2)} \right]
11781173
$$
11791174

11801175
$$
1181-
= \mathbb{E} \left[ \log \frac{1}{f_{X_1}(X_1)} \right] + \mathbb{E} \left[ \log \frac{1}{f_{X_2 \mid X_1}(X_2 \mid X_1)} \right]
1176+
= \mathbb{E} \left[ \log \frac{1}{f_{X_1}(X_1)} \right] + \mathbb{E} \left[ \log \frac{1}{f_{X_2 \mid X_1}(X_2 \mid X_1)} \right]
11821177
$$
11831178

11841179
$$
1185-
= h(X_1) + h(X_2 \mid X_1)
1180+
= h(X_1) + h(X_2 \mid X_1)
11861181
$$
11871182

11881183
위와 같이 나타낼 수 있다. 이는 pmf(discrete)의 성질과 동일하다. 결합 확률은 주변확률과 조건부 확률의 곱으로 나타낼 수 있는데, pdf(continuous)에서도 동일하게 성립한다.
@@ -1191,15 +1186,14 @@ $$
11911186
$X$ 와 $Y$ 가 독립이라는 것은 다음과 필요충분조건이다.
11921187

11931188
$$
1194-
I(X; Y) = 0
1189+
I(X; Y) = 0
11951190
$$
11961191

1197-
11981192
**Theorem 63 (Data Processing Inequality).**
11991193
\( X - Y - Z \) 가 Markov chain을 형성한다면
12001194

12011195
$$
1202-
I(Z; Y) \geq I(Z; X)
1196+
I(Z; Y) \geq I(Z; X)
12031197
$$
12041198

12051199
**Proof**
@@ -1223,7 +1217,6 @@ $$
12231217

12241218
첫번째 등식은 Markov property $f(Z \mid Y) = f(Z \mid Y, X)$ 에서 나온다.
12251219

1226-
12271220
### 2.6.6 Maximum Differential Entropy
12281221

12291222
> **이산 변수에서 최대 엔트로피는 균등 분포에서 달성된다.**

0 commit comments

Comments
 (0)