Skip to content

Commit 7d123e8

Browse files
authored
Merge branch 'master' into feature/5.4
2 parents 3125d94 + e911568 commit 7d123e8

1 file changed

Lines changed: 70 additions & 1 deletion

File tree

_posts/2025-08-04-02.Information-Theory.md

Lines changed: 70 additions & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -797,7 +797,10 @@ $$
797797
P_{X_i | X^{i-1}}(x_i \mid x^{i-1}) = P_{X_i | X_{i-k}^{i-1}}(x_i \mid x_{i-k}^{i-1}),
798798
$$
799799

800-
이 성립하는 시퀀스는 **k차 마르코프 과정(kth Order Markov Process)**를 따른다.
800+
801+
이 성립하는 시퀀스는 k차 마르코프 과정(kth Order Markov Process)를 따른다.
802+
803+
801804

802805
즉, k차 마르코프 과정을 따르는 시퀀스에 대해서
803806

@@ -1062,6 +1065,72 @@ $\Delta$가 작아질수록 $H(X^\Delta)$는 더 커지는데, 이는 $\Delta$
10621065

10631066
### 2.6.5 Joint Differential Entropy
10641067

1068+
## 6.5 Joint Differential Entropy
1069+
1070+
**Theorem 61 (Chain Rule of Differential Entropy).**
1071+
1072+
$$
1073+
h(X_1, X_2) = h(X_1) + h(X_2 \mid X_1)
1074+
$$
1075+
1076+
사실 discrete의 경우와 똑같다고 생각하면 된다.
1077+
1078+
**Proof**
1079+
$( X_1, X_2, X_3, \ldots, X_n )$ 들을 $X$ 라고 정의하자. 그러면 우리는 joint distributions에 대한 differential entropy을 정의할 수 있다.
1080+
1081+
예를 들어 $X_1$ 와 $X_2$ 가 연속적인 확률변수라면,
1082+
1083+
$$
1084+
h(X_1, X_2) = \mathbb{E} \left[ \log \frac{1}{f_{X_1,X_2}(X_1,X_2)} \right]
1085+
$$
1086+
1087+
$$
1088+
= \mathbb{E} \left[ \log \frac{1}{f_{X_1}(X_1)} \right] + \mathbb{E} \left[ \log \frac{1}{f_{X_2 \mid X_1}(X_2 \mid X_1)} \right]
1089+
$$
1090+
1091+
$$
1092+
= h(X_1) + h(X_2 \mid X_1)
1093+
$$
1094+
1095+
위와 같이 나타낼 수 있다. 이는 pmf(discrete)의 성질과 동일하다. 결합 확률은 주변확률과 조건부 확률의 곱으로 나타낼 수 있는데, pdf(continuous)에서도 동일하게 성립한다.
1096+
1097+
**Theorem 62.**
1098+
$X$ 와 $Y$ 가 독립이라는 것은 다음과 필요충분조건이다.
1099+
1100+
$$
1101+
I(X; Y) = 0
1102+
$$
1103+
1104+
1105+
**Theorem 63 (Data Processing Inequality).**
1106+
\( X - Y - Z \) 가 Markov chain을 형성한다면
1107+
1108+
$$
1109+
I(Z; Y) \geq I(Z; X)
1110+
$$
1111+
1112+
**Proof**
1113+
조건은 엔트로피를 감소시키지않기 때문에
1114+
1115+
$$
1116+
I(Z; Y) = h(Z) - h(Z \mid Y)
1117+
$$
1118+
1119+
$$
1120+
= h(Z) - h(Z \mid Y, Z)
1121+
$$
1122+
1123+
$$
1124+
\geq h(Z) - h(Z \mid X)
1125+
$$
1126+
1127+
$$
1128+
= I(X; Z)
1129+
$$
1130+
1131+
첫번째 등식은 Markov property $f(Z \mid Y) = f(Z \mid Y, X)$ 에서 나온다.
1132+
1133+
10651134
### 2.6.6 Maximum Differential Entropy
10661135

10671136
> **이산 변수에서 최대 엔트로피는 균등 분포에서 달성된다.**

0 commit comments

Comments
 (0)