@@ -733,7 +733,9 @@ i.i.d. ←────────────|───────────
733733$$
734734P_{X_i | X^{i-1}}(x_i \mid x^{i-1}) = P_{X_i | X_{i-k}^{i-1}}(x_i \mid x_{i-k}^{i-1}),
735735$$
736- 이 성립하는 시퀀스는 ** k차 마르코프 과정(kth Order Markov Process)** 를 따른다.
736+
737+ 이 성립하는 시퀀스는 k차 마르코프 과정(kth Order Markov Process)를 따른다.
738+
737739
738740즉, k차 마르코프 과정을 따르는 시퀀스에 대해서
739741$$
@@ -952,6 +954,72 @@ $\Delta$가 작아질수록 $H(X^\Delta)$는 더 커지는데, 이는 $\Delta$
952954
953955### 2.6.5 Joint Differential Entropy
954956
957+ ## 6.5 Joint Differential Entropy
958+
959+ ** Theorem 61 (Chain Rule of Differential Entropy).**
960+
961+ $$
962+ h(X_1, X_2) = h(X_1) + h(X_2 \mid X_1)
963+ $$
964+
965+ 사실 discrete의 경우와 똑같다고 생각하면 된다.
966+
967+ ** Proof**
968+ $( X_1, X_2, X_3, \ldots, X_n )$ 들을 $X$ 라고 정의하자. 그러면 우리는 joint distributions에 대한 differential entropy을 정의할 수 있다.
969+
970+ 예를 들어 $X_1$ 와 $X_2$ 가 연속적인 확률변수라면,
971+
972+ $$
973+ h(X_1, X_2) = \mathbb{E} \left[ \log \frac{1}{f_{X_1,X_2}(X_1,X_2)} \right]
974+ $$
975+
976+ $$
977+ = \mathbb{E} \left[ \log \frac{1}{f_{X_1}(X_1)} \right] + \mathbb{E} \left[ \log \frac{1}{f_{X_2 \mid X_1}(X_2 \mid X_1)} \right]
978+ $$
979+
980+ $$
981+ = h(X_1) + h(X_2 \mid X_1)
982+ $$
983+
984+ 위와 같이 나타낼 수 있다. 이는 pmf(discrete)의 성질과 동일하다. 결합 확률은 주변확률과 조건부 확률의 곱으로 나타낼 수 있는데, pdf(continuous)에서도 동일하게 성립한다.
985+
986+ ** Theorem 62.**
987+ $X$ 와 $Y$ 가 독립이라는 것은 다음과 필요충분조건이다.
988+
989+ $$
990+ I(X; Y) = 0
991+ $$
992+
993+
994+ ** Theorem 63 (Data Processing Inequality).**
995+ \( X - Y - Z \) 가 Markov chain을 형성한다면
996+
997+ $$
998+ I(Z; Y) \geq I(Z; X)
999+ $$
1000+
1001+ ** Proof**
1002+ 조건은 엔트로피를 감소시키지않기 때문에
1003+
1004+ $$
1005+ I(Z; Y) = h(Z) - h(Z \mid Y)
1006+ $$
1007+
1008+ $$
1009+ = h(Z) - h(Z \mid Y, Z)
1010+ $$
1011+
1012+ $$
1013+ \geq h(Z) - h(Z \mid X)
1014+ $$
1015+
1016+ $$
1017+ = I(X; Z)
1018+ $$
1019+
1020+ 첫번째 등식은 Markov property $f(Z \mid Y) = f(Z \mid Y, X)$ 에서 나온다.
1021+
1022+
9551023### 2.6.6 Maximum Differential Entropy
9561024
9571025> ** 이산 변수에서 최대 엔트로피는 균등 분포에서 달성된다.**
0 commit comments