|
797 | 797 | P_{X_i | X^{i-1}}(x_i \mid x^{i-1}) = P_{X_i | X_{i-k}^{i-1}}(x_i \mid x_{i-k}^{i-1}), |
798 | 798 | $$ |
799 | 799 |
|
800 | | -이 성립하는 시퀀스는 **k차 마르코프 과정(kth Order Markov Process)**를 따른다. |
| 800 | + |
| 801 | +이 성립하는 시퀀스는 k차 마르코프 과정(kth Order Markov Process)를 따른다. |
| 802 | + |
| 803 | + |
801 | 804 |
|
802 | 805 | 즉, k차 마르코프 과정을 따르는 시퀀스에 대해서 |
803 | 806 |
|
@@ -1062,6 +1065,72 @@ $\Delta$가 작아질수록 $H(X^\Delta)$는 더 커지는데, 이는 $\Delta$ |
1062 | 1065 |
|
1063 | 1066 | ### 2.6.5 Joint Differential Entropy |
1064 | 1067 |
|
| 1068 | +## 6.5 Joint Differential Entropy |
| 1069 | + |
| 1070 | +**Theorem 61 (Chain Rule of Differential Entropy).** |
| 1071 | + |
| 1072 | +$$ |
| 1073 | +h(X_1, X_2) = h(X_1) + h(X_2 \mid X_1) |
| 1074 | +$$ |
| 1075 | + |
| 1076 | +사실 discrete의 경우와 똑같다고 생각하면 된다. |
| 1077 | + |
| 1078 | +**Proof** |
| 1079 | +$( X_1, X_2, X_3, \ldots, X_n )$ 들을 $X$ 라고 정의하자. 그러면 우리는 joint distributions에 대한 differential entropy을 정의할 수 있다. |
| 1080 | + |
| 1081 | +예를 들어 $X_1$ 와 $X_2$ 가 연속적인 확률변수라면, |
| 1082 | + |
| 1083 | +$$ |
| 1084 | +h(X_1, X_2) = \mathbb{E} \left[ \log \frac{1}{f_{X_1,X_2}(X_1,X_2)} \right] |
| 1085 | +$$ |
| 1086 | + |
| 1087 | +$$ |
| 1088 | += \mathbb{E} \left[ \log \frac{1}{f_{X_1}(X_1)} \right] + \mathbb{E} \left[ \log \frac{1}{f_{X_2 \mid X_1}(X_2 \mid X_1)} \right] |
| 1089 | +$$ |
| 1090 | + |
| 1091 | +$$ |
| 1092 | += h(X_1) + h(X_2 \mid X_1) |
| 1093 | +$$ |
| 1094 | + |
| 1095 | +위와 같이 나타낼 수 있다. 이는 pmf(discrete)의 성질과 동일하다. 결합 확률은 주변확률과 조건부 확률의 곱으로 나타낼 수 있는데, pdf(continuous)에서도 동일하게 성립한다. |
| 1096 | + |
| 1097 | +**Theorem 62.** |
| 1098 | +$X$ 와 $Y$ 가 독립이라는 것은 다음과 필요충분조건이다. |
| 1099 | + |
| 1100 | +$$ |
| 1101 | +I(X; Y) = 0 |
| 1102 | +$$ |
| 1103 | + |
| 1104 | + |
| 1105 | +**Theorem 63 (Data Processing Inequality).** |
| 1106 | +\( X - Y - Z \) 가 Markov chain을 형성한다면 |
| 1107 | + |
| 1108 | +$$ |
| 1109 | +I(Z; Y) \geq I(Z; X) |
| 1110 | +$$ |
| 1111 | + |
| 1112 | +**Proof** |
| 1113 | +조건은 엔트로피를 감소시키지않기 때문에 |
| 1114 | + |
| 1115 | +$$ |
| 1116 | +I(Z; Y) = h(Z) - h(Z \mid Y) |
| 1117 | +$$ |
| 1118 | + |
| 1119 | +$$ |
| 1120 | += h(Z) - h(Z \mid Y, Z) |
| 1121 | +$$ |
| 1122 | + |
| 1123 | +$$ |
| 1124 | +\geq h(Z) - h(Z \mid X) |
| 1125 | +$$ |
| 1126 | + |
| 1127 | +$$ |
| 1128 | += I(X; Z) |
| 1129 | +$$ |
| 1130 | + |
| 1131 | +첫번째 등식은 Markov property $f(Z \mid Y) = f(Z \mid Y, X)$ 에서 나온다. |
| 1132 | + |
| 1133 | + |
1065 | 1134 | ### 2.6.6 Maximum Differential Entropy |
1066 | 1135 |
|
1067 | 1136 | > **이산 변수에서 최대 엔트로피는 균등 분포에서 달성된다.** |
|
0 commit comments