Skip to content

Commit a5bc3df

Browse files
committed
info-theory ch5 and 6
1 parent 71770da commit a5bc3df

1 file changed

Lines changed: 68 additions & 2 deletions

File tree

_posts/2025-08-04-02.Information-Theory.md

Lines changed: 68 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -731,13 +731,13 @@ i.i.d. ←────────────|───────────
731731
$$
732732
P_{X_i | X^{i-1}}(x_i \mid x^{i-1}) = P_{X_i | X_{i-k}^{i-1}}(x_i \mid x_{i-k}^{i-1}),
733733
$$
734-
이 성립하는 시퀀스는 **k차 마르코프 과정(kth Order Markov Process)**를 따릅니다.
734+
이 성립하는 시퀀스는 k차 마르코프 과정(kth Order Markov Process)를 따른다.
735735

736736
즉, k차 마르코프 과정을 따르는 시퀀스에 대해서
737737
$$
738738
P_{X^n}(x^n) = \prod_{i=1}^{n} P_{X_i \mid X_{i-k}^{i-1}}(x_i \mid x_{i-k}^{i-1})
739739
$$
740-
성립합니다.
740+
성립한다.
741741

742742
### 2.5.4 Stationary Distribution
743743

@@ -755,4 +755,70 @@ $$
755755

756756
### 2.6.5 Joint Differential Entropy
757757

758+
## 6.5 Joint Differential Entropy
759+
760+
**Theorem 61 (Chain Rule of Differential Entropy).**
761+
762+
$$
763+
h(X_1, X_2) = h(X_1) + h(X_2 \mid X_1)
764+
$$
765+
766+
사실 discrete의 경우와 똑같다고 생각하면 된다.
767+
768+
**Proof**
769+
$( X_1, X_2, X_3, \ldots, X_n )$ 들을 $X$ 라고 정의하자. 그러면 우리는 joint distributions에 대한 differential entropy을 정의할 수 있다.
770+
771+
예를 들어 $X_1$ 와 $X_2$ 가 연속적인 확률변수라면,
772+
773+
$$
774+
h(X_1, X_2) = \mathbb{E} \left[ \log \frac{1}{f_{X_1,X_2}(X_1,X_2)} \right]
775+
$$
776+
777+
$$
778+
= \mathbb{E} \left[ \log \frac{1}{f_{X_1}(X_1)} \right] + \mathbb{E} \left[ \log \frac{1}{f_{X_2 \mid X_1}(X_2 \mid X_1)} \right]
779+
$$
780+
781+
$$
782+
= h(X_1) + h(X_2 \mid X_1)
783+
$$
784+
785+
위와 같이 나타낼 수 있다. 이는 pmf(discrete)의 성질과 동일하다. 결합 확률은 주변확률과 조건부 확률의 곱으로 나타낼 수 있는데, pdf(continuous)에서도 동일하게 성립한다.
786+
787+
**Theorem 62.**
788+
$X$ 와 $Y$ 가 독립이라는 것은 다음과 필요충분조건이다.
789+
790+
$$
791+
I(X; Y) = 0
792+
$$
793+
794+
795+
**Theorem 63 (Data Processing Inequality).**
796+
\( X - Y - Z \) 가 Markov chain을 형성한다면
797+
798+
$$
799+
I(Z; Y) \geq I(Z; X)
800+
$$
801+
802+
**Proof**
803+
조건은 엔트로피를 감소시키지않기 때문에
804+
805+
$$
806+
I(Z; Y) = h(Z) - h(Z \mid Y)
807+
$$
808+
809+
$$
810+
= h(Z) - h(Z \mid Y, Z)
811+
$$
812+
813+
$$
814+
\geq h(Z) - h(Z \mid X)
815+
$$
816+
817+
$$
818+
= I(X; Z)
819+
$$
820+
821+
첫번째 등식은 Markov property $f(Z \mid Y) = f(Z \mid Y, X)$ 에서 나온다.
822+
823+
758824
### 2.6.6 Maximum Differential Entropy

0 commit comments

Comments
 (0)