Skip to content

Commit ad20632

Browse files
committed
Enhance content on random processes in license.md by adding structured explanations, examples, and a summary table to clarify the relationship between i.i.d. and 1st-order Markov processes.
1 parent 2824f29 commit ad20632

1 file changed

Lines changed: 77 additions & 9 deletions

File tree

_posts/2019-04-29-license.md

Lines changed: 77 additions & 9 deletions
Original file line numberDiff line numberDiff line change
@@ -47,7 +47,7 @@ long contents .....
4747

4848
## 2.5 Random Process
4949

50-
**확률 과정(Random Process)이란?**
50+
> **확률 과정(Random Process)이란?**
5151
5252
확률 과정은 다음과 같이 정의됩니다:
5353

@@ -82,14 +82,13 @@ $$
8282

8383
---
8484

85-
**현실은 대부분 i.i.d.가 아님**
86-
87-
예: 텍스트
88-
89-
- "progra_ing"이라는 단어에서 빈칸에 'm'이 올 가능성이 높다고 판단할 수 있음
90-
- 이는 앞뒤 문맥이 영향을 주기 때문 → 요소들 간에 **의존성 존재**
91-
92-
**결론**: 현실의 데이터는 보통 독립적이지 않고, 앞뒤 요소에 영향을 받습니다.
85+
> [!warning] **현실은 대부분 i.i.d.가 아님**
86+
> 예: 텍스트
87+
>
88+
> - "progra_ing"이라는 단어에서 빈칸에 'm'이 올 가능성이 높다고 판단할 수 있음
89+
> - 이는 앞뒤 문맥이 영향을 주기 때문 → 요소들 간에 **의존성 존재**
90+
>
91+
> $\therefore$ 현실의 데이터는 보통 독립적이지 않고, 앞뒤 요소에 영향을 받습니다.
9392
9493
i.i.d.가 아닌 경우 사용하는 모델들:
9594

@@ -99,6 +98,75 @@ i.i.d.가 아닌 경우 사용하는 모델들:
9998

10099
### 2.5.1 What is Markovian?
101100

101+
i.i.d. ←────────────|────────────→ Practical
102+
**1st-order Markov**
103+
104+
**1차 마르코프 체인(first-order Markov chain)의 개념은, i.i.d. 가정과 실제 현실에서의 데이터 구조 사이를 연결해주는 중간 다리 역할을 합니다.**
105+
"마르코프(Markov)"라는 말은 **1차 상관성(first-order correlation)**이 있다는 의미입니다.
106+
즉, 현재 상태는 **직전 상태에만 의존**하고, 그 이전의 상태에는 의존하지 않는다는 것입니다.
107+
108+
---
109+
110+
**예제 41: 랜덤 워크(Random Walk)**
111+
112+
확률 과정 $X = \{X_n\}$를 다음과 같이 정의합니다:
113+
114+
초기 상태:
115+
116+
$$
117+
X_0 = 0
118+
$$
119+
120+
이후 각 $n$에 대해:
121+
122+
$$
123+
X_n =
124+
\begin{cases}
125+
X_{n-1} + 1 & \text{with probability } \frac{1}{2} \\
126+
X_{n-1} - 1 & \text{with probability } \frac{1}{2}
127+
\end{cases}
128+
$$
129+
130+
즉, 현재 위치에서 매 스텝마다 동전 던지기로 1만큼 앞 또는 뒤로 이동하는 무작위 행보입니다.
131+
132+
예를 들어 다음과 같은 정보가 주어졌다고 해 봅시다:
133+
134+
$$
135+
X_{101} = 51
136+
$$
137+
138+
이때 $X_{102}$는 다음 두 가지 중 하나입니다:
139+
140+
- $X_{102} = 50$
141+
- $X_{102} = 52$
142+
143+
추가로 $X_{100} = 50$이라는 정보를 안다고 해도,
144+
$X_{102}$가 어떻게 될지를 예측하는 데 **아무런 도움이 되지 않습니다.**
145+
146+
이것은 **1차 마르코프 체인의 특성**과 정확히 일치합니다:
147+
148+
> **미래 상태는 현재 상태에만 의존하며, 과거는 무시됩니다.**
149+
150+
---
151+
152+
**핵심 요약**
153+
154+
| 구분 | 설명 |
155+
| -------------- | ---------------------------------------------------------------- |
156+
| i.i.d. | 각 값이 서로 독립이고 동일한 분포를 가짐 |
157+
| 1차 마르코프 | 현재 상태는 바로 직전 상태에만 의존함 |
158+
| 현실 데이터 | 대부분 i.i.d.는 아니며, 1차 마르코프 모델이 더 현실적 |
159+
| 랜덤 워크 예시 | $X_{n}$은 $X_{n-1}$만으로 결정되며, $X_{n-2}$는 영향을 주지 않음 |
160+
161+
---
162+
163+
**요약 구조**
164+
165+
i.i.d. ←────────────|────────────→ 현실 데이터
166+
          ↑
167+
        1st-order Markov
168+
   (현재 상태는 직전 상태에만 의존)
169+
102170
### 2.5.2 1st Order Markov Process
103171

104172
### 2.5.3 kth Order Markov Process

0 commit comments

Comments
 (0)