You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
refactor: downshift all markdown heading levels by one
Shift h1→h2, h2→h3, h3→h4, h4→h5, h5→h6 across all content/*.md files
to align with the convention that page titles serve as h1.
Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
Copy file name to clipboardExpand all lines: content/ai-coding-productivity.md
+1-1Lines changed: 1 addition & 1 deletion
Display the source diff
Display the rich diff
Original file line number
Diff line number
Diff line change
@@ -1,4 +1,4 @@
1
-
## 연구 리포트
1
+
###연구 리포트
2
2
-[Anthropic 2026 Agentic Coding Trends Report](https://claude.com/blog/eight-trends-defining-how-software-gets-built-in-2026) : 개발자가 AI에 "완전히 위임" 가능하다고 느끼는 작업은 전체의 0~20%에 불과하며, 감독 없는 완전 자동화는 아직 현실적이지 않다.
3
3
-[Google DORA 2025 Report](https://dora.dev/research/2025/dora-report/) : 1년 만에 배포 처리량·제품 성과가 반전되어 긍정적으로 바뀌었지만, 배포 불안정성·번아웃·업무 마찰은 여전히 해소되지 않은 채로 남아 있다.
- (Uber) [This Year in Uber’s AI-Driven Developer Productivity Revolution](https://dpe.org/sessions/ty-smith-adam-huda/this-year-in-ubers-ai-driven-developer-productivity-revolution/)
23
23
- AI 도구 활용하여 Kotlin으로 적극 전환
@@ -37,34 +37,34 @@
37
37
- 위의 3개 사례를 개한 종합 내용
38
38
- AI도구를 써도 인간의 통찰, 리뷰, 검증이 필요하다는 문장으로 마무리
39
39
40
-
# 도구
40
+
##도구
41
41
42
42
-<https://github.com/block/goose>
43
43
-[25년 현재 어떤 CLI툴을 써야하는지 말씀드리겠습니다](https://youtube.com/watch?si=fp9Uqlc_n8bCv1Nq&v=K2rVBIb-KWE) (박진형 님)
44
44
-<https://opencode.ai/>
45
45
-[Vibe Kanban: OpenCode + Claude Code 동시에? AI 코딩 에이전트 오케스트레이션](https://fornewchallenge.tistory.com/entry/%F0%9F%9A%80-Vibe-Kanban-OpenCode-Claude-Code-%EB%8F%99%EC%8B%9C%EC%97%90-AI-%EC%BD%94%EB%94%A9-%EC%97%90%EC%9D%B4%EC%A0%84%ED%8A%B8-%EC%98%A4%EC%BC%80%EC%8A%A4%ED%8A%B8%EB%A0%88%EC%9D%B4%EC%85%98)
Copy file name to clipboardExpand all lines: content/ai-standard.md
+5-5Lines changed: 5 additions & 5 deletions
Display the source diff
Display the rich diff
Original file line number
Diff line number
Diff line change
@@ -1,8 +1,8 @@
1
-
# 허깅페이스 오픈 모델의 호환성을 가능하게 하는 표준들
1
+
##허깅페이스 오픈 모델의 호환성을 가능하게 하는 표준들
2
2
3
3
크게 **모델 가중치 포맷**, **모델 아키텍처 규약**, **메타데이터/설정 표준** 세 층위가 있다.
4
4
5
-
## 1. 모델 가중치 저장 포맷
5
+
###1. 모델 가중치 저장 포맷
6
6
7
7
| 포맷 | 특징 |
8
8
|------|------|
@@ -14,7 +14,7 @@
14
14
15
15
다국어 지원 능력도 이 가중치 안에 들어 있다. 학습 시 Common Crawl, Wikipedia 등에서 수집한 수십~수백 개 언어의 텍스트 패턴이 신경망 파라미터 전체에 걸쳐 **분산 표현(distributed representation)**으로 인코딩된다. "한국어 사전" 같은 별도 파일이 있는 게 아니라, embedding layer와 attention/FFN layer의 수치 값들에 각 언어의 문법·어휘·의미가 녹아들어 있는 것이다. 그래서 특정 언어만 빼거나 넣는 것이 쉽지 않다.
16
16
17
-
## 2. 모델 아키텍처 규약 — Transformers 라이브러리의 역할
17
+
###2. 모델 아키텍처 규약 — Transformers 라이브러리의 역할
18
18
19
19
허깅페이스 `transformers` 라이브러리가 사실상의 표준 역할을 한다.
20
20
@@ -35,7 +35,7 @@
35
35
36
36
`model_type`이 `"llama"`이면, 라이브러리가 `LlamaForCausalLM` 클래스를 자동으로 선택하고 가중치를 로드한다. 그래서 Llama 아키텍처 기반 모델은 누가 학습했든 동일한 코드로 실행된다.
37
37
38
-
## 3. 추론 엔진 간 호환성
38
+
###3. 추론 엔진 간 호환성
39
39
40
40
```
41
41
HF 모델 (safetensors + config.json)
@@ -49,7 +49,7 @@ HF 모델 (safetensors + config.json)
49
49
50
50
이것이 가능한 이유는 **아키텍처가 표준화**되어 있기 때문이다. 대부분의 오픈 모델이 소수의 아키텍처(Llama, Mistral, Qwen, Gemma 등)를 따르고, 각 추론 엔진이 이 아키텍처들을 구현해 둔다.
0 commit comments