PAUL1122 commited on
Commit
1125281
·
verified ·
1 Parent(s): 36f2a20

Upload README.md

Browse files
Files changed (1) hide show
  1. README.md +122 -0
README.md ADDED
@@ -0,0 +1,122 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: apache-2.0
3
+ base_model: unsloth/gpt-oss-20b
4
+ tags:
5
+ - unsloth
6
+ - lora
7
+ - korean
8
+ - education
9
+ - textbook
10
+ language:
11
+ - ko
12
+ datasets:
13
+ - maywell/korean_textbooks
14
+ library_name: peft
15
+ ---
16
+
17
+ # Korean Textbook Fine-tuned Model
18
+
19
+ ## 모델 설명
20
+ 이 모델은 `unsloth/gpt-oss-20b`를 베이스로 하여 `maywell/korean_textbooks` 데이터셋으로 파인튜닝된 한국어 교육 전용 모델입니다.
21
+
22
+ ## 모델 상세 정보
23
+ - **베이스 모델**: unsloth/gpt-oss-20b
24
+ - **파인튜닝 데이터셋**: maywell/korean_textbooks
25
+ - **훈련 방법**: LoRA (Low-Rank Adaptation)
26
+ - **언어**: 한국어 (Korean)
27
+ - **용도**: 교육 콘텐츠 생성
28
+
29
+ ## 사용 방법
30
+
31
+ ### 모델 로드
32
+ ```python
33
+ from transformers import AutoModelForCausalLM, AutoTokenizer
34
+ from peft import PeftModel
35
+ import torch
36
+
37
+ # 베이스 모델 로드
38
+ base_model = AutoModelForCausalLM.from_pretrained(
39
+ "unsloth/gpt-oss-20b",
40
+ torch_dtype=torch.float16,
41
+ device_map="auto"
42
+ )
43
+
44
+ # LoRA 어댑터 로드
45
+ model = PeftModel.from_pretrained(base_model, "PAUL1122/korean-textbook-finetuned")
46
+
47
+ # 토크나이저 로드
48
+ tokenizer = AutoTokenizer.from_pretrained("PAUL1122/korean-textbook-finetuned")
49
+ ```
50
+
51
+ ### 추론 예시
52
+ ```python
53
+ messages = [
54
+ {"role": "system", "content": "당신은 한국어로 교육 내용을 설명하는 도움이 되는 어시스턴트입니다."},
55
+ {"role": "user", "content": "2의 거듭제곱에 대해 설명해주세요."},
56
+ ]
57
+
58
+ inputs = tokenizer.apply_chat_template(
59
+ messages,
60
+ add_generation_prompt=True,
61
+ return_tensors="pt",
62
+ return_dict=True
63
+ ).to(model.device)
64
+
65
+ with torch.no_grad():
66
+ outputs = model.generate(
67
+ **inputs,
68
+ max_new_tokens=512,
69
+ do_sample=True,
70
+ temperature=0.7,
71
+ top_p=0.9,
72
+ pad_token_id=tokenizer.eos_token_id
73
+ )
74
+
75
+ response = tokenizer.decode(outputs[0], skip_special_tokens=True)
76
+ print(response)
77
+ ```
78
+
79
+ ## 훈련 상세 정보
80
+ - **훈련 스텝**: 30 steps
81
+ - **LoRA rank**: 8
82
+ - **LoRA alpha**: 16
83
+ - **타겟 모듈**: ['q_proj', 'gate_proj', 'up_proj', 'k_proj', 'o_proj', 'v_proj', 'down_proj']
84
+ - **학습률**: 자동 설정 (Unsloth 기본값)
85
+ - **배치 크기**: 자동 설정
86
+ - **최적화**: AdamW
87
+ - **정밀도**: Mixed precision (fp16)
88
+
89
+ ## 성능
90
+ 이 모델은 한국어 교육 자료 생성에 특화되어 있으며, 다음과 같은 주제에서 우수한 성능을 보입니다:
91
+ - 수학 개념 설명
92
+ - 과학 원리 설명
93
+ - 교육적 내용 생성
94
+ - 한국어 대화
95
+
96
+ ## 시스템 요구사항
97
+ - **GPU 메모리**: 최소 16GB (권장 24GB+)
98
+ - **시스템 RAM**: 최소 16GB
99
+ - **Python**: 3.8+
100
+ - **주요 라이브러리**: transformers, peft, torch
101
+
102
+ ## 라이선스
103
+ 이 모델은 베이스 모델의 라이선스를 따릅니다. 자세한 내용은 원본 모델의 라이선스를 확인해주세요.
104
+
105
+ ## 인용
106
+ 이 모델을 사용하신다면 다음과 같이 인용해주세요:
107
+ ```
108
+ Korean Textbook Fine-tuned Model, based on unsloth/gpt-oss-20b
109
+ Fine-tuned on maywell/korean_textbooks dataset
110
+ ```
111
+
112
+ ## 제한사항
113
+ - 이 모델은 교육적 목적으로 설계되었습니다
114
+ - 일반적인 대화나 다른 도메인에서는 성능이 제한될 수 있습니다
115
+ - 항상 생성된 내용을 검토하고 검증하시기 바랍니다
116
+
117
+ ## 관련 링크
118
+ - **베이스 모델**: [unsloth/gpt-oss-20b](https://huggingface.co/unsloth/gpt-oss-20b)
119
+ - **데이터셋**: [maywell/korean_textbooks](https://huggingface.co/datasets/maywell/korean_textbooks)
120
+
121
+ ## 연락처
122
+ 문의사항이 있으시면 이슈를 통해 연락해주세요.