File size: 2,807 Bytes
9813b5a
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
---
license: apache-2.0
base_model: unsloth/gpt-oss-20b
tags:
- unsloth
- lora
- korean
- education
- textbook
language:
- ko
datasets:
- maywell/korean_textbooks
library_name: peft
---

# Korean Textbook Fine-tuned Model

## 모델 설명
이 모델은 `unsloth/gpt-oss-20b`를 베이스로 하여 `maywell/korean_textbooks` 데이터셋으로 파인튜닝된 한국어 교육 전용 모델입니다.

## 모델 상세 정보
- **베이스 모델**: unsloth/gpt-oss-20b
- **파인튜닝 데이터셋**: maywell/korean_textbooks
- **훈련 방법**: LoRA (Low-Rank Adaptation)
- **언어**: 한국어 (Korean)
- **용도**: 교육 콘텐츠 생성

## 사용 방법

### 모델 로드
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
from peft import PeftModel

# 베이스 모델 로드
base_model = AutoModelForCausalLM.from_pretrained("unsloth/gpt-oss-20b")

# LoRA 어댑터 로드
model = PeftModel.from_pretrained(base_model, "your-username/korean-textbook-model")

# 토크나이저 로드
tokenizer = AutoTokenizer.from_pretrained("your-username/korean-textbook-model")
```

### 추론 예시
```python
messages = [
    {"role": "system", "content": "당신은 한국어로 교육 내용을 설명하는 도움이 되는 어시스턴트입니다."},
    {"role": "user", "content": "2의 거듭제곱에 대해 설명해주세요."},
]

inputs = tokenizer.apply_chat_template(
    messages,
    add_generation_prompt=True,
    return_tensors="pt",
    return_dict=True
)

outputs = model.generate(
    **inputs,
    max_new_tokens=512,
    do_sample=True,
    temperature=0.7
)

response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
```

## 훈련 상세 정보
- **훈련 스텝**: 30 steps
- **학습률**: 자동 설정 (Unsloth 기본값)
- **배치 크기**: 자동 설정
- **최적화**: AdamW
- **정밀도**: Mixed precision (fp16)

## 성능
이 모델은 한국어 교육 자료 생성에 특화되어 있으며, 다음과 같은 주제에서 우수한 성능을 보입니다:
- 수학 개념 설명
- 과학 원리 설명
- 교육적 내용 생성
- 한국어 대화

## 라이선스
이 모델은 베이스 모델의 라이선스를 따릅니다. 자세한 내용은 원본 모델의 라이선스를 확인해주세요.

## 인용
이 모델을 사용하신다면 다음과 같이 인용해주세요:
```
Korean Textbook Fine-tuned Model, based on unsloth/gpt-oss-20b
Fine-tuned on maywell/korean_textbooks dataset
```

## 제한사항
- 이 모델은 교육적 목적으로 설계되었습니다
- 일반적인 대화나 다른 도메인에서는 성능이 제한될 수 있습니다
- 항상 생성된 내용을 검토하고 검증하시기 바랍니다

## 연락처
문의사항이 있으시면 이슈를 통해 연락해주세요.