Update README.md
Browse files
README.md
CHANGED
|
@@ -7,7 +7,7 @@
|
|
| 7 |
- **アーキテクチャ**: Mixtral MoE
|
| 8 |
- **パラメータサイズ**: 24x1.8b(24エキスパート、各1.8B)
|
| 9 |
- **アクティブパラメータ**: 6(推論時に活性化するエキスパート数)
|
| 10 |
-
- **コンテキスト長**:
|
| 11 |
- **ベースモデル**:
|
| 12 |
- [llm-jp/llm-jp-3-8x1.8b](https://huggingface.co/llm-jp/llm-jp-3-8x1.8b)
|
| 13 |
- [llm-jp/llm-jp-3-8x1.8b-instruct2](https://huggingface.co/llm-jp/llm-jp-3-8x1.8b-instruct2)
|
|
|
|
| 7 |
- **アーキテクチャ**: Mixtral MoE
|
| 8 |
- **パラメータサイズ**: 24x1.8b(24エキスパート、各1.8B)
|
| 9 |
- **アクティブパラメータ**: 6(推論時に活性化するエキスパート数)
|
| 10 |
+
- **コンテキスト長**: 4096トークン
|
| 11 |
- **ベースモデル**:
|
| 12 |
- [llm-jp/llm-jp-3-8x1.8b](https://huggingface.co/llm-jp/llm-jp-3-8x1.8b)
|
| 13 |
- [llm-jp/llm-jp-3-8x1.8b-instruct2](https://huggingface.co/llm-jp/llm-jp-3-8x1.8b-instruct2)
|