Update README.md
Browse files
README.md
CHANGED
|
@@ -247,7 +247,9 @@ if __name__ == "__main__":
|
|
| 247 |
- Docker風のシンプルなインターフェース
|
| 248 |
- 自動的な量子化対応
|
| 249 |
|
| 250 |
-
**注意:** 現時点でOllama
|
|
|
|
|
|
|
| 251 |
|
| 252 |
### LM Studio
|
| 253 |
[LM Studio](https://lmstudio.ai/)は、GUIベースでLLMを実行できるツールです。
|
|
@@ -263,7 +265,9 @@ if __name__ == "__main__":
|
|
| 263 |
3. 設定でコンテキストサイズを2048に設定
|
| 264 |
4. APIサーバーモードで起動
|
| 265 |
|
| 266 |
-
**注意:** 現時点でLM Studio
|
|
|
|
|
|
|
| 267 |
|
| 268 |
### llama.cpp Python バインディング
|
| 269 |
```bash
|
|
@@ -278,6 +282,7 @@ Pythonから直接モデルを使用できます。詳細は[公式ドキュメ
|
|
| 278 |
|
| 279 |
1. **音声生成に失敗する**
|
| 280 |
- Q4_K量子化版を使用している場合は、BF16版に切り替えてください
|
|
|
|
| 281 |
- メモリ不足の場合は、コンテキストサイズ(-c)を小さくしてください
|
| 282 |
|
| 283 |
2. **サーバーが起動しない**
|
|
|
|
| 247 |
- Docker風のシンプルなインターフェース
|
| 248 |
- 自動的な量子化対応
|
| 249 |
|
| 250 |
+
**注意:** 現時点でOllama動作は未チェックです。
|
| 251 |
+
- SNACと組み合わせる仕組みを別途構築する必要があります
|
| 252 |
+
- カスタムトークナイザーで問題(頻繁な異常な発声や反復出力)が発生する可能性があります。
|
| 253 |
|
| 254 |
### LM Studio
|
| 255 |
[LM Studio](https://lmstudio.ai/)は、GUIベースでLLMを実行できるツールです。
|
|
|
|
| 265 |
3. 設定でコンテキストサイズを2048に設定
|
| 266 |
4. APIサーバーモードで起動
|
| 267 |
|
| 268 |
+
**注意:** 現時点でLM Studio動作は未チェックです。
|
| 269 |
+
- SNACと組み合わせる仕組みを別途構築する必要があります
|
| 270 |
+
- カスタムトークナイザーで問題(頻繁な異常な発声や反復出力)が発生する可能性があります。
|
| 271 |
|
| 272 |
### llama.cpp Python バインディング
|
| 273 |
```bash
|
|
|
|
| 282 |
|
| 283 |
1. **音声生成に失敗する**
|
| 284 |
- Q4_K量子化版を使用している場合は、BF16版に切り替えてください
|
| 285 |
+
- お使いのツールがカスタムトークナイザーに対応しているか確認してください
|
| 286 |
- メモリ不足の場合は、コンテキストサイズ(-c)を小さくしてください
|
| 287 |
|
| 288 |
2. **サーバーが起動しない**
|