dahara1 commited on
Commit
6b52bae
·
verified ·
1 Parent(s): 7288c31

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +7 -2
README.md CHANGED
@@ -247,7 +247,9 @@ if __name__ == "__main__":
247
  - Docker風のシンプルなインターフェース
248
  - 自動的な量子化対応
249
 
250
- **注意:** 現時点でOllama動作は未チェックです。カスタムトークナイザーで問題が発生する可能性があります。
 
 
251
 
252
  ### LM Studio
253
  [LM Studio](https://lmstudio.ai/)は、GUIベースでLLMを実行できるツールです。
@@ -263,7 +265,9 @@ if __name__ == "__main__":
263
  3. 設定でコンテキストサイズを2048に設定
264
  4. APIサーバーモードで起動
265
 
266
- **注意:** 現時点でLM Studio動作は未チェックです。カスタムトークナイザーで問題が発生する可能性があります。
 
 
267
 
268
  ### llama.cpp Python バインディング
269
  ```bash
@@ -278,6 +282,7 @@ Pythonから直接モデルを使用できます。詳細は[公式ドキュメ
278
 
279
  1. **音声生成に失敗する**
280
  - Q4_K量子化版を使用している場合は、BF16版に切り替えてください
 
281
  - メモリ不足の場合は、コンテキストサイズ(-c)を小さくしてください
282
 
283
  2. **サーバーが起動しない**
 
247
  - Docker風のシンプルなインターフェース
248
  - 自動的な量子化対応
249
 
250
+ **注意:** 現時点でOllama動作は未チェックです。
251
+ - SNACと組み合わせる仕組みを別途構築する必要があります
252
+ - カスタムトークナイザーで問題(頻繁な異常な発声や反復出力)が発生する可能性があります。
253
 
254
  ### LM Studio
255
  [LM Studio](https://lmstudio.ai/)は、GUIベースでLLMを実行できるツールです。
 
265
  3. 設定でコンテキストサイズを2048に設定
266
  4. APIサーバーモードで起動
267
 
268
+ **注意:** 現時点でLM Studio動作は未チェックです。
269
+ - SNACと組み合わせる仕組みを別途構築する必要があります
270
+ - カスタムトークナイザーで問題(頻繁な異常な発声や反復出力)が発生する可能性があります。
271
 
272
  ### llama.cpp Python バインディング
273
  ```bash
 
282
 
283
  1. **音声生成に失敗する**
284
  - Q4_K量子化版を使用している場合は、BF16版に切り替えてください
285
+ - お使いのツールがカスタムトークナイザーに対応しているか確認してください
286
  - メモリ不足の場合は、コンテキストサイズ(-c)を小さくしてください
287
 
288
  2. **サーバーが起動しない**