GGUF ๋ณํ ์๋ด
์ด ๋ชจ๋ธ์ GGUF ๋ฒ์ ์ ์์ฑํ๋ ค๋ฉด ๋ค์ ๋จ๊ณ๋ฅผ ๋ฐ๋ฅด์ธ์:
์๋ ๋ณํ ์คํจ
์๋ GGUF ๋ณํ์ด ์คํจํ์ต๋๋ค. ์๋์ผ๋ก ๋ณํํด์ฃผ์ธ์.
๋ฐฉ๋ฒ 1: llama.cpp ์ฌ์ฉ
# llama.cpp ์ค์น
git clone https://github.com/ggerganov/llama.cpp.git
cd llama.cpp
mkdir build && cd build
cmake .. -DLLAMA_CUBLAS=ON
cmake --build . --config Release
# ๋ณํ ์คํ
cd ..
python convert_hf_to_gguf.py ./models/agent2_safetensor --outdir ./gguf_output
๋ฐฉ๋ฒ 2: Python ์คํฌ๋ฆฝํธ๋ง ์ฌ์ฉ
# ํ์ํ ํจํค์ง ์ค์น
pip install gguf numpy torch
# ์คํฌ๋ฆฝํธ ๋ค์ด๋ก๋
wget https://raw.githubusercontent.com/ggerganov/llama.cpp/master/convert_hf_to_gguf.py
# ๋ณํ ์คํ
python convert_hf_to_gguf.py ./models/agent2_safetensor --outdir ./gguf_output
์๋ณธ ๋ชจ๋ธ ๊ฒฝ๋ก
SafeTensor ๋ฒ์ : ./models/agent2_safetensor
๋ณํ ์๋ฃ ํ ์ด ํด๋์ ๋ด์ฉ์ GGUF ํ์ผ๋ก ๊ต์ฒดํด์ฃผ์ธ์.