[AI] ollama 로 gguf 를 돌린다고?

늘 공부하는 괴짜·2025년 6월 25일
0

AI : Langchain (RAG)

목록 보기
34/38

1. 허깅페이스에서 gguf 다운받는다.

난 그냥 Q8_0 으로 받을 것이다.

2. Modelfile 작성

FROM exaone-3.5-2.4b.gguf

3. Modelfile 실행

exaone3.5-custom:2.4b 으로 만들 것이다.

% ollama create exaone3.5-custom:2.4b -f Modelfile

생성완료

4. 생성 확인

% ollama list

5. 테스트

% ollama run exaone3.5-custom:2.4b

Finally

다른 모델도 양자화 해서 테스트 해봐야겠다.

profile
인공지능이라는 옷을 입었습니다. 뭔가 멋지면서도 잘 맞습니다.

0개의 댓글