https://ollama.com 에 접속하여 Download 버튼 클릭
설치 파일을 실행하면 다음과 같은 화면이 표시되는데 Next
Install 버튼 클릭
나는 ollama2 로 하겠다. gemma2 로 돌렸더니 프랑스의 수도를 묻는 질문에 3분 15초만에 답변을 주더라는...
llama2 로만 입력해도 7b 모델이 다운로드 된다.
# % ollama pull <model name:tag name>
% ollama pull llama2:7b
참고로 macos 에서 모델이 저장되는 기본 위치는 아래와 같다.
~/.ollama/models
저장 위치를 바꾸려면 이렇게...
% OLLAMA_MODELS={저장 디렉토리} ollama serve
여기부터는 지난번과 비슷하게 흘러간다.
% pip install langchain-community python-dotenv
# ollama 를 이용할 때는 별도의 API KEY가 필요하지 않음.
from dotenv import load_dotenv
load_dotenv()
# ChatOllama model
from langchain_community.chat_models import ChatOllama
# 다운로드 받은 llama2 를 불러온다.
chat_model = ChatOllama(model="llama2")
result = chat_model.invoke("What is the capital of France?")
print(result.content)
이번엔 1.7초만에 답을 줬다 감격의 눙물이...
근데 한국어는 못한다고 한다.
두둥~ 있다. anpigon/qwen2.5-7b-instruct-kowiki 라는 모델이다.
anpigon/qwen2.5-7b-instruct-kowiki 모델 다운로드
ollama pull anpigon/qwen2.5-7b-instruct-kowiki
# ChatOllama model
from langchain_community.chat_models import ChatOllama
chat_model = ChatOllama(model="anpigon/qwen2.5-7b-instruct-kowiki")
result = chat_model.invoke("너 한글도 할줄 알아?")
print(result.content)
한국어라니... 감격의 눈물 장전!
ConnectionError: HTTPConnectionPool(host='localhost', port=11434)
# ollama 서비스 실행
% ollama serve