https://ollama.com 에 접속하여 Download 버튼 클릭

설치 파일을 실행하면 다음과 같은 화면이 표시되는데 Next

Install 버튼 클릭


나는 ollama2 로 하겠다. gemma2 로 돌렸더니 프랑스의 수도를 묻는 질문에 3분 15초만에 답변을 주더라는...
llama2 로만 입력해도 7b 모델이 다운로드 된다.
# % ollama pull <model name:tag name>
% ollama pull llama2:7b

참고로 macos 에서 모델이 저장되는 기본 위치는 아래와 같다.
~/.ollama/models
저장 위치를 바꾸려면 이렇게...
% OLLAMA_MODELS={저장 디렉토리} ollama serve
여기부터는 지난번과 비슷하게 흘러간다.
% pip install langchain-community python-dotenv

# ollama 를 이용할 때는 별도의 API KEY가 필요하지 않음.
from dotenv import load_dotenv
load_dotenv()
# ChatOllama model
from langchain_community.chat_models import ChatOllama
# 다운로드 받은 llama2 를 불러온다.
chat_model = ChatOllama(model="llama2")
result = chat_model.invoke("What is the capital of France?")
print(result.content)
이번엔 1.7초만에 답을 줬다 감격의 눙물이...

근데 한국어는 못한다고 한다.

두둥~ 있다. anpigon/qwen2.5-7b-instruct-kowiki 라는 모델이다.

anpigon/qwen2.5-7b-instruct-kowiki 모델 다운로드
ollama pull anpigon/qwen2.5-7b-instruct-kowiki

# ChatOllama model
from langchain_community.chat_models import ChatOllama
chat_model = ChatOllama(model="anpigon/qwen2.5-7b-instruct-kowiki")
result = chat_model.invoke("너 한글도 할줄 알아?")
print(result.content)

한국어라니... 감격의 눈물 장전!
ConnectionError: HTTPConnectionPool(host='localhost', port=11434)
# ollama 서비스 실행
% ollama serve
$ curl -fsSL https://ollama.com/install.sh | sh
대충 이런 메시지가 뜨면 설치 완료

$ ollama serve

$ ollama pull tinyllama

$ pip install ollama
실행되고 있는 ollama 서버에 요청해야 한다.
import ollama
import requests
input_text = "한국의 수도를 한국어로 말해 주세요."
model_name = "tinyllama"
response = requests.post(
"http://localhost:11434/api/chat",
json={
"model": model_name,
"messages": [
{"role": "user", "content": input_text}
],
"stream": False
}
)
# 응답 출력
print(response.json()["message"]["content"])
? 이게 뭔 개소린지 모르겠다. 분명 한국어 할줄 안다고 했잖아...
그냥 한국어"만" 할수 있었나...
