Development

Ollama 파이썬 API 이용하여 DeepSeek (딥시크) 사용

chbae 2025. 2. 4. 07:10
728x90
반응형

앞에 여러 글들에서 DeepSeek 사용 후기, Ollama를 이용하여 DeepSeek를 로컬 PC에서 돌리는 방법, DeepSeek를 로컬 PC에서 webUI와 연동하는 방법, DeepSeek를 이용하여 코딩하는데 도움을 받는 방법 #1, #2 등의 글을 썼다.

 

여기서는 Ollama 파이썬 API 를 이용하여 DeepSeek(딥시크) R1을 코딩에 사용하는 방법에 대해서 알아본다. Ollama는 오픈소스 LLM을 사용하는 서비스이기 때문에 DeepSeek R1뿐만 아니라 Ollama에서 지원하는 다양한 LLM 모델 (메타의 llama, qwen2.5 등)을 간단한 환경설정 변경으로 동일한 코드와 API로 사용할 수 있다.

 

설치 방법

 

pip 또는 pip3 명령어로 ollama python 모듈을 설치한다.

$ pip3 install ollama

 

코드 사용 방법

 

GPT API 사용하는 방법과 크게 다르지 않고 ollama 파이썬 모듈을 호출하여 deepseek-r1:14b 모델을 지정한 후 role에 user를 content에 질문을 넣고 응답을 받아서 출력한다. model 부분에 ollama pull 명령어로 local에 받은 다른 모델을 넣고 다른 API는 그대로 사용할수도 있다.

 

조금 더 다양한 예제와 API는 https://github.com/ollama/ollama-pythonREADME.md 파일을 읽어보는 것을 추천한다.

from ollama import chat
from ollama import ChatResponse

response: ChatResponse = chat(model='deepseek-r1:14b', messages=[
  {
    'role': 'user',
    'content': 'Please write hello world code in python',
  },
])
print(response['message']['content'])

 

코드 실행 결과

 

 

정리

 

Ollama 파이썬 모듈을 설치하고, DeepSeek R1 모델을 사용하여 간단한 API를 호출하여 파이썬 코드를 작성해보았다. 파이썬과 API 종류만 알면 쉽게 사용할 수 있다.

 

이제 이 API를 이용하여 조금 더 복잡한 오픈소스 모델 성능 평가하는 코드를 만들던, 다른 곳에서 가지고 와서 돌려보면서 각 오픈소스 모델을 비교하면서 글을 써보면 재밌을 것 같다.

반응형