반응형

deepseek r1 2

Ollama 파이썬 API 이용하여 DeepSeek (딥시크) 사용

앞에 여러 글들에서 DeepSeek 사용 후기, Ollama를 이용하여 DeepSeek를 로컬 PC에서 돌리는 방법, DeepSeek를 로컬 PC에서 webUI와 연동하는 방법, DeepSeek를 이용하여 코딩하는데 도움을 받는 방법 #1, #2 등의 글을 썼다. 여기서는 Ollama 파이썬 API 를 이용하여 DeepSeek(딥시크) R1을 코딩에 사용하는 방법에 대해서 알아본다. Ollama는 오픈소스 LLM을 사용하는 서비스이기 때문에 DeepSeek R1뿐만 아니라 Ollama에서 지원하는 다양한 LLM 모델 (메타의 llama, qwen2.5 등)을 간단한 환경설정 변경으로 동일한 코드와 API로 사용할 수 있다. 설치 방법 pip 또는 pip3 명령어로 ollama python 모듈을 설치한다..

Development 2025.02.04

DeepSeek (딥시크)를 PC에서 web UI와 연동

이전 두개의 글에서 딥시크 사용후기, ollama를 사용하여 DeepSeek R1을 내 PC에서 실행하기 를 이야기하였다. 두번째 글에서는 터미널에서 콘솔로 실행을 하여 결과를 얻어냈다. 이 글에서는 크롬 브라우저의 플러그인 중에 하나인 Page Assist를 활용하여 web에서 LLM을 사용하여 채팅을 하는 방법에 대해서 소개한다. 정말 간단하다. ollama 를 터미널에서 시작 (명령어: ollama serve)하고 설치한 Page Assist 플러그인을 실행하면 바로 페이지에 접속해서 사용할 수 있다. 아래는 터미널에서 ollama serve를 실행한 화면이다. 이후 크롬 플러그인을 실행하면 바로 접속하여 아래 그림과 같이 사용할 수 있다. 직관적으로 잘 만들어져있다. 또한 이를 실행할 때 터미널에..

Development 2025.01.31
728x90
반응형