반응형

Ollama 4

Ollama 파이썬 API 이용하여 DeepSeek (딥시크) 사용

앞에 여러 글들에서 DeepSeek 사용 후기, Ollama를 이용하여 DeepSeek를 로컬 PC에서 돌리는 방법, DeepSeek를 로컬 PC에서 webUI와 연동하는 방법, DeepSeek를 이용하여 코딩하는데 도움을 받는 방법 #1, #2 등의 글을 썼다. 여기서는 Ollama 파이썬 API 를 이용하여 DeepSeek(딥시크) R1을 코딩에 사용하는 방법에 대해서 알아본다. Ollama는 오픈소스 LLM을 사용하는 서비스이기 때문에 DeepSeek R1뿐만 아니라 Ollama에서 지원하는 다양한 LLM 모델 (메타의 llama, qwen2.5 등)을 간단한 환경설정 변경으로 동일한 코드와 API로 사용할 수 있다. 설치 방법 pip 또는 pip3 명령어로 ollama python 모듈을 설치한다..

Development 2025.02.04

VS Code에서 DeepSeek (딥시크) 사용

Visual Studio Code (VS Code)에서 DeepSeek (딥시크)를 사용하는 방법을 간단히 이야기해보려고 한다. VS Code Extension 설치해서 간단한 Configuration을 하면 쉽게 사용이 가능하다. 여기서 사용할 Extension은 Continue 이고 간단한 설치와 설정으로 DeepSeek를 사용할 수 있게 해준다. 이 Extension을 선택한 이유는 이전의 블로그 글에서 이야기한 local PC에서 쉽게 돌릴 수 있는 서비스인 ollama 를 지원하고 많은 개발자들이 사용, 업데이트도 잘되기 때문이다. Extension 설치 우선 VS Code를 실행하고 Extensions에서 Continue를 검색한 후 Install 버튼을 눌러 설치한다. 설치가 완료되면 위의 ..

Development 2025.02.01

DeepSeek (딥시크)를 PC에서 web UI와 연동

이전 두개의 글에서 딥시크 사용후기, ollama를 사용하여 DeepSeek R1을 내 PC에서 실행하기 를 이야기하였다. 두번째 글에서는 터미널에서 콘솔로 실행을 하여 결과를 얻어냈다. 이 글에서는 크롬 브라우저의 플러그인 중에 하나인 Page Assist를 활용하여 web에서 LLM을 사용하여 채팅을 하는 방법에 대해서 소개한다. 정말 간단하다. ollama 를 터미널에서 시작 (명령어: ollama serve)하고 설치한 Page Assist 플러그인을 실행하면 바로 페이지에 접속해서 사용할 수 있다. 아래는 터미널에서 ollama serve를 실행한 화면이다. 이후 크롬 플러그인을 실행하면 바로 접속하여 아래 그림과 같이 사용할 수 있다. 직관적으로 잘 만들어져있다. 또한 이를 실행할 때 터미널에..

Development 2025.01.31

ollama를 사용하여 DeepSeek (딥시크) R1를 내 PC에서 실행

이전 글에서 DeepSeek 를 웹에서 사용한 후기를 간단히 공유해 보았다. 이번 글에서는 DeepSeek 모델을 Local PC에 설치 후 인터넷 사용 없이 돌리는 방법을 알아본다. ollama는 오픈 소스 LLM (Large Language Models)을 Local PC (윈도우, 리눅스, 맥 모두 호환)에서 돌릴 수 있게 도와준다. 최근에 DeepSeek (딥시크) R1 이 추가되어 MacOS 기준으로 설치 후 간단히 실행하는 방법을 이야기해보려고 한다. 설치 방법 https://ollama.com/ 에 접속하면 Download 버튼을 눌러 사용중인 OS 종류를 선택 후 다운로드 하고 PC에 설치한다. MacOS 같은 경우 압축 파일이 받아지고 그 파일을 푼 후 실행하고 몇 단계의 설치 과정을 마..

Development 2025.01.30
728x90
반응형