반응형

딥씨크 5

LM Studio: 내 PC에서 오픈 LLM 모델 (DeepSeek R1 등) 찾아서 실행까지 완벽 정복 가이드

이전 블로그 글에서 command line 으로 deepseek (딥시크)와 같은 오픈 LLM 모델을 설치하여 돌라는 방법을 이야기하였다. UI 를 기본적으로 제공하지 않기 때문에 Chromium Extension을 설치하여 사용하는 방법에 대해서도 이야기하였다. LM Studio 소개 이를 모두 하나로 통합하여 제공하는 LM Studio를 발견하여 설치하고 사용하는 방법에 대해서 소개한다. LM Studio도 애플 실리콘, Windows, Linux 모두 지원을 한다. 맥북에서 돌리기 위해 받았는데 1.41GB로 생각보다 애플리케이션의 크기가 컸다. LM Studio 기능 LM Studio로 다음과 같은 것을 할 수 있다고 홈페이지 메인에 당당하게 적혀있다. 앱만 설치하면 정말 사용하기는 쉽게 되어있다..

Development 2025.02.06

Ollama 파이썬 API 이용하여 DeepSeek (딥시크) 사용

앞에 여러 글들에서 DeepSeek 사용 후기, Ollama를 이용하여 DeepSeek를 로컬 PC에서 돌리는 방법, DeepSeek를 로컬 PC에서 webUI와 연동하는 방법, DeepSeek를 이용하여 코딩하는데 도움을 받는 방법 #1, #2 등의 글을 썼다. 여기서는 Ollama 파이썬 API 를 이용하여 DeepSeek(딥시크) R1을 코딩에 사용하는 방법에 대해서 알아본다. Ollama는 오픈소스 LLM을 사용하는 서비스이기 때문에 DeepSeek R1뿐만 아니라 Ollama에서 지원하는 다양한 LLM 모델 (메타의 llama, qwen2.5 등)을 간단한 환경설정 변경으로 동일한 코드와 API로 사용할 수 있다. 설치 방법 pip 또는 pip3 명령어로 ollama python 모듈을 설치한다..

Development 2025.02.04

VS Code에서 DeepSeek (딥시크) 사용 2 - 코드와 인터랙션

VS Code (Visual Studio Code)에서 Continue Extension과 연결하여 DeepSeek를 사용하는 방법에 대해서 이전 블로그 글에서 설명하였다. 이전 블로그 글에서는 Continue Extension 창에서 사용했었고, 이 글에서는 실제 코드와 쉽게 인터랙션하여 사용하는 방법을 이야기해보려고 한다. 현재까지 사용해본 결과 결론적으로 말하면 Github Copilot 이 훨씬 더 사용하기 쉽고 코드 퀄리티도 더 좋은 것 같다. 물론 DeepSeek를 조금 더 사용해보면 다른 결론이 나올 수 있겠지만 현재로썬 그렇다. 단 여전히 DeepSeek의 장점은 오픈소스로 인터넷 접속 없이 로컬로 사용 가능하다는 것이다. Github Copilot에 대해서는 또 다른 블로그 글을 참고해..

Development 2025.02.03

VS Code에서 DeepSeek (딥시크) 사용

Visual Studio Code (VS Code)에서 DeepSeek (딥시크)를 사용하는 방법을 간단히 이야기해보려고 한다. VS Code Extension 설치해서 간단한 Configuration을 하면 쉽게 사용이 가능하다. 여기서 사용할 Extension은 Continue 이고 간단한 설치와 설정으로 DeepSeek를 사용할 수 있게 해준다. 이 Extension을 선택한 이유는 이전의 블로그 글에서 이야기한 local PC에서 쉽게 돌릴 수 있는 서비스인 ollama 를 지원하고 많은 개발자들이 사용, 업데이트도 잘되기 때문이다. Extension 설치 우선 VS Code를 실행하고 Extensions에서 Continue를 검색한 후 Install 버튼을 눌러 설치한다. 설치가 완료되면 위의 ..

Development 2025.02.01

ollama를 사용하여 DeepSeek (딥시크) R1를 내 PC에서 실행

이전 글에서 DeepSeek 를 웹에서 사용한 후기를 간단히 공유해 보았다. 이번 글에서는 DeepSeek 모델을 Local PC에 설치 후 인터넷 사용 없이 돌리는 방법을 알아본다. ollama는 오픈 소스 LLM (Large Language Models)을 Local PC (윈도우, 리눅스, 맥 모두 호환)에서 돌릴 수 있게 도와준다. 최근에 DeepSeek (딥시크) R1 이 추가되어 MacOS 기준으로 설치 후 간단히 실행하는 방법을 이야기해보려고 한다. 설치 방법 https://ollama.com/ 에 접속하면 Download 버튼을 눌러 사용중인 OS 종류를 선택 후 다운로드 하고 PC에 설치한다. MacOS 같은 경우 압축 파일이 받아지고 그 파일을 푼 후 실행하고 몇 단계의 설치 과정을 마..

Development 2025.01.30
728x90
반응형