반응형

딥시크 7

LM Studio: 내 PC에서 오픈 LLM 모델 (DeepSeek R1 등) 찾아서 실행까지 완벽 정복 가이드

이전 블로그 글에서 command line 으로 deepseek (딥시크)와 같은 오픈 LLM 모델을 설치하여 돌라는 방법을 이야기하였다. UI 를 기본적으로 제공하지 않기 때문에 Chromium Extension을 설치하여 사용하는 방법에 대해서도 이야기하였다. LM Studio 소개 이를 모두 하나로 통합하여 제공하는 LM Studio를 발견하여 설치하고 사용하는 방법에 대해서 소개한다. LM Studio도 애플 실리콘, Windows, Linux 모두 지원을 한다. 맥북에서 돌리기 위해 받았는데 1.41GB로 생각보다 애플리케이션의 크기가 컸다. LM Studio 기능 LM Studio로 다음과 같은 것을 할 수 있다고 홈페이지 메인에 당당하게 적혀있다. 앱만 설치하면 정말 사용하기는 쉽게 되어있다..

Development 2025.02.06

Ollama 파이썬 API 이용하여 DeepSeek (딥시크) 사용

앞에 여러 글들에서 DeepSeek 사용 후기, Ollama를 이용하여 DeepSeek를 로컬 PC에서 돌리는 방법, DeepSeek를 로컬 PC에서 webUI와 연동하는 방법, DeepSeek를 이용하여 코딩하는데 도움을 받는 방법 #1, #2 등의 글을 썼다. 여기서는 Ollama 파이썬 API 를 이용하여 DeepSeek(딥시크) R1을 코딩에 사용하는 방법에 대해서 알아본다. Ollama는 오픈소스 LLM을 사용하는 서비스이기 때문에 DeepSeek R1뿐만 아니라 Ollama에서 지원하는 다양한 LLM 모델 (메타의 llama, qwen2.5 등)을 간단한 환경설정 변경으로 동일한 코드와 API로 사용할 수 있다. 설치 방법 pip 또는 pip3 명령어로 ollama python 모듈을 설치한다..

Development 2025.02.04

VS Code에서 DeepSeek (딥시크) 사용 2 - 코드와 인터랙션

VS Code (Visual Studio Code)에서 Continue Extension과 연결하여 DeepSeek를 사용하는 방법에 대해서 이전 블로그 글에서 설명하였다. 이전 블로그 글에서는 Continue Extension 창에서 사용했었고, 이 글에서는 실제 코드와 쉽게 인터랙션하여 사용하는 방법을 이야기해보려고 한다. 현재까지 사용해본 결과 결론적으로 말하면 Github Copilot 이 훨씬 더 사용하기 쉽고 코드 퀄리티도 더 좋은 것 같다. 물론 DeepSeek를 조금 더 사용해보면 다른 결론이 나올 수 있겠지만 현재로썬 그렇다. 단 여전히 DeepSeek의 장점은 오픈소스로 인터넷 접속 없이 로컬로 사용 가능하다는 것이다. Github Copilot에 대해서는 또 다른 블로그 글을 참고해..

Development 2025.02.03

VS Code에서 DeepSeek (딥시크) 사용

Visual Studio Code (VS Code)에서 DeepSeek (딥시크)를 사용하는 방법을 간단히 이야기해보려고 한다. VS Code Extension 설치해서 간단한 Configuration을 하면 쉽게 사용이 가능하다. 여기서 사용할 Extension은 Continue 이고 간단한 설치와 설정으로 DeepSeek를 사용할 수 있게 해준다. 이 Extension을 선택한 이유는 이전의 블로그 글에서 이야기한 local PC에서 쉽게 돌릴 수 있는 서비스인 ollama 를 지원하고 많은 개발자들이 사용, 업데이트도 잘되기 때문이다. Extension 설치 우선 VS Code를 실행하고 Extensions에서 Continue를 검색한 후 Install 버튼을 눌러 설치한다. 설치가 완료되면 위의 ..

Development 2025.02.01

DeepSeek (딥시크)를 PC에서 web UI와 연동

이전 두개의 글에서 딥시크 사용후기, ollama를 사용하여 DeepSeek R1을 내 PC에서 실행하기 를 이야기하였다. 두번째 글에서는 터미널에서 콘솔로 실행을 하여 결과를 얻어냈다. 이 글에서는 크롬 브라우저의 플러그인 중에 하나인 Page Assist를 활용하여 web에서 LLM을 사용하여 채팅을 하는 방법에 대해서 소개한다. 정말 간단하다. ollama 를 터미널에서 시작 (명령어: ollama serve)하고 설치한 Page Assist 플러그인을 실행하면 바로 페이지에 접속해서 사용할 수 있다. 아래는 터미널에서 ollama serve를 실행한 화면이다. 이후 크롬 플러그인을 실행하면 바로 접속하여 아래 그림과 같이 사용할 수 있다. 직관적으로 잘 만들어져있다. 또한 이를 실행할 때 터미널에..

Development 2025.01.31

ollama를 사용하여 DeepSeek (딥시크) R1를 내 PC에서 실행

이전 글에서 DeepSeek 를 웹에서 사용한 후기를 간단히 공유해 보았다. 이번 글에서는 DeepSeek 모델을 Local PC에 설치 후 인터넷 사용 없이 돌리는 방법을 알아본다. ollama는 오픈 소스 LLM (Large Language Models)을 Local PC (윈도우, 리눅스, 맥 모두 호환)에서 돌릴 수 있게 도와준다. 최근에 DeepSeek (딥시크) R1 이 추가되어 MacOS 기준으로 설치 후 간단히 실행하는 방법을 이야기해보려고 한다. 설치 방법 https://ollama.com/ 에 접속하면 Download 버튼을 눌러 사용중인 OS 종류를 선택 후 다운로드 하고 PC에 설치한다. MacOS 같은 경우 압축 파일이 받아지고 그 파일을 푼 후 실행하고 몇 단계의 설치 과정을 마..

Development 2025.01.30

DeepSeek (딥시크) 사용 후기

중국에서 개발한 생성형 AI인 DeepSeek (딥시크)가 지금 완전 핫하다. GPT나 다른 생성형 AI에 비해 1/10 수준의 비용으로 비슷한 성능을 낸다고 한다. 물론 이것은 DeepSeek의 보고서 내용이긴 하지만 엄청난 파장이며 현재 NVIDIA (엔비디아) 주가가 16% 이상 하락하고 나스닥은 3프로 이상 하락하고 있다. 현재 딥시크는 해커들의 공격으로 가입이 원활하지 않다고 나오지만 안되면 여러번 Google 계정으로 가입 시도를 하면 가입이 되어 사용할 수 있다. 위의 그래프에서 보는 것과 같이 DeepSeek의 가장큰 경쟁력은 모델을 만들어낼 때 필요한 가격이다. GPT의 1/10 수준의 가격에 GPT와 비슷한 성능을 내고 있다고 딥시크 측은 주장하고 있다. 또한 무료로 사용할 수 있다. ..

Development 2025.01.28
728x90
반응형