728x90
반응형
이전 두개의 글에서 딥시크 사용후기, ollama를 사용하여 DeepSeek R1을 내 PC에서 실행하기 를 이야기하였다. 두번째 글에서는 터미널에서 콘솔로 실행을 하여 결과를 얻어냈다.
이 글에서는 크롬 브라우저의 플러그인 중에 하나인 Page Assist를 활용하여 web에서 LLM을 사용하여 채팅을 하는 방법에 대해서 소개한다. 정말 간단하다. ollama 를 터미널에서 시작 (명령어: ollama serve)하고 설치한 Page Assist 플러그인을 실행하면 바로 페이지에 접속해서 사용할 수 있다. 아래는 터미널에서 ollama serve를 실행한 화면이다.
이후 크롬 플러그인을 실행하면 바로 접속하여 아래 그림과 같이 사용할 수 있다. 직관적으로 잘 만들어져있다.
또한 이를 실행할 때 터미널에서 관련된 로그들이 다 나와서 API 호출부터해서 실행중인 정보들을 다 볼 수 있다. 로그가 엄청 길지만 간단히 맛보기로만 캡쳐해서 첨부한다.
이 크롬 플러그인은 가장 쉽게 web UI를 접근하여 볼 수 있는 방법이고 openwebUI 를 설치하여 하는 방법 등 여러가지 방법 (참고: https://itsfoss.com/ollama-web-ui-tools/)이 있다. 쉽고 재밌게 접근이 가능하니 한번 정도는 해보면 좋을 것 같다.
반응형
'Development' 카테고리의 다른 글
VS Code에서 DeepSeek (딥시크) 사용 2 - 코드와 인터랙션 (0) | 2025.02.03 |
---|---|
VS Code에서 DeepSeek (딥시크) 사용 (0) | 2025.02.01 |
ollama를 사용하여 DeepSeek (딥시크) R1를 내 PC에서 실행 (0) | 2025.01.30 |
DeepSeek (딥시크) 사용 후기 (2) | 2025.01.28 |
Intel Ultra 9 185H (22 Threads) CPU 노트북 사용 후기 (2) | 2024.12.18 |