반응형

딥시크 AI는 미국에서 기술 산업을 강타했습니다. 이 중국 AI 스타트업은 Apple App Store의 최고 무료 앱 카테고리에서 1위를 차지하며 OpenAI의 ChatGPT를 제쳤습니다. DeepSeek AI는 또한 NVIDIA의 시가총액에서 거의 4,000억 달러를 싹쓸이하여 미국 기술 주식 시장을 뒤흔들었습니다.

 

이 회사는 또한 OpenAI의 Dall-E 모델을 능가하는 Janus-Pro 이미지 생성 모델을 출시했습니다. 인상적이지 않다면 DeepSeek이 OpenAI와 같은 경쟁사에 비해 훨씬 낮은 비용으로 이러한 모든 최고 수준의 제품을 제공할 수 있었다는 보고가 있었습니다.

 

DeepSeek AI는 공식 웹사이트에서 무료로 이용할 수 있지만 중국에서 시작되었기 때문에 개인정보 보호 문제가 있습니다. DeepSeek에서 데이터를 어떻게 사용하여 중국으로 보내는지 궁금하다면 컴퓨터에서 로컬로 이 AI 챗봇을 실행해 보세요. 이 가이드에서는 Windows와 Mac에서 DeepSeek AI를 로컬로 실행하는 방법에 대한 세부 정보를 공유해 드리겠습니다. 바로 시작해 볼까요.

 

딥시크 R1이 무엇인가요?

DeepSeek AI는 중국에서 나온 또 다른 AI 챗봇입니다. 2023년 12월 Liang Wenfeng이 설립했으며, 그들의 AI 챗봇인 DeepSeek R1 모델은 2025년 1월에 출시되었습니다. Microsoft의 Copilot이나 OpenAI의 ChatGPT와 같은 다른 챗봇과 비슷하게 작동합니다.

 

콘텐츠 생성, 질문하기, 콘텐츠 쓰기 또는 요약하기, 코딩 작업 지원과 같은 동일한 작업에 사용할 수 있지만, DeepSeek과 다른 AI 모델의 차이점은 전자의 효율성에 있습니다.

딥시크 대화창

보도에 따르면 DeepSeek을 훈련하는 데 투자한 비용은 600만 달러에 불과한 반면 OpenAI는 ChatGPT 에 1억 달러 이상을 투자했습니다. DeepSeek AI는 경쟁사보다 더 나은 결과를 낼 수 있지만 정치적으로 민감한 질문은 피하도록 훈련되었습니다. DeepSeek AI에 인도의 양도 불가 지역인 "아루나찰프라데시"에 대한 질문을 반복해서 했을 때, AI 챗봇은 답변을 제공하지 않았습니다. 그래서 그게 전부입니다.

 

그렇지 않으면, 챗봇은 코드를 작성하거나 콘텐츠를 생성하라는 요청을 받았을 때 효과적으로 더 나은 결과를 생성합니다. DeepSeek이 인기를 얻자마자, 미국 정부가 수출을 제한함에 따라 사용자 데이터를 처리 하고 R1 모델에 전력을 공급하기 위해 고성능 NVIDIA 칩을 어떻게 얻을 수 있었는지에 대한 조사가 진행되었습니다.

 

Windows 및 Mac 컴퓨터에서 딥시크를 로컬로 실행하세요

아래 방법의 가장 좋은 점은 Windows와 Mac, 심지어 Linux 컴퓨터에서도 단계가 동일하다는 것입니다. 우리가 사용할 소프트웨어도 Windows와 Mac에서 무료로 제공됩니다.

 

LM Studio를 사용하세요

  1. LM Studio 공식 웹사이트를 방문하여 Windows나 Mac PC에 무료 소프트웨어를 다운로드하세요.
  2. LM Studio를 다운로드하고 설치한 후 프로그램을 실행하세요.
  3. 왼쪽 창에 있는 검색 아이콘 을 클릭하세요.
    딥시크 LM Studio 설정
  4. 왼쪽 창의 모델 검색 에서 DeepSeek R1 Distill(Qwen 7B) 모델을 찾으세요. 크기는 약 4.68GB입니다. 하단의 다운로드 버튼을 누르세요.
    딥시크 LM Studio 설정
  5. 이 모델을 다운로드하려면 최소 5GB의 여유 저장 공간과 8GB의 RAM이 PC에 필요합니다.
  6. DeepSeek AI 모델 다운로드가 완료된 후 채팅 창으로 가서 모델을 로드합니다.
  7. 모델을 선택하고 모델 로드 버튼을 클릭합니다. 문제가 발생하는 경우 GPU 오프로드를 0 으로 다이얼백한 다음 다시 시도해야 합니다.
  8. 그게 다예요! 이제 데이터가 중국 서버에 업로드되는 것을 걱정하지 않고도 PC에서 DeepSeek AI와 로컬로 채팅하고 상호 작용할 수 있습니다.

 

올라마를 사용하세요

  1. 공식 웹사이트 에서 Ollama 소프트웨어를 다운로드하여 Windows, Mac 또는 Linux 컴퓨터에 설치하세요.
    Ollama 소프트웨어
  2. Windows PC에서 명령 프롬프트를 실행하거나 Mac 컴퓨터에서 터미널을 실행하고 아래 명령을 실행하세요.
    • ollama run deepseek-r1:1.15b
      Mac 컴퓨터에서 터미널
  3. 위의 코드는 DeepSeek R1의 효율적인 버전을 위한 것이며, 로우엔드 컴퓨터를 위한 Qwen을 기반으로 합니다. 1.1GB의 메모리만 사용합니다. 그러나 강력한 사양의 하이엔드 PC가 있다면 아래에서 7b, 8b, 14b, 32b, 70b와 같은 다른 DeepSeek AI 모델에 대한 코드를 복사할 수 있습니다.
    • 7b (4.7GB 메모리 사용)—ollama run deepseek-r1:7b
    • 8b (4.9GB 메모리 사용)—ollama run deepseek-r1:8b
    • 14b (9GB 메모리 사용)—ollama run deepseek-r1:14b
    • 32b (20GB 메모리 사용)—ollama run deepseek-r1:32b
    • 70b (43GB 메모리 사용)—ollama run deepseek-r1:70b
  4. 이렇게 하면 명령 프롬프트에 DeepSeek AI 모델이 로드됩니다. 이제 질문을 하거나 원하는 대로 사용할 준비가 되었습니다.
  5. AI 모델과의 대화를 중단하려면 Ctrl+D 키보드 단축키를 입력해야 합니다.

 

딥시크 AI를 로컬에서 사용하고 데이터를 비공개로 유지하세요

위의 두 가지 방법을 사용하여 딥시크 AI를 로컬에서 실행하면 데이터가 외부 서버로 전송되지 않고 로컬에서 사용할 수 있습니다. 또한 응답 속도가 빨라지고 DeepSeek AI를 모든 워크플로에 통합하는 옵션도 있습니다. 그러나 강력한 컴퓨터를 소유하고 있다면 기본 DeepSeek R1 모델을 사용해야 합니다.

 

오래되었거나 성능이 낮은 PC를 사용하는 사람은 DeepSeek 1.5b 모델을 사용할 수 있습니다. 지적하고 싶은 또 다른 사항은 테스트 결과, 특히 기록에 대한 여러 응답이 잘못되었거나 조작되었다는 것을 발견했으며, 이는 AI에 크게 의존해서는 안 되는 주된 이유 중 하나입니다.

 

*참고한 원본 글: https://techpp.com/2025/02/06/run-deepseek-locally-on-pc-mac/

반응형

+ Recent posts