跳至主要内容

使用 DeepSeek R1 的正確方式

· 閱讀時間約 5 分鐘

想要搭上最近討論度超高的 DeepSeek 列車嗎?很簡單,你只要:

  1. 用瀏覽器連到 chat.deepseek.com,或是下載 DeepSeek 的手機 App
  2. 註冊帳號,依照它的需求填寫各種資料。
  3. 開始使用,在使用過程中把你的各種祕密告訴它
  4. 疑惑為什麼中共政府突然知道了你的一切。

不~千萬不要這樣做啊!

當你使用線上版的 DeepSeek,在跟 AI 的對話過程中,不免會洩漏一些個人資訊、祕密甚至是敏感的資料,而這些資訊都會存在他們的主機上。當然,不只是 DeepSeek 會這樣,所有的線上 AI 服務都是如此,包括 ChatGPT、Claude 等等。

但是 DeepSeek 的問題是,他們的主機位在中國。我並不是說 DeepSeek 身為中國公司就一定心懷不軌,但是 DeepSeek 的確需要遵守中國的法律啊!

這表示只要習維尼大大想要,牠就可以隨意調閱世界上任何一個人跟 DeepSeek 的對話記錄,如果你說了什麼可能成為你的把柄、用來攻擊你的東西,那就……祝你好運囉!

唯一正確的用法

想要安全地使用 DeepSeek R1,不被共產黨政府偷窺,唯一的方式就是離線執行!至少有兩種簡單的工具可以做到:

  1. LM Studio:到 https://lmstudio.ai/ 下載。它是一個可以讓你離線執行各種大型語言模型的工具,一個程式直接搞定所有事情,非常方便!唯一的缺點是我覺得它的界面沒有很漂亮。
  2. Ollama + Open WebUI(我更偏好的方式):如果你不會害怕終端機,那麼我強烈建議你用 OllamaOpen WebUI 的組合!Ollama 是一個單機 AI 運行引擎,需要用簡單的終端機使用安裝和設定;而 Open WebUI 則是提供漂亮友善、幾乎長得跟 ChatGPT 一模一樣的網頁介面,讓你可以打開瀏覽器跟 Ollama 互動。

(網路上有大量 Ollama + Open WebUI 的安裝教學,從文章到 YouTube 影片都有,我就不在這邊寫了。)

選擇合適的模型大小

你可以根據自己的電腦配備來選擇合適大小的模型。

  • 以我為例,我用 Linux 作業系統,有兩張 RTX 4000 顯示卡,可以很順暢地執行 DeepSeek R1 32B 的模型。
  • 如果你只有一張 16 到 20 GB VRAM 的顯示卡(或者你用的是大約 32 GB 記憶體的 M 系列蘋果電腦),那也許可以嘗試使用 14B 的模型。
  • 如果你的電腦配備更差,DeepSeek R1 還有 14B、8B、7B、1.5B 大小的版本。當然「B」數越少,模型的 IQ 就越低囉!

我是覺得 32B 的模型已經非常聰明,不管是文章整理、翻譯、潤稿、腦力激盪等等的工作都很好用,幾乎就和 ChatGPT 4o 不相上下!

投資一兩張顯示卡吧!

除了 DeepSeek R1 之外,目前我個人很推薦的模型還有 Aya Expanse 32BQwen2.5 32BMistral-small 24B,這些模型都可以在只有 20 到 40 GB 顯示記憶體(VRAM)的電腦下執行,而且實用度都很高。有了他們,就很像是家裡請了幾個工讀生幫你處理各種工作一樣!

如果你常常使用 AI 工具,我超級建議投資一兩張好的顯示卡,建立自己的離線 AI 小天地!買顯示卡執行 DeepSeek,就不用擔心自己的祕密被習大大 Deep Seek 了。