在剛剛過去的春節(jié)假期,一款名為DeepSeek的科技產品成為了眾多家庭熱議的焦點,甚至吸引了那些平時對科技新聞不太關注的長輩們的注意。自OpenAI的ChatGPT之后,DeepSeek再次展現(xiàn)了AI大模型深入人心的魅力。
然而,大紅大紫的背后,DeepSeek也遭遇了連續(xù)且高強度的網絡攻擊,導致其官網大部分時間無法正常生成內容。即便關閉了聯(lián)網搜索功能,具備深度推理能力的DeepSeek-R1在線模型也依然難以正常使用。幸運的是,在華為等眾多科技公司的支持下,第三方平臺紛紛接入了DeepSeek的API,使得穩(wěn)定在線使用成為可能。
盡管如此,仍有不少科技愛好者追求更高層次的體驗,他們希望將DeepSeek大模型部署到本地。小雷便是其中之一,他在春節(jié)期間動手實踐了這一想法。
想要在個人電腦上部署一個本地大模型,步驟并不多,但難點在于尋找對應的資源和命令。本地大模型雖然已經是訓練好的成品,但仍需要一定的硬件基礎才能提供良好的體驗。小雷選擇了DeepSeek-R1模型中的7b版本,即帶有70億參數的DeepSeek-R1模型,占用空間為4.7GB。
他首先到Ollama官網下載了一個桌面端應用,這個應用相當于一個承載本地大模型的“盒子”。在Ollama官網的模型庫中,他找到了DeepSeek-R1模型的代碼,并復制到PowerShell中執(zhí)行,從而拉取和安裝了模型數據。安裝完成后,他就可以在PowerShell窗口中直接調取剛下載的DeepSeek-R1模型,輸入問題后,本地大模型便會進行推理并生成答案。
然而,每次開啟電腦都需要打開PowerShell界面才能激活大模型,這對于普通用戶來說并不方便。于是,小雷為DeepSeek-R1安裝了一套更直觀的交互界面。他選擇在Docker應用上添加一個Open-WebUI組件,使得DeepSeek-R1可以通過瀏覽器界面進行交互,并賦予了它聯(lián)系上下文的能力。
經過一番操作,小雷成功地將DeepSeek-R1部署到了本地,并獲得了一臺帶有AI本地大模型的“AI電腦”。他體驗了整個部署過程,發(fā)現(xiàn)步驟并不復雜,主要是搜索命令行、安裝資源和拉取安裝組件花費了較多時間。
那么,本地部署大模型的意義何在呢?小雷認為,關鍵在于兩點:一是本地大模型的所有模型數據和對話記錄都是完全離線的,存儲在本地,本地推理響應時間更快,也避免了敏感內容泄露。同時,在無網絡環(huán)境下,也可以正常使用大模型;二是本地部署支持各種開源模型,個人用戶可以靈活擴展和切換,也可以根據自身需求進行優(yōu)化和工具集成。
不過,小雷也指出,本地大模型的生成能力并不如云端版。他使用的電腦配置并不在本地部署大模型的推薦范圍內,因此DeepSeek-R1 7b模型在這款電腦上需要更多的推理時間和資源占用才能正常生成內容。對于一些復雜的問題,本地大模型可能需要思考幾十秒甚至一分鐘才能進入答案生成階段。
盡管如此,小雷仍然對DeepSeek擬人化的思考過程感興趣。他認為,這種擬人化的推理過程能夠激起許多普通用戶的興趣。相比之下,網頁端的DeepSeek大模型在密集訪問下可能會出現(xiàn)“服務器繁忙”的情況,而本地部署則至少能夠保證訪問。
然而,小雷也承認,本地大模型并不適合所有人。就現(xiàn)階段的生成能力來說,本地大模型很難與線上大模型媲美。它更適合動手能力強的電腦用戶折騰,深度發(fā)掘可能會帶來一些功能上的便利。但作為普通用戶,部署本身并不容易,大模型的周邊配套也并不成熟。
在小雷看來,DeepSeek選擇開源道路,主要是為了打響市場影響力,先行占據市場地位。隨著DeepSeek在各行業(yè)的應用和滲透,個人本地部署的需求可能會變得更加簡單。到那個時候,調起PowerShell界面、敲代碼等事情甚至都不需要用戶來做。