黄色网站入口国产美女,精品国产欧美另类一区,国产一区二区美女自慰,日日摸夜夜添无码国产

選擇你喜歡的標簽
我們會為你匹配適合你的網址導航

    確認 跳過

    跳過將刪除所有初始化信息

    您的位置:0XUCN > 資訊 > 技術
    新聞分類

    國產大模型deepseek-R1本地部署手冊

    技術 PRO 稿源:大俠之運維 2025-01-29 18:17

    ?近期deepseek多次沖上熱搜,又是多模態(tài)支持,又是開源發(fā)布R1模型,最近還受到了網絡攻擊。

    這篇文章介紹下如何快速部署deepseek-R1,本地訪問,因為目前提供了最低7B數據集的模型。

    部署方案:Ollama + DeepSeek-R1 + Anything-LLM

    這個方案包括如何安裝和配置 Ollama 進行模型管理,使用 DeepSeek-R1 進行推理,并通過 Anything-LLM 提供 Web 界面。

    ollama安裝

    windows直接下載安裝部署即可

    訪問地址:ollama.com

    安裝完成后,桌面右下角會有小圖標。

    模型下載

    直接去搜索deepseek-r1模型,或者首頁上點擊。

    然后在終端命令執(zhí)行

    ollama?run?deepseek-r1:7b

    anything-llm安裝

    好的,以下是使用 Docker 安裝 Anything-LLM 以及配置 DeepSeek-R1 模型的步驟。

    1. 安裝 Docker

    首先,確保您的系統(tǒng)上已安裝 Docker。如果尚未安裝,可以參考以下鏈接進行安裝:

    docs.docker.com/docker-for-windows/install/

    2. 克隆 Anything-LLM 倉庫

    在終端中執(zhí)行以下命令來克隆 Anything-LLM 的 GitHub 倉庫:

    git?clone?https://github.com/anything-llm/anything-llm.git cd?anything-llm

    3. 創(chuàng)建 Dockerfile

    在?anything-llm?目錄下創(chuàng)建一個?Dockerfile,其內容如下:

    #?Use?an?official?Python?runtime?as?a?parent?image FROM?python:3.9-slim #?Set?the?working?directory?in?the?container WORKDIR?/app #?Copy?the?current?directory?contents?into?the?container?at?/app COPY?.?/app #?Install?any?needed?packages?specified?in?requirements.txt RUN?pip?install?--no-cache-dir?-r?requirements.txt #?Make?port?8080?available?to?the?world?outside?this?container EXPOSE?8080 #?Define?environment?variable ENV?NAME?Anything-LLM #?Run?app.py?when?the?container?launches CMD?["python",?"app.py"]

    4. 構建 Docker 鏡像

    在?anything-llm?目錄下執(zhí)行以下命令來構建 Docker 鏡像:

    docker?build?-t?anything-llm?.

    5. 創(chuàng)建配置文件

    在?anything-llm?目錄下創(chuàng)建一個?config.yaml?文件,并添加 DeepSeek-R1 模型的配置:

    model: ??name:?deepseek-r1-7b ??path:?/models/deepseek-r1-7b server: ??host:?0.0.0.0 ??port:?8080

    將模型放置在指定目錄下:

    將下載的 DeepSeek-R1 7B 模型移動到 Docker 容器可以訪問的路徑,例如?/models/deepseek-r1-7b。

    7. 運行 Docker 容器

    使用以下命令運行 Docker 容器,并將模型目錄掛載到容器中:

    docker?run?-d?-p?8080:8080?-v?/path/to/models:/models?--name?anything-llm?anything-llm

    請將?/path/to/models?替換為您本地存放模型的路徑。

    8. 驗證部署

    通過瀏覽器訪問?http://localhost:8080,您應該能夠看到 Anything-LLM 的界面,并與 DeepSeek-R1 7B 模型進行交互。

    總結

    通過上述步驟,您可以使用 Docker 成功安裝和部署 Anything-LLM,并配置 DeepSeek-R1 7B 模型。

    0XU.CN

    [超站]友情鏈接:

    四季很好,只要有你,文娛排行榜:https://www.yaopaiming.com/
    關注數據與安全,洞悉企業(yè)級服務市場:https://www.ijiandao.com/

    圖庫
    公眾號 關注網絡尖刀微信公眾號
    隨時掌握互聯(lián)網精彩
    贊助鏈接