• 
    <ul id="auswy"><sup id="auswy"></sup></ul>
  • <ul id="auswy"></ul>
    ABB
    關注中國自動化產業發展的先行者!
    隨著會計的發展,追蹤碳足跡
    CAIAC 2025
    2025邊緣計算產業生態伙伴大會
    2025工業安全大會
    OICT公益講堂
    當前位置:首頁 >> 資訊 >> 企業資訊

    資訊頻道

    在InHand AI邊緣計算機上體驗 DeepSeek R1 蒸餾模型
    • 點擊數:214     發布時間:2025-03-16 11:10:20
    • 分享到:
    春節期間,國產大模型 DeepSeek R1 憑借開源特性和高效推理能力成為 AI 領域的焦點。其知識蒸餾技術能將復雜模型的推理能力遷移至輕量化版本,使其在多項基準測試中表現優異,甚至超越部分國際頂尖模型。開源策略+輕量設計,不僅降低了 AI 部署門檻,更為邊緣計算場景帶來了全新的可能。

    春節期間,國產大模型 DeepSeek R1 憑借開源特性和高效推理能力成為 AI 領域的焦點。其知識蒸餾技術能將復雜模型的推理能力遷移至輕量化版本,使其在多項基準測試中表現優異,甚至超越部分國際頂尖模型。開源策略+輕量設計,不僅降低了 AI 部署門檻,更為邊緣計算場景帶來了全新的可能。

    17420959441.png

    春節后首個工作日,InHand AI 技術團隊成功在 EC5000系列邊緣計算機上完成 DeepSeek R1 蒸餾模型的本地部署。這一成果驗證了輕量級邊緣設備(如 EC5000)在 AI 推理任務中的強大潛力。相較于傳統云端部署,邊緣端計算無需依賴高算力服務器,可在低功耗環境下實現實時推理,為工業質檢、智慧交通、遠程醫療等領域提供更靈活、安全、高效的AI 解決方案。


    通過幾個簡單的步驟,就可以實現在EC5000系列邊緣計算機上運行DeepSeek R1 蒸餾模型。

    步驟1:安裝Nvidia的jetson containers工具包

    通過以下兩條命令完成jetson containers工具包的下載和安裝:

    git clone https://github.com/dusty-nv/jetson-containers

    bash jetson-containers/install.sh

    步驟2:安裝Nvidia Jetpack工具包

    通過以下兩條命令完成Nvidia Jetpack工具包的下載和安裝:

    sudo apt update

    sudo apt install nvidia-jetpack

    步驟3:修改Docker鏡像倉庫源為中國大陸國內源(非必須)

    在目錄 /etc/docker/ 下創建文件daemon.json。

    在文件daemon.json中輸入以下內容并保存(以vim編輯器為例):

    sudo vim /etc/docker/daemon.json

    {

        "registry-mirrors": [

            "https://docker.1ms.run",

            "https://docker.xuanyuan.me"

        ]

    }

    保存文件后,通過以下命令重啟Docker服務,使配置文件生效

    sudo systemctl daemon-reload

    sudo systemctl restart docker

    注意:

    1.https://docker.1ms.run 和https://docker.xuanyuan.me兩個docker鏡像源地址僅保證在2025年2月5日可用,如果服務器失效,需要將地址修改為當前可用的服務器地址。

    2. 此步驟非必須,僅當默認docker倉庫地址不可用時,自定義鏡像倉庫地址用于加速。中國大陸以外的用戶,一般不需要執行此步驟。

    步驟4:下載并運行ollama容器

    docker run -itd --runtime nvidia --name ollama ollama/ollama

    步驟5:通過ollama 下載并運行deepseek r1的蒸餾模型

    參考連接:https://ollama.com/library/deepseek-r1:1.5b

    選擇要運行的Deepseek R1 蒸餾模型版本,然后通過ollama 命令行自動安裝。以DeepSeek-R1-Distill-Qwen-1.5B模型為例,執行下面的命令:

    docker exec -it ollama ollama run deepseek-r1:1.5b

    其中,參數deepseek-r1:1.5b為模型名,可替換為其它想要運行的模型名稱(參考https://ollama.com/search)。命令執行后,系統將自動下載并安裝參數指定的模型。

    17420959741.png

    下表列出了EC5000系列邊緣計算機支持的DeepSeek R1 蒸餾模型情況:

    17420959931.png


    驗證模型

    執行命令docker exec -it ollama ollama run deepseek-r1:1.5b(deepseek-r1:1.5b 需要替換為用戶自己使用的模型名稱)后,便可以和模型交互。

    17420960091.png


    其它

    查看EC5000系列邊緣計算機的CPU/GPU/內存利用率

    設備支持通過jtop命令實時查看本設備硬件狀態,執行sudo jtop 后,將會看到下圖所示的輸出:

    17420960311.png

    注意:jtop命令必須通過root權限執行。


    說明

    1. 除了示例中的deepseek R1 蒸餾模型外,EC5000系列邊緣計算機也支持其它開源的LLM,如llama3等。

    2. 通過ollama在EC5000系列邊緣計算機中運行LLM方法并不是唯一的。

    此次在EC5000系列邊緣計算機上成功部署DeepSeek R1蒸餾模型,不僅驗證了邊緣硬件與前沿AI技術的深度融合能力,更開啟了“輕量化+高性能”的邊緣AI新范式。

    未來,隨著蒸餾技術的持續優化,企業可基于此類方案快速構建私有化AI服務,降低算力成本的同時保障數據安全。InHand 將持續推動邊緣智能生態建設,助力千行百業邁向“端側智慧化”的新階段。


    熱點新聞

    推薦產品

    x
    • 在線反饋
    1.我有以下需求:



    2.詳細的需求:
    姓名:
    單位:
    電話:
    郵件: