
xLLM – 京東開(kāi)源的智能推理框架
聲明:該文章來(lái)自(AI工具集)版權(quán)由原作者所有,K2OS渲染引擎提供網(wǎng)頁(yè)加速服務(wù)。
xLLM是什么
xLLM 是京東開(kāi)源的高效智能推理框架,專(zhuān)為國(guó)產(chǎn)芯片優(yōu)化,支持端云一體部署??蚣苡梅?wù)-引擎分離架構(gòu),服務(wù)層負(fù)責(zé)請(qǐng)求調(diào)度與容錯(cuò),引擎層專(zhuān)注運(yùn)算優(yōu)化,具備多流并行、圖融合、動(dòng)態(tài)負(fù)載均衡等特性。xLLM 支持大模型、多模態(tài)模型及生成式推薦等多種場(chǎng)景,提供高性能、低成本的推理服務(wù),助力智能客服、實(shí)時(shí)推薦、內(nèi)容生成等業(yè)務(wù)高效落地,推動(dòng)大語(yǔ)言模型在國(guó)產(chǎn)芯片上的規(guī)?;瘧?yīng)用。
xLLM的主要功能
全圖化 / 多層流水線執(zhí)行編排:通過(guò)框架層異步解耦調(diào)度、模型圖層計(jì)算通信異步并行及算子內(nèi)核層深度流水優(yōu)化,實(shí)現(xiàn)多層流水線執(zhí)行編排,減少計(jì)算空泡并提升整體推理效率。
動(dòng)態(tài) Shape 的圖執(zhí)行優(yōu)化:用參數(shù)化與多圖緩存方法實(shí)現(xiàn)動(dòng)態(tài)尺寸適配,結(jié)合受管控的顯存池和自定義算子集成,提升靜態(tài)圖靈活性并保障顯存安全復(fù)用,優(yōu)化動(dòng)態(tài)輸入處理性能。
MoE 算子優(yōu)化:針對(duì) MoE 模型,實(shí)現(xiàn) GroupMatmul 和 Chunked Prefill 算子優(yōu)化,分別提升計(jì)算效率和長(zhǎng)序列輸入的處理能力,增強(qiáng)模型推理性能。
高效顯存優(yōu)化:采用離散物理內(nèi)存與連續(xù)虛擬內(nèi)存的映射管理,按需分配內(nèi)存空間,智能調(diào)度內(nèi)存頁(yè)復(fù)用,減少內(nèi)存碎片與分配延遲,適配國(guó)產(chǎn)芯片算子,提升顯存利用效率。
全局多級(jí) KV Cache 管理:實(shí)現(xiàn)多級(jí)緩存的 KV 智能卸載與預(yù)取,構(gòu)建以 KV Cache 為中心的分布式存儲(chǔ)架構(gòu),優(yōu)化多節(jié)點(diǎn)間 KV 的智能傳輸路由,提升緩存效率和數(shù)據(jù)傳輸性能。
算法優(yōu)化:通過(guò)投機(jī)推理優(yōu)化和 MoE 專(zhuān)家動(dòng)態(tài)負(fù)載均衡,實(shí)現(xiàn)多核并行提升效率,動(dòng)態(tài)調(diào)整專(zhuān)家分布,優(yōu)化算法性能,提升推理吞吐量和負(fù)載均衡能力。
如何使用xLLM
環(huán)境準(zhǔn)備:
下載鏡像:根據(jù)硬件設(shè)備(如 A2、A3 等)和架構(gòu)(x86 或 arm),選擇合適的 Docker 鏡像。例如,對(duì)于 A2 設(shè)備(x86 架構(gòu)),可以下載 xllm/xllm-ai:0.6.0-dev-hb-rc2-x86 鏡像。如果下載失敗,嘗試備用源 quay.io/jd_xllm/xllm-ai:0.6.0-dev-hb-rc2-x86。
創(chuàng)建容器:創(chuàng)建啟動(dòng)容器時(shí),需要掛載必要的設(shè)備和目錄,確保容器能訪問(wèn)硬件資源和數(shù)據(jù)。包括設(shè)備文件(如 /dev/davinci0、/dev/davinci_manager 等)、模型文件路徑、驅(qū)動(dòng)路徑等。
安裝編譯:
編譯生成可執(zhí)行文件:運(yùn)行編譯命令,生成可執(zhí)行文件。默認(rèn)情況下,編譯目標(biāo)是 A2 設(shè)備。如果需要編譯為其他設(shè)備(如 A3 或 MLU),通過(guò)添加參數(shù)指定設(shè)備類(lèi)型。
生成 whl 包:如果需要生成 Python 的 whl 包,運(yùn)行相應(yīng)的編譯命令,生成的 whl 包將保存在 dist/ 目錄下。
克隆倉(cāng)庫(kù):進(jìn)入容器后,克隆 xLLM 的官方倉(cāng)庫(kù),初始化子模塊。
配置 vcpkg:如果鏡像中沒(méi)有預(yù)裝 vcpkg,手動(dòng)克隆 vcpkg 倉(cāng)庫(kù),設(shè)置環(huán)境變量 VCPKG_ROOT 指向 vcpkg 的安裝路徑。
安裝 Python 依賴:用清華大學(xué)的 Python 鏡像源安裝 xLLM 所需的 Python 依賴,升級(jí) setuptools 和 wheel。
安裝依賴:
編譯:
模型加載:
準(zhǔn)備模型文件:將模型文件準(zhǔn)備好,放置在容器可以訪問(wèn)的路徑中,例如 /mnt/cfs/9n-das-admin/llm_models。
加載模型:使用 xLLM 提供的接口加載模型。模型加載后,即可進(jìn)行推理任務(wù)。
推理調(diào)用:通過(guò) xLLM 提供的推理接口,輸入文本或其他數(shù)據(jù),即可獲得推理結(jié)果。推理接口根據(jù)加載的模型進(jìn)行計(jì)算,返回結(jié)果。
xLLM的項(xiàng)目地址
項(xiàng)目官網(wǎng):https://xllm.readthedocs.io/
GitHub倉(cāng)庫(kù):https://github.com/jd-opensource
xLLM的應(yīng)用場(chǎng)景
智能客服:快速響應(yīng)用戶咨詢,提供準(zhǔn)確的解答和建議,提升客戶滿意度和客服效率。
實(shí)時(shí)推薦:基于用戶行為數(shù)據(jù),實(shí)時(shí)生成個(gè)性化推薦內(nèi)容,提高用戶參與度和轉(zhuǎn)化率。
內(nèi)容生成:xLLM 能生成高質(zhì)量的文本內(nèi)容,如新聞、文章、創(chuàng)意文案等,助力內(nèi)容創(chuàng)作。
多模態(tài)應(yīng)用:支持多模態(tài)模型(如文本 + 圖像),用在圖像描述生成、視覺(jué)問(wèn)答等場(chǎng)景。
生成式推薦:結(jié)合生成式技術(shù),生成更豐富、更個(gè)性化的推薦結(jié)果,提升用戶體驗(yàn)。
[超站]友情鏈接:
四季很好,只要有你,文娛排行榜:https://www.yaopaiming.com/
關(guān)注數(shù)據(jù)與安全,洞悉企業(yè)級(jí)服務(wù)市場(chǎng):https://www.ijiandao.com/
- 1 家和萬(wàn)事興 7904296
- 2 老戲骨集體景區(qū)再“上崗” 7808472
- 3 市民臺(tái)風(fēng)天堅(jiān)持辦席 飯菜撒一地 7712017
- 4 超大滿月中秋登場(chǎng) 7616041
- 5 美戰(zhàn)爭(zhēng)部長(zhǎng)帶3068人做俯臥撐創(chuàng)紀(jì)錄 7523257
- 6 第一批去俄羅斯旅游的人體驗(yàn)如何 7427930
- 7 迪麗熱巴嫦娥造型像神女下凡 7331245
- 8 79歲羅家英扮唐僧在景區(qū)打工 7236427
- 9 越南女富豪被捕 曾撒錢(qián)踩“鈔票路” 7137285
- 10 智能表測(cè)睡眠是否真靠譜 7048834