
self-llm – 專為中國(guó)開發(fā)者推出的開源大模型教程
self-llm (開源大模型食用指南)是Datawhale專為國(guó)內(nèi)初學(xué)者打造的開源大模型教程,基于Linux平臺(tái),提供從環(huán)境配置到模型部署、微調(diào)的全流程指導(dǎo),涵蓋LLaMA、ChatGLM等主流模型。項(xiàng)目能簡(jiǎn)化開源大模型的使用流程,幫助學(xué)生和研究者快速上手。教程提供多種模型的詳細(xì)教程、微調(diào)方法(如LoRA、ptuning)及應(yīng)用案例,適合不同層次的學(xué)習(xí)者。項(xiàng)目鼓勵(lì)社區(qū)參與,共同完善內(nèi)容,推動(dòng)開源大模型的普及和應(yīng)用。
self-llm的主要功能
環(huán)境配置指導(dǎo):提供基于Linux平臺(tái)的開源大模型環(huán)境配置指南,幫助用戶搭建適合不同模型運(yùn)行的基礎(chǔ)環(huán)境。
模型部署教程:涵蓋國(guó)內(nèi)外主流開源大模型(如LLaMA、ChatGLM、InternLM等)的本地部署方法,包括命令行調(diào)用、在線Demo部署等。
微調(diào)方法指導(dǎo):提供全量微調(diào)、LoRA微調(diào)、ptuning等高效微調(diào)方法的詳細(xì)教程,幫助用戶根據(jù)需求對(duì)模型進(jìn)行定制化優(yōu)化。
應(yīng)用開發(fā)指導(dǎo):結(jié)合LangChain等框架,指導(dǎo)用戶如何將開源大模型集成到實(shí)際應(yīng)用中,打造領(lǐng)域特色的私域模型。
社區(qū)共創(chuàng)與支持:鼓勵(lì)用戶提交問(wèn)題(issue)或貢獻(xiàn)代碼(PR),共同完善教程內(nèi)容,形成開源社區(qū)的協(xié)作與支持體系。
self-llm支持的模型
GLM-4.1-Thinking
GLM-4.1V-Thinking vLLM 部署調(diào)用
GLM-4.1V-Thinking Gradio 部署
GLM-4.1V-Thinking LoRA 微調(diào)及 SwanLab 可視化記錄
GLM-4.1V-Thinking Docker 鏡像
GLM-4.5-Air
GLM-4.5-Air vLLM 部署調(diào)用
GLM-4.5-Air EvalScope 智商情商評(píng)測(cè)
GLM-4.5-Air LoRA 微調(diào)
GLM-4.5-Air Ucloud Docker 鏡像
ERNIE-4.5
ERNIE-4.5-0.3B-PT LoRA 微調(diào)及 SwanLab 可視化記錄
ERNIE-4.5-0.3B-PT LoRA Docker 鏡像
Hunyuan-A13B-Instruct
Hunyuan-A13B-Instruct 模型架構(gòu)解析
Hunyuan-A13B-Instruct SGLang 部署調(diào)用
Hunyuan-A13B-Instruct LoRA SwanLab 可視化微調(diào)
Hunyuan-A13B-Instruct LoRA Docker 鏡像
Qwen3
Qwen3 模型結(jié)構(gòu)解析
Qwen3-8B vllm 部署調(diào)用
Qwen3-8B Windows LMStudio 部署調(diào)用
Qwen3-8B Evalscope 智商情商評(píng)測(cè)
Qwen3-8B LoRA 微調(diào)及 SwanLab 可視化記錄
Qwen3-30B-A3B 微調(diào)及 SwanLab 可視化記錄
Qwen3 Think 解密
Qwen3-8B Docker 鏡像
Qwen3-0.6B 的小模型用途
Qwen3-1.7B 醫(yī)學(xué)推理式對(duì)話微調(diào)及 SwanLab 可視化記錄
Qwen3-8B GRPO 微調(diào)及 SwanLab 可視化
Kimi-VL-A3B
Kimi-VL-A3B 技術(shù)報(bào)告解讀
Kimi-VL-A3B-Thinking WebDemo 部署(網(wǎng)頁(yè)對(duì)話助手)
Llama4
Llama4 對(duì)話助手
SpatialLM
SpatialLM 3D點(diǎn)云理解與目標(biāo)檢測(cè)模型部署
Hunyuan3D-2
Hunyuan3D-2 系列模型部署
Hunyuan3D-2 系列模型代碼調(diào)用
Hunyuan3D-2 系列模型 Gradio 部署
Hunyuan3D-2 系列模型 API Server
Hunyuan3D-2 Docker 鏡像
Gemma3
Gemma-3-4b-it FastApi 部署調(diào)用
Gemma-3-4b-it ollama + open-webui 部署
Gemma-3-4b-it Evalscope 智商情商評(píng)測(cè)
Gemma-3-4b-it LoRA 微調(diào)
Gemma-3-4b-it Docker 鏡像
Gemma-3-4b-it GRPO 微調(diào)及 SwanLab 可視化
DeepSeek-R1-Distill
DeepSeek-R1-Distill-Qwen-7B FastApi 部署調(diào)用
DeepSeek-R1-Distill-Qwen-7B Langchain 接入
DeepSeek-R1-Distill-Qwen-7B WebDemo 部署
DeepSeek-R1-Distill-Qwen-7B vLLM 部署調(diào)用
DeepSeek-R1-0528-Qwen3-8B-GRPO 及 SwanLab 可視化
MiniCPM-o-2_6
MiniCPM-o-2.6 FastApi 部署調(diào)用
MiniCPM-o-2.6 WebDemo 部署
MiniCPM-o-2.6 多模態(tài)語(yǔ)音能力
MiniCPM-o-2.6 可視化 LaTeX_OCR LoRA 微調(diào)
InternLM3
InternLM3-8b-instruct FastApi 部署調(diào)用
InternLM3-8b-instruct Langchain 接入
InternLM3-8b-instruct WebDemo 部署
InternLM3-8b-instruct LoRA 微調(diào)
InternLM3-8b-instruct o1-like 推理鏈實(shí)現(xiàn)
phi4
phi4 FastApi 部署調(diào)用
phi4 Langchain 接入
phi4 WebDemo 部署
phi4 LoRA 微調(diào)
phi4 LoRA 微調(diào) NER任務(wù) SwanLab 可視化記錄版
phi4 GRPO 微調(diào)及 SwanLab 可視化
Qwen2.5-Coder
Qwen2.5-Coder-7B-Instruct FastApi 部署調(diào)用
Qwen2.5-Coder-7B-Instruct Langchain 接入
Qwen2.5-Coder-7B-Instruct WebDemo 部署
Qwen2.5-Coder-7B-Instruct vLLM 部署
Qwen2.5-Coder-7B-Instruct LoRA 微調(diào)
Qwen2.5-Coder-7B-Instruct LoRA 微調(diào) SwanLab 可視化記錄版
Qwen2-vl
Qwen2-vl-2B FastApi 部署調(diào)用
Qwen2-vl-2B WebDemo 部署
Qwen2-vl-2B vLLM 部署
Qwen2-vl-2B LoRA 微調(diào)
Qwen2-vl-2B LoRA 微調(diào) SwanLab 可視化記錄版
Qwen2-vl-2B LoRA 微調(diào)案例 – LaTeXOCR
Qwen2.5
Qwen2.5-7B-Instruct FastApi 部署調(diào)用
Qwen2.5-7B-Instruct Langchain 接入
Qwen2.5-7B-Instruct vLLM 部署調(diào)用
Qwen2.5-7B-Instruct WebDemo 部署
Qwen2.5-7B-Instruct LoRA 微調(diào)
Qwen2.5-7B-Instruct o1-like 推理鏈實(shí)現(xiàn)
Qwen2.5-7B-Instruct LoRA 微調(diào) SwanLab 可視化記錄版
Apple OpenELM
OpenELM-3B-Instruct FastApi 部署調(diào)用
OpenELM-3B-Instruct LoRA 微調(diào)
Llama3_1-8B-Instruct
Llama3_1-8B-Instruct FastApi 部署調(diào)用
Llama3_1-8B-Instruct Langchain 接入
Llama3_1-8B-Instruct WebDemo 部署
Llama3_1-8B-Instruct LoRA 微調(diào)
動(dòng)手轉(zhuǎn)換 GGUF 模型并使用 Ollama 本地部署
Gemma-2-9b-it
Gemma-2-9b-it FastApi 部署調(diào)用
Gemma-2-9b-it Langchain 接入
Gemma-2-9b-it WebDemo 部署
Gemma-2-9b-it Peft LoRA 微調(diào)
Yuan2.0
Yuan2.0-2B FastApi 部署調(diào)用
Yuan2.0-2B Langchain 接入
Yuan2.0-2B WebDemo 部署
Yuan2.0-2B vLLM 部署調(diào)用
Yuan2.0-2B LoRA 微調(diào)
Yuan2.0-M32
Yuan2.0-M32 FastApi 部署調(diào)用
Yuan2.0-M32 Langchain 接入
Yuan2.0-M32 WebDemo 部署
DeepSeek-Coder-V2
DeepSeek-Coder-V2-Lite-Instruct FastApi 部署調(diào)用
DeepSeek-Coder-V2-L
self-llm的項(xiàng)目地址
GitHub倉(cāng)庫(kù):https://github.com/datawhalechina/self-llm
self-llm的應(yīng)用場(chǎng)景
教育與學(xué)習(xí):為初學(xué)者提供從環(huán)境配置到模型微調(diào)的全流程指導(dǎo),助力學(xué)生和開發(fā)者快速掌握開源大模型的使用方法。
企業(yè)應(yīng)用開發(fā):幫助企業(yè)根據(jù)自身業(yè)務(wù)需求對(duì)開源大模型進(jìn)行定制化微調(diào),開發(fā)智能客服、知識(shí)管理等專屬應(yīng)用。
個(gè)人項(xiàng)目開發(fā):支持個(gè)人開發(fā)者利用開源大模型開發(fā)智能寫作助手、個(gè)人智能助手等項(xiàng)目,提升個(gè)人生產(chǎn)力。
研究與創(chuàng)新:為研究人員提供實(shí)驗(yàn)平臺(tái),支持對(duì)開源大模型的架構(gòu)優(yōu)化、訓(xùn)練方法改進(jìn)等研究工作。
[超站]友情鏈接:
四季很好,只要有你,文娛排行榜:https://www.yaopaiming.com/
關(guān)注數(shù)據(jù)與安全,洞悉企業(yè)級(jí)服務(wù)市場(chǎng):https://www.ijiandao.com/

隨時(shí)掌握互聯(lián)網(wǎng)精彩
- 1 中美完全可以相互成就、共同繁榮 7904430
- 2 加沙已變“死城” 7808608
- 3 菲將舉行大規(guī)模游行 中使館發(fā)提醒 7712104
- 4 近距離感受“大國(guó)重器” 7617937
- 5 委內(nèi)瑞拉:美國(guó)“不宣而戰(zhàn)” 7523937
- 6 暴雨中臺(tái)下只剩1名觀眾 演員仍開演 7425698
- 7 特朗普:我們?cè)跒蹩颂m戰(zhàn)爭(zhēng)中賺錢了 7332394
- 8 始祖鳥煙花秀引爭(zhēng)議 日喀則通報(bào) 7238726
- 9 女子婚后起訴父母返還18萬(wàn)彩禮 7142254
- 10 蔡國(guó)強(qiáng)被譽(yù)為“中國(guó)煙花第一人” 7044817