文章目录
大模型应用与实战
🔥 专栏简介 | 大模型技术深度实践指南
掌握大模型前沿技术,探索实战应用的无限可能
🌟 为什么订阅本专栏?
- 从理论到落地:拒绝纸上谈兵!专栏聚焦工业级场景,覆盖模型推理优化、Agent智能体开发、低成本微调、RAG增强等核心领域,提供可直接复现的代码方案。
- 源码级深度剖析:不止于API调用,更深入Langchain、Qwen-Agent、Dify等热门框架源码,揭示设计思想与性能优化秘诀。
- 避坑全攻略:汇总华为昇腾适配、高并发部署、长上下文优化等实战难题的解决方案,节省开发者80%的试错时间。
- 技术生态全景图:对比分析主流框架(Langchain/Dify/Qwen/LLaMA-Factory等)的优劣与适用场景,帮你快速构建技术选型能力。
🎯 适合读者
✓ 希望将大模型应用于实际业务的开发者
✓ 追求技术深度的框架研究者
✓ 需要解决企业级部署难题的工程师
✓ 渴望构建完整知识体系的技术管理者
🚀 你将获得
▸ 工程化能力:掌握大模型从本地部署到云端适配的全链路实战经验
▸ 源码思维:通过框架核心模块解析,培养二次开发与定制化能力
▸ 方法论体系:构建涵盖模型优化、Agent编排、知识增强的技术矩阵
▸ 持续进化:专栏随技术演进动态更新,订阅即锁定大模型技术前沿
📚 核心内容模块
(以下为完整文章目录,点击标题直达深度解析)
一、大模型推理与部署
聚焦大模型生产环境落地的关键技术,覆盖推理框架实践、源码级原理剖析、高并发优化及国产硬件适配。从API启动、上下文修改到昇腾平台迁移,提供端到端的部署指南与性能调优方案。
1.1 推理框架应用实践
《汇总开源大模型的本地API启动方式》
《ollama修改模型问答的上下文长度(num_ctx)》
1.2 框架源码深度解析
《langchain-ChatGLM源码阅读:前端样式》
《langchain-ChatGLM源码阅读:参数设置》
《langchain-ChatGLM源码阅读:模型加载》
1.3 高并发部署优化
《使用fastchat实现大模型高并发对话》
1.4 国产化平台适配
《华为昇腾云平台适配Baichuan2大模型记录》
二、Agent框架专题
深入解析主流Agent框架的工程实现与应用迁移。涵盖Langchain源码解读、Qwen-Agent工具调用机制、Dify全流程实践,并通过多框架对比提供技术选型依据,助力开发者实现Agent能力无缝切换。
2.1 Langchain系列
《一文读懂Langchain:ChatGLM3和ChatGPT的Agent调用分析》
2.2 Qwen-Agent系列
《针对Qwen-Agent框架的Function Call及ReAct的源码阅读与解析:Agent基类篇》
《基于Qwen-Agent框架的Function Call及ReAct方式调用自定义工具》
2.3 Dify应用实践
《Dify部署及初步测试》
《基于Dify的Agent全流程测试》
《基于Dify的工作流全流程测试》
2.4 框架对比与迁移
《代码实现从Langchain到Dify的Agent切换》
《基于Qwen2.5在多框架下的Function Call尝试及总结》
三、微调技术研究
系统梳理大模型微调方法论与实践陷阱。以LLaMA-Factory为核心载体,详解数据集构建、参数调优及典型错误排查,提供从理论到落地的全链路指导,降低领域适配门槛。
3.1 微调方法综述
《主流开源大语言模型的微调方法》
3.2 LLaMA-Factory专题
《LLaMA-Factory如何解决数据集加载时json.decoder.JSONDecodeError: Extra data: line 2 column 1 (char 214)的错误》
《使用LLaMA-Factory微调时的数据集选择》
《使用LLaMA-Factory微调时的问题与解决方案记录》
《基于LLaMA-Factory的微调记录》
四、RAG技术应用
《基于Langchain的txt文本向量库搭建与检索》