更新时间:2025-01-15 15:44:12
封面
版权信息
内容简介
前言
第1章 从零开始大模型之旅
1.1 对话机器人历史
1.2 人工智能
1.3 本章小结
第2章 大模型私有化部署
2.1 CUDA环境准备
2.2 深度学习环境准备
2.3 GLM-3和GLM-4
2.4 GLM-4私有化部署
2.5 运行GLM-4的方式
2.6 本章小结
第3章 大模型理论基础
3.1 自然语言领域中的数据
3.2 语言模型历史演进
3.3 注意力机制
3.4 Transformer架构
3.5 本章小结
第4章 大模型开发工具
4.1 Huggingface
4.2 大模型开发工具
4.3 Transformers库详解
4.4 全量微调训练方法
4.5 本章小结
第5章 高效微调方法
5.1 主流的高效微调方法介绍
5.2 PEFT库快速入门
5.3 Prefix Tuning
5.4 Prompt Tuning
5.5 P-Tuning
5.6 P-Tuning V2
5.7 本章小结
第6章 LoRA微调GLM-4实战
6.1 LoRA
6.2 AdaLoRA
6.3 QLoRA
6.4 量化技术
6.5 本章小结
第7章 提示工程入门与实践
7.1 探索大模型潜力边界
7.2 Prompt实践
7.3 提示工程
7.4 Least-to-Most Prompting(LtM提示方法)
7.5 提示使用技巧
7.6 本章小结
第8章 大模型与中间件
8.1 AI Agent
8.2 大模型对话模式
8.3 多角色对话模式实战
8.4 Function Calling功能
8.5 实现多函数
8.6 Bing搜索嵌入LLM
8.7 本章小结
第9章 LangChain理论与实战
9.1 整体介绍
9.2 Model I/O
9.3 Chain
9.4 Memory
9.5 Agents
9.6 LangChain实现Function Calling
9.7 本章小结
第10章 实战:垂直领域大模型
10.1 QLoRA微调GLM-4
10.2 大模型接入数据库
10.3 LangChain重写查询
10.4 RAG检索增强
10.5 本章小结
参考文献
封底