AI 工程手册(中文版)
理解 AI 工程系统
软件工程正在发生一次深刻的转变。
在过去几十年里,软件系统主要由确定性的程序构成。工程师通过编写逻辑、控制流程和数据结构来定义系统行为。软件工程的核心挑战是复杂性管理:如何构建可扩展的架构,如何让分布式系统稳定运行,如何在规模增长时保持系统可靠。
但随着大语言模型的出现,软件系统的基本构成开始改变。越来越多的应用不再仅由代码驱动,而是围绕模型展开:模型生成内容,检索系统提供记忆,工具扩展能力,评估系统衡量质量。软件不再只是执行指令,而是在与概率模型协同工作。
AI 工程正在成为新的软件工程。
如果软件工程是构建逻辑系统的工程学,那么 AI 工程则是构建认知系统的工程学。工程师不再只编写程序,而是在设计一个由模型、数据和软件共同组成的系统。
本书的目标,是为这个新领域绘制一张地图。
如果 AI 工程是新的软件工程,那么我们需要回答一个根本问题:
现代 AI 系统是如何被构建的?
为了回答这个问题,本书将 AI 系统拆解为五个层级:
基础理论 → 训练 → 模型 → 推理 → 应用
从 Transformer 和缩放定律的基础原理,到模型的训练与行为塑形;从模型架构到推理系统;再到构建完整 AI 应用的智能体系统。这些层级共同构成了 AI 工程技术栈。
在这个体系中,许多熟悉的概念也获得了新的含义:
- 大语言模型(LLM)是一种概率模拟器
- 检索增强生成(RAG)是系统的记忆结构
- 智能体(Agent)是系统的编排层
- 评估(Evaluation)是 AI 系统的测试方法
构建 AI 系统的过程,本质上是不断在工程权衡中做出选择:延迟与质量、算力与数据、稠密模型与混合专家模型、工具调用与模型推理。
这些选择不是孤立存在的。训练方式会影响推理效率,模型架构会决定系统延迟,RAG 的设计会改变评估方式。AI 系统的每一层都在影响另一层。
因此,本书并不是一本面试题集,也不是某种框架的使用指南。我们希望做的是一件更基础的事情:
为 AI 工程建立一个系统性的工程视角。
读者在这里学习的不是答案,而是一种理解现代 AI 系统的方式。
AI 工程技术栈
AI 工程技术栈
应用层
智能体(Agents)
────────────────
推理系统
模型服务(Serving)
模型压缩(Compression)
────────────────
模型架构
GPT
混合专家模型(MoE)
多模态(Multimodal)
────────────────
训练系统
预训练(Pretraining)
中训练(Mid-training)
后训练(Post-training)
────────────────
基础理论
Transformer 架构
分词(Tokenization)
缩放定律(Scaling Laws)
目录
第一部分
大语言模型系统基础
第二部分
大语言模型训练
第三部分
模型架构
第四部分
推理系统
第五部分
AI 应用
附录
大语言模型分类法