学习路径
Transformer 核心机制
中级从网络结构到注意力机制,深入理解 Transformer 的每一个组件
16 篇文章
Transformer 跨模态应用
中级从文本表征到多模态生成,理解 Transformer 如何适配文本、图像、音频和视频等不同模态的输入与输出。建议先完成「Transformer 核心机制」路径。
10 篇文章
LLM 量化技术
中级从数据类型基础到前沿量化算法,系统掌握 LLM 权重量化、KV Cache 量化和推理时量化的理论与实践
7 篇文章
vLLM + SGLang 推理引擎深度解析
高级从 PagedAttention 到 RadixAttention,从调度抢占到结构化输出,系统理解现代 LLM 推理引擎的核心算法与设计哲学。
5 篇文章
LLM Model Routing:智能模型选择与混合推理
高级根据任务复杂度自动选择对应的 LLM 模型。覆盖从简单分类器到 RL 在线学习, 从 query-level 到 token-level,从"选一个"到"全都用"的完整方法谱系。
8 篇文章
LLM 评估与 Benchmark 深度解析
中级系统化理解 LLM 评估体系:从 benchmark 设计原理到具体 benchmark 深入剖析, 从量化优化的精度评估方法到模型选型决策。覆盖知识推理、代码、Agent 与 Tool Use 等维度,重点关注 OpenVINO 工具链和小模型评估。
10 篇文章
Ollama + llama.cpp 深度解析
高级深入 Ollama 和 llama.cpp 的内部实现、架构设计和优化原理。从双层架构到量化引擎,从计算图到多后端调度,系统掌握本地推理技术栈。
9 篇文章
llama.cpp 源码精读
高级逐函数追踪 llama.cpp 的 C/C++ 执行流程。本路径是「Ollama + llama.cpp 深度解析」的源码级延伸——前者讲概念和架构设计,本系列讲 C++ 实现细节。适合想阅读、修改或贡献 llama.cpp 的开发者。
8 篇文章
AI Compute Stack
中级从推理框架到硬件指令集,理解 AI 软件栈的各层关系
5 篇文章
图编译与优化
高级深入 ML 编译器的核心:从计算图捕获到优化执行的完整旅程。 双主线覆盖 PyTorch 2.0(torch.compile / TorchInductor / Triton)和 MLIR(Dialect 体系 / Progressive Lowering)。 前置路径:AI 计算栈。
17 篇文章
强化学习:从基础到 LLM 对齐与推理
高级从 MDP 到 Policy Gradient,从 RLHF 到 GRPO,从 Reward 设计到 Test-Time Scaling,系统理解强化学习如何驱动大语言模型的对齐、优化与推理能力。
8 篇文章
Intel iGPU 推理深度解析:Xe2 架构、oneDNN 与 OpenVINO
高级从 Xe2 微架构到 oneDNN primitive 体系,从 SPIR-V 编译管线到 OpenVINO 图优化,从性能瓶颈诊断到 GPU+NPU 协同推理,系统理解 Intel iGPU 上的 AI 推理优化全栈。
12 篇文章
矩阵数学:从基础理论到现代 AI 架构
高级矩阵是 ML 的通用语言。本路径从特征分解出发,建立四件核心工具(分解、度量、微分、迭代), 经 SVD、PCA、NMF 等经典分解方法和 PageRank、谱聚类等算子分析方法, 最终汇聚到 LoRA、Efficient Attention、SSM/Mamba 等现代架构。 三段式弧线"拆→传→汇"揭示同一数学工具如何贯穿看似不同的领域。
31 篇文章
图算法:从结构探索到组合优化
中级图是"实体+关系"的通用建模语言。本路径从图的基本问题分类出发, 建立三层能力(探索结构、度量性质、组合优化), 经 BFS/DFS、最短路径、网络流等经典算法, 最终汇聚到随机图模型、概率图推断和图神经网络等现代方法。 四段式弧线"探→量→优→建模"揭示同一组图工具如何贯穿看似不同的工程领域。
22 篇文章