2026年4月19日

MOC 模型知识总览

> 这套知识库覆盖从 Transformer 基础到最新研究前沿的完整模型知识体系,面向工程师和算法面试。

知识库大模型总览llmmodelmoc

模型知识体系总览

这套知识库覆盖从 Transformer 基础到最新研究前沿的完整模型知识体系,面向工程师和算法面试。 设计目标:可复习、可面试、可做系统设计、可支撑训练/微调/部署决策、可持续更新。

知识地图

Transformer基础 ──→ 预训练 ──→ SFT ──→ RLHF/对齐
                                    ↓
                        PEFT/微调 ← ──→ 训练工程
                                    ↓
              推理部署 ← ──→ 评测诊断 ← ──→ 多模态/Agent
                                    ↓
                              研究前沿 → 面试与系统设计

导航

基础原理

训练与对齐(预训练基础)

训练与对齐(后训练与对齐)

PEFT

训练流程

推理与系统

智能体与工具调用

评测

研究前沿

案例复盘

总览

核心比较页

比较主题 页面 核心问题
训练范式对照 对齐方法总览 预训练 vs SFT vs RLHF vs DPO vs GRPO
微调方法选型 LoRA与QLoRA Full FT vs LoRA vs QLoRA
训练框架生态 训练生态工具 各框架职责与协作
推理优化总表 量化 量化方法对比
高频面试题 Transformer高频题 10 道高频题及答案
偏好优化对比 偏好优化DPO_GRPO DPO vs ORPO vs KTO vs CPO

学习路径建议

入门路径

  1. Transformer注意力机制
  2. 分词器监督微调SFT
  3. PEFT总览LoRA与QLoRA

进阶路径

  1. 人类反馈强化学习RLHF偏好优化DPO_GRPOGRPO与推理训练
  2. 训练生态工具KV CachevLLM

面试路径

  1. 术语导航Transformer高频题微调方案选型题
  2. 训练资源估算题部署与推理优化题项目深挖题

研究路径

  1. 研究前沿总览推理RL训练
  2. 论文索引后训练新趋势推理优化前沿