1. 概念与原理
-
知识蒸馏的基本定义
- 知识蒸馏(Knowledge Distillation) 是一种将模型压缩与迁移学习结合的技术:它利用预先训练好的大模型(通常参数量大、精度高、计算开销大)指导一个更轻量(参数量小、推理速度快)的学生模型进行训练,从而在保持模型精度的同时显著减少模型体积和计算量。
- 核心思想是:在学生模型的训练过程中,不仅使用真实标签(hard labels)的监督损失,还将教师模型输出的“软标签”(soft labels)或中间层特征等信息融入训练目标。软标签通常包含更丰富的类别间相似度或更细腻的特征区分度,帮助学生模型学习到比单纯依赖真实标签更深层次的知识表征。
-
原理机制
- 传统的监督学习中,真实标签通常是one-hot形式(例如在分类问题中某一类标记为1,其余全为0),无法呈现类别之间的细微差异或相似度。
- 而教师模型输出的概率分布(如softmax输出)能够显示不同类别间的相对相似性:即并非只关注正确类别,也会给相近类别分配一定的概率权重。学生模型通过模仿这种概