看张奇教授的主页,感觉这教授、博导太牛了。
在大语言模型实践和理论研究的过程中,他与桂韬研究员、郑锐博士生以及黄萱菁教授,历时 8 个月共同完成了这本书《大规模语言模型·从理论到实践》!
有需要这本
《大规模语言模型·从理论到实践》
书籍PDF文档,可以扫描下方
!
本书围绕大语言模型构建的四个主要阶段:预训练、有监督微调、奖励建模和强化学习,详细介绍各阶段使用的算法、数据、难点以及实践经验。
预训练阶段需要利用包含数千亿甚至数万亿单词的训练数据,并借助由数千块高性能GPU 和高速网络组成的超级计算机,花费数十天完成深度神经网络参数的训练。这一阶段的难点在于如何构建训练数据,以及如何高效地进行分布式训练。
有监督微调阶段利用少量高质量的数据集,其中包含用户输入的提示词和对应的理想输出结果。这个阶段是从语言模型向对话模型转变的关键,其核心难点在于如何构建训练数据,包括训练数据内部多个任务之间的关系、训练数据与预训练之间的关系及训练数据的规模。
奖励建模阶段的目标是构建一个文本质量对比模型,用于对有监督微调模型对于同一个提示词给出的多个不同输出结果进行质量排序。这一阶段的难点在于如何限定奖励模型的应用范围及如何构建训练数据。
强化学习阶段,根据数十万提示词,利用前一阶段训练的奖励模型,对有监督微调模型对用户提示词补全结果的质量进行评估,与语言模型建模目标综合得到更好的效果。这一阶段的难点在于解决强化学习方法稳定性不高、超参数众多及模型收敛困难等问题。
希望这本书能够帮助读者快速入门大语言模型的研究和应用,并解决相关技术挑战。
有需要这本
《大规模语言模型·从理论到实践》
书籍PDF文档,可以扫描下方
!