大语言模型入门文献推荐

ops/2025/3/17 16:28:36/

        分享一些入门大模型时候学习过的文献。分成两类:大模型微调论文、基础大模型论文。这些论文不用精通,明白其基本原理即可。目前技术发展太快,更多的时间和精力应该放在前沿论文的学习上。

一、基础大模型论文

       首先是目前主流的一些模型,包括GPT(Openai), GLM(清华)Llama(Meta)。相关的大模型论文还有很多,例如Qwen等。读者能就其中的论文做到举一反三即可。

  1. GPT1: Improving language understanding by generative pre-training
  2. GPT2: Language models are unsupervised multitask learners
  3. GPT-3:Language Models are Few-Shot Learners
  4. GPT-4 Technical Report
  5. InstructGPT: Training language models to follow instructions with human feedback
  6. GLM: General Language Model Pretraining with Autoregressive Blank Infilling
  7. GLM-130B: An Open Bilingual Pre-trained Model
  8. LLaMA: Open and Efficient Foundation Language Models
  9. Llama 2: Open Foundation and Fine-Tuned Chat Model

还有一些经典的文本生成论文,大家有时间也可以阅读。

  1. BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension
  2. T5:Exploring the limits of transfer learning with a unified text-to-text transformer
  3. ELMO:Deep contextualized word representations

二、微调方法论文

       有关大模型微调方法,目前LoRA几乎是垄断的情况,调起来也非常简单。所以其他微调方法了解即可。

  1. Prefix-Tuning: Optimizing Continuous Prompts for Generation
  2. P-tuning: GPT Understands, Too
  3. P-Tuning V2: Prompt Tuning Can Be Comparable to Fine-tuning Across Scales and Tasks
  4. Prompt tuning: The Power of Scale for Parameter-Efficient Prompt Tuning
  5. Adapter: Parameter-Efficient Transfer Learning for NLP
  6. LORA: LOW-RANK ADAPTATION OF LARGE LANGUAGE MODELS

    此外也有一些写的很好的微调方法综述文章。

  1. Towards a unified view of parameter-efficient transfer learning
  2. Delta Tuning: A Comprehensive Study of Parameter Efficient Methods for Pre-trained Language Models
  3. Scaling down to scale up: A guide to parameter-efficient fine-tuning
  4. UniPELT: A Unified Framework for Parameter-Efficient Language Model Tuning

    刚学习的时候,经常会听到指令微调(Instruction tuning),有监督微调(supervised finetuning等),其实都是一回事,这边也放一些相关文章。

  1. Instruction Tuning for Large Language Models: A Survey
  2. Instruct learning: Finetuned Language Models are Zero-shot Learners

三、其他资料

1、P-tuning:自动构建模版,释放语言模型潜能

2、PET,必须要GPT3吗?不,BERT的MLM模型也能小样本学习


http://www.ppmy.cn/ops/166549.html

相关文章

redis常用命令

个人理解 一个大号的Map 安装 github官网下载https://github.com/redis/redis/archive/refs/tags/7.4.2.tar.gz 解压后执行: make sudo make install启动服务端: redis-server默认端口是6379 启动客户端 redis-cli命令 1. 字符串(String&#x…

全面的 .NET 操作 SQLite 入门实战(包含选型、开发、发布、部署)!

教程简介 EasySQLite是一个七天.NET 8操作SQLite入门到实战详细教程,主要是对学校班级,学生信息进行管理维护(包含选型、开发、发布、部署)! GitHub开源地址:https://github.com/YSGStudyHards/EasySQLite…

《Python实战进阶》No21:数据存储:Redis 与 MongoDB 的使用场景

第21集:数据存储:Redis 与 MongoDB 的使用场景 摘要 在现代应用开发中,数据存储的选择直接影响系统的性能、扩展性和成本。Redis 和 MongoDB 是两种极具代表性的数据库技术,它们分别擅长解决不同场景下的问题。本文将深入探讨 Re…

【NLP】7. 自然语言处理 (NLP) 的关键要素

核心组件:自然语言处理 (NLP) 的关键要素 自然语言处理 (NLP) 涉及多个核心组件,每个组件在模型的训练和推理过程中都起着至关重要的作用。 1. 数据:文本案例与标注信息 数据是 NLP 系统的基础,模型学习语言模式时依赖于大量的…

【人工智能基础2】Tramsformer架构、自然语言处理基础、计算机视觉总结

文章目录 七、Transformer架构1. 替代LSTM的原因2. Transformer架构:编码器 - 解码器架构3. Transformer架构原理 八、自然语言处理基础1. 语言模型基本概念2. 向量语义3. 预训练语言模型的基本原理与方法4. DeepSeek基本原理 九、计算机视觉 七、Transformer架构 …

【AI 加持下的 Python 编程实战 2_03】第二章:Copilot 辅助编程入门——环境搭建、基本工作流程以及数据分析案例演示(含本地实测)

【全新第二版《Learn AI-assisted Python Programming》封面】 写在前面 本篇介绍了 Copilot 辅助编程的本地环境配置和它的基本工作流程,整体内容难度不大,主要是照顾零基础的 AI 开发者。最后的数据分析案例强烈建议动手操练,真实感受一下 …

百年匠心焕新居:约克VRF中央空调以科技赋能健康理想家

当春风拂过大地,万物复苏之际,家,这个我们最温暖的港湾,也迎来了焕新的最佳时机。约克VRF,一个承载着百年匠心与创新精神的品牌,正以“聚惠春装季 健康理想家”为题,引领一场关于健康与舒适的家居革命。在这个春意盎然的季节里,约克VRF春季健康家装季如约而至,它不仅是对高品质…

yarn调度过程

1.举例说明: ResourceManager是房产中介总部 NodeManager是房产中介的区域经理 把客户租赁比作作业提交, 比如有客户要开美容院向RM总部提交租赁申请, RM总部先让某个NM区域经理提供一块地址container用作美容院的总部AM(ApplicationMaster)…