FROM 【生成式AI時代下的機器學習(2025)】第五講:大型語言模型訓練方法「預訓練–對齊」(Pretrain-Alignment) 的強大與極限 - YouTube

高效的Pretrain?

如何进行有效的pretrain

多样性

有论文 Title Unavailable | Site Unreachable 做过这样的实验
收集N个人的资料,每个人的资料出现一次进行pretrain,然后提取N/2个人的资料制作Alignment的数据,在测试阶段提问未出现的人的信息,发现模型无法正确回答问题
而如果每个人的资料(或者几个人),在预训练阶段通过不同的方式出现了多次,就能够正确地回答问题

这里至少强调了,多样性给模型提供了理解文本的方法,而不会局限于单个样例

Quality

  • 文章 textbook is all you need使用GPT生成textbook,发现这样的语料有利于高效训练
  • 苹果的文章 Rephrasing the Web 使用一个Rephrase Model来重写网络上的文本,发现这样的文本训练起来比较高效
  • 文章RefinedWeb提供了一系列的清洗流程,最终只保留了1/10的数据
  • 论文[2305.16264] Scaling Data-Constrained Language Models 论证了有限算力下,最好让模型接触不同的资料(而不是重复相同的token)
  • Title Unavailable | Site Unreachable HuggingFaceFW (FineData) Huggingface通过一系列实验论证了数据过滤的最佳实践并给出了相当出色的数据集

Alignment的问题

对齐得到的模型能力是有极限的,究竟什么样的能力能够通过alignment获得? 论文[2405.05904] Does Fine-Tuning LLMs on New Knowledge Encourage Hallucinations? 进行了分类

以BaseLM的能力作为分类标准

  • Highly Known
  • Maybe Known
  • Weakly Known
  • Unkown

Pasted image 20250925160014

论文将所有类别放一起进行训练,得到如下结果
Pasted image 20250925160111

模型在学习未知知识的时候,在测试集上崩坏了
MaybeKnown的训练可能是最高效的

所以可能Alignment没办法学习新知识,当然取决于Alignment的方法
但是RL可能存在争议

Pretrain的问题

pretrain的数据分布会带来影响

Pasted image 20250925161147