/DongwuLLM

This is the codebase for pre-training, compressing, extending, and distilling LLMs with Megatron-LM.

Primary LanguagePythonOtherNOASSERTION

DongwuLLM: Pre-training, Compressing, Extending, and Distilling Finance LLMs

[中文版] [English]

大语言模型是具有大量参数且在海量文本数据中进行预训练的模型,在各种下游任务以及金融证券领域中都表现出了非常强大的能力。然而,由于机器显存限制,训练这些模型将是一项具有挑战性的工作。为了应对这一挑战,东吴证券构建了DongwuLLM代码库,实现了高效训练证券大模型的技术。同时,我们还对一些其他的方法进行了探索,比如:压缩大模型、扩展大模型的上下文长度以及使用其他预训练大模型生成的合成文本进行蒸馏等等。

我们工作的亮点如下:

1)预训练和微调:为了获得训练大语言模型所需要的数据集,我们提供了相应的脚本来指导如何构建训练数据集。此外,本代码库可以将模型权重的检查点在Huggingface格式和Megatron-LM格式之间来回转换。我们同时汇报了在8xA100-80GB机器上进行记录测试的TFlops和token speed指标。 2)上下文长度扩展:通过Position Interpolation 技术,我们将秀才13B模型的上下文长度从4096扩展到了32768,并汇报了在Pile和PG19数据集上关于困惑度(PPL)的测试结果,并提供了相应的训练脚本。 3)蒸馏:通过更大的语言模型来生成合成数据,然后使用生成的合成数据来对我们的13B秀才模型进行持续训练。结果显示仅使用10B合成数据和原始数据的混合(预训练数据量0.5%),就可以在综合金融基准上增长1个点,

内容

安装指南

类似于Megatron-LM,推荐使用带有DXG节点的NGC's PyTorch container的版本。为了可以成功运行PyTorch,可以按照以下步骤操作:

1、安装docker和nvidia-docker; 2、执行下列的Docker命令:

  docker pull nvcr.io/nvidia/pytorch:23.12-py3
  docker run --gpus all --shm-size=128g --net=host -dit --rm --name megatron -v /your_dir:/your_dir -v /root/.ssh:/root/.ssh nvcr.io/nvidia/pytorch:23.12-py3

3、安装sentencepiece and nltk

训练

可以根据下列几个步骤来训练大语言模型:

1、数据预处理:将文本数据转为适合训练的二进制格式 2、检查点转换:如果想要微调预训练的大模型,例如Llama2-7b,需要将它的权重从Huggingface格式转换为Megatron格式。但是,如果想要利用训练好的模型进行推理的话,为了简化推理过程,需要将权重从Megatron格式转换回Huggingface格式。 3、正式预训练。

数据预处理

数据预处理步骤与Megatron-LM中提到的数据预处理的步骤一致。训练数据应该首先转化为jsonl的格式,其中每一行包含一个单独的json对象,该对象表示一个文本样例。以下是为Llama训练准备数据的示例脚本:

python tools/preprocess_data.py \
    --input /Path/to/my-corpus.jsonl \
    --output-prefix /Path/to/my-corpus \
    --tokenizer-type Llama2Tokenizer \
    --tokenizer-model /Path/to/tokenizer.model \
    --append-eod \
    --workers 16

为了将多个二进制格式的数据集合并为一个数据集,请执行以下命令:

python tools/merge_datasets.py \
    --input /Path/to/datasets/folder \
    --output-prefix /Path/to/merged/dataset 

检查点转换

Megatron-LM采用pipeline并行和tensor并行来实现在有限内存下进行大语言模型训练。有时需要在检查点中更改pipeline并行和tensor并行的数量。下面是一个例子:

python tools/checkpoint/util.py \
    --model-type GPT \
    --load-dir /Path/to/ckpts/Llama2-7b-tp1 \
    --save-dir /Path/to/ckpts/Llama2-7b-tp4 \
    --target-tensor-parallel-size 4 \
    --target-pipeline-parallel-size 1 \
    --megatron-path /Path/to/Megatron

为了将Hugging Face格式的权重转换为Megatron格式,下面以Llama为例进行说明:

TP=1
HF_FORMAT_DIR=/Path/to/Llama-2-7b-hf
MEGATRON_FORMAT_DIR=/Path/to/Llama2-7b-tp1
TOKENIZER_MODEL=/Path/to/Llama-2-7b-hf/tokenizer.model

python tools/checkpoint/util.py \
    --model-type GPT \
    --loader llama2_hf \
    --saver megatron \
    --target-tensor-parallel-size ${TP} \
    --load-dir ${HF_FORMAT_DIR} \
    --save-dir ${MEGATRON_FORMAT_DIR} \
    --tokenizer-model ${TOKENIZER_MODEL}

为了将Hugging Face格式的权重转换为Megatron格式,首先应该使用上述脚本将Megatron检查点在pipeline并行和tensor并行中进行转换。以下是在Llama上的一个示例:

python tools/checkpoint_conversion/llama_checkpoint_conversion.py \
    --convert_checkpoint_from_megatron_to_transformers \
    --load_path "/Path/to/Llama2-7b-tp1" \
    --save_path "/Path/to/Llama2-7b-hf" \
    --target_params_dtype "bf16" \
    --make_vocab_size_divisible_by 1 \
    --print-checkpoint-structure \
    --megatron-path /Path/to/Megatron

训练样例-31B/65B/132B

本代码库提供了训练基于Llama架构大模型的脚本,包括31B65B、和132B。下表记录了在A100-SXM4-80G上的TFlops和token speed:

31B 65B 132B
TFLOP/s per GPU 161 161 177
Tokens / day 8*A100-80g 0.59B 0.27B 0.15B

上下文长度扩展

大语言模型的上下文长度通常是固定的,比如LLaMA的上下文长度为2048,LLaMA2的上下文长度为4096。然而,这些固定的上下文长度可能不足以满足那些需要更长上下文窗口的下游任务,比如长上下文对话任务或者是长文档中的信息抽取任务。因此,我们需要扩展预训练模型的上下文窗口。本代码库使用Position Interpolation将秀才13B的上下文窗口从4096扩展到32768,并且提供了相应的脚本。值得一提的是,只需要通过1000步的持续训练,Position Interpolation就能在长文本建模中达到高质量的性能。

上下文长度扩展示例

本代码库扩展了金融模型秀才-13B的上下文长度。可以在这里找到将13B模型的token长度从4096扩展到32768的脚本。我们进行了一系列测试,以比较在Pile和PG-19数据集上,原始的秀才13B及扩展上下文长度的秀才13B在困惑度(数值越小,建模能力越好)上的性能。以下是测试结果:

模型 Pile-4096 Pile-32768 PG19-4096 PG19-32768
原秀财GPT 8.27 - 8.00 -
秀财GPT-32K 8.25 7.89 8.20 7.47

结果表明,通过position interpolation,仅需1000步就可以实现高质量的长上下文语言建模。我们通过在FinEval数据集上的测试进一步确认了模型能力得到保持:原模型在FinEval上的综合得分为44.91,而扩展后模型的得分为43.61,这表明模型在拓展后在金融领域的性能基本保持不变。

当将Megatron格式的检查点转为Huggingface格式的检查点的时候,需要将调整rotary embedding中的freqs。比如,当rotary-seq-len-interpolation-factor为2时,我们需要修改modeling_llama.py中相关的函数:

def _set_cos_sin_cache(self, seq_len, device, dtype):
    self.max_seq_len_cached = seq_len
# t = torch.arange(self.max_seq_len_cached, device=device, dtype=self.inv_freq.dtype)
    t = torch.arange(self.max_seq_len_cached, device=device, dtype=self.inv_freq.dtype) / 2.0 
    # Change t with rotary-seq-len-interpolation-factor 

    freqs = torch.einsum("i,j->ij", t, self.inv_freq)
    # Different from paper, but it uses a different permutation in order to obtain the same calculation
    emb = torch.cat((freqs, freqs), dim=-1)
    self.register_buffer("cos_cached", emb.cos()[None, None, :, :].to(dtype), persistent=False)
    self.register_buffer("sin_cached", emb.sin()[None, None, :, :].to(dtype), persistent=False)

蒸馏

蒸馏是将大语言模型在预训练过程中所获取的知识和能力迁移到更小且更具有风格的模型中的有效方法。在本代码库中,我们首先利用其他的大语言模型来合成数据,然后使用合成的数据来训练我们自己的13B模型。这一策略在FinEval金融测试数据集上取得了性能上的提升。

生成合成数据

为了可以快速又高效的生成合成数据,我们使用vllm进行推理。我们将预训练数据的前缀当作生成合成数据的提示。

蒸馏的结果

我们在FinEval数据集上评估蒸馏之后的模型, 结果如下:

model Accounting Certificate Economy Finance Average
原秀才模型 43.60 44.61 40.09 49.83 44.91
在3B数据上进行蒸馏 40.00 49.70 42.02 47.54 45.17
在10B数据上进行蒸馏 43.27 47.90 38.64 51.14 45.87

致谢

以下开源仓库在 DongwuLLM 中被使用:

Megatron-LM

Megatron-LLaMA