支持 roberta 类型的模型。
pip install -r requirements.txt
默认使用 wikitext 数据集训练 roberta-base 模型,训练样本数为1000。 运行以下命令即可启动训练:
sh train-mlm.sh
可以修改 train-mlm.sh
来配置不同的训练参数。训练完毕后模型将保存在 ./model
文件夹下。
默认使用 squad 数据集对 ./model
下的 roberta-base 模型进行微调,来实现 QA 的功能,训练样本数为1000。
运行以下命令即可启动训练:
sh train-qa.sh
可以修改 train-qa.sh
来配置不同的训练参数。训练完毕后模型将保存在 ./squad_model
文件夹下。
使用以下命令来构建 torchserve mar 文件,默认使用./squad_model
文件夹下的模型:
sh build-torch-serve-mar.sh
构建完成后 mar 文件将保存在 model_store
文件夹下。
使用以下命令启动 torchserve:
sh run-torchserve.sh
torchserve 启动成功后,使用以下命令启动控制台客户端:
python -u src/ts_scripts/console_client.py
或者使用实现 torchserve grpc 接口 的外部 grpc 服务:
python -u src/ts_scripts/console_client.py --grpc-server <host>:<port>
即可进行交互。 示例:
Question: who am i?
Answer: user
Question: who are you?
Answer: robot
CPU 版:
docker build . -t lm-demo -f .\Dockerfile-cpu
GPU 版:
docker build . -t lm-demo -f .\Dockerfile-gpu
运行以下命令并等待 torchserve 启动完成即可使用。
MODEL_STORE_DIR
: torchserve 生成的 mar 文件所在的本地文件夹地址。
docker run -v ${MODEL_STORE_DIR}:/opt/model_store -it lm-demo
如果使用实现 torchserve grpc 接口 的外部 grpc 服务:
docker run -it --entrypoint bin/bash lm-demo -c "python -u src/ts_scripts/console_client.py --grpc-server <host>:<port>"
覆盖 lm-demo.yaml
中 namespace
,image
等字段。
注意:需要预先将模型存放至 /opt/model_store
目录下,可以在lm-demo.yaml
中使用 initContainers
运行命令以获取模型。
然后执行命令:
kubectl apply -f lm-demo.yaml