Issues
- 3
glm-large-chinese-335M重复生成
#154 opened - 0
使用 kubeflow 启动分布式训练
#153 opened - 0
请问GLM_large_chinese的预训练语料在哪里找
#152 opened - 1
请问10B-chinese的模型文件里为什么没有词表?
#151 opened - 0
Accelerate support for GLM
#150 opened - 7
将GLM-10B-chinese模型切分为MP_SIZE=8, 然后finetune seq2seq任务时,在eval阶段报错IndexError。怀疑eval没有以MP_SIZE=8方式运行
#149 opened - 5
- 1
- 0
- 3
- 2
- 0
如何通过huggingface加载的模型拿到last_hidden_states?
#143 opened - 7
accelerate 找不到模型
#142 opened - 0
GLM-10B 模型效率问题
#141 opened - 3
BUG: GLM-10B-Chinese model generate " ⁇".
#140 opened - 0
基于Prompt数据集如何微调模型?
#139 opened - 0
- 2
模型并行训练结束后,如何将多个模型文件合并成一个?
#137 opened - 2
基于10B模型继续预训练,遇到world size 不一致导致报错
#136 opened - 0
cmrc数据集结果,预测结果都为空
#135 opened - 1
chatglm-6b
#134 opened - 0
单卡pretrain chinese-large模型
#133 opened - 0
impelement by megengine
#132 opened - 3
- 0
GLM 10B 模型零样本结果无法对齐
#130 opened - 1
- 0
- 0
GPT2Dataset和BlockDataset
#125 opened - 2
小数据finetune large-chinese rouge 为0
#124 opened - 3
- 1
50035 token id 报错
#122 opened - 0
如何使用onnxruntime 支持glm优化
#121 opened - 2
GLMForSequenceClassification的使用
#120 opened - 1
AutoModelForCausalLM
#119 opened - 0
bash evaluate_lm.sh问题
#118 opened - 0
GPU_id设置
#117 opened - 0
generate_samples.py问题
#116 opened - 0
模型微调
#115 opened - 1
模型微调
#114 opened - 0
在测试lambada时报错,显示参数错误,分布式错误
#113 opened - 2
- 2
run ds_pretrain_nvidia.sh
#111 opened - 4
怎么使用batch beam search
#110 opened - 1
genrate_sample.py的问题
#109 opened - 1
- 1
finetuing MP_SIZE问题
#107 opened - 0
scripts目录下是缺少一个ds_config.json吗
#106 opened - 1
The attention_mask dimension not right?
#105 opened - 2
dockerfile中的ssh-env-config.sh文件怎么配置
#104 opened - 1