关于gpu内存管理
Closed this issue · 13 comments
18451627030 commented
18451627030 commented
18451627030 commented
Jihuai-wpy commented
请问你第一个问题中,是把几个模型同时部署在一个gpu上了吗?如果是一个的话理论上是不行的;但是如果是分别部署在4个gpu上那么是可行的。
Jihuai-wpy commented
整个的运行流程你可以看一下SeqXGPT/SeqXGPT/目录下的README.md
18451627030 commented
是的 我是同时部署在一个gpu上的,我是租的autodl,可以同时租几个?
Jihuai-wpy commented
感觉修改成两个之后的代码应该是对的。
Jihuai-wpy commented
这个我也没用过,但其实你也可以一个模型一个模型的提取特征,之后合并一下文件就行。这样一个gpu也能跑
18451627030 commented
Jihuai-wpy commented
训练你就直接跑
# train
这行注释下面的这个命令就行。
18451627030 commented
Jihuai-wpy commented
时间太久了有点忘了,刚刚看了下,应该是你没有传路径进去,你可以在命令行中--train_path设置一下,或者你在train.py文件夹下,有个parse_args()函数,原本一些固定的参数我就默认在里面设置了,你也可以在这里设置默认值。
18451627030 commented
十分感谢!
Jihuai-wpy commented
不客气啦~~