3DTopia/OpenLRM

版本信息问题

Opened this issue · 0 comments

请问一下 在torch版本是2.1.2的情况下 python 和transformer 的版本有要求吗 推理的时候会报错 TypeError: wrap_model_hub..HfModel.init() missing 1 required positional argument: 'config'