MiuLab/Taiwan-LLM

config for Taiwan-LLaMa-v1.0 demo on Hugging Face Spaces.

Syax19 opened this issue · 3 comments

Syax19 commented

您好,我正在使用您的Taiwan-LLaMa-v1.0模型執行去識別化任務,目前正在比較網頁app輸出的結果和fastchat API gen_model_answer對於同樣的prompt的output差異。

因為現在的Hugging face Spaces上的demo更新成Taiwan-LLM v2.0,之前沒有記錄到Max new tokens, Temperature, Top-p (nucleus sampling), Top-k的預設值,是否能請您提供這些資訊呢?

謝謝您

原本 Taiwan Llama 的 Demo Space 還在

https://huggingface.co/spaces/yentinglin/Taiwan-LLaMa2

可以透過 Commit History 確認 Sample Parameters 的設定是什麼

Sample Parameters 在 9 天前有更動過

image

Syax19 commented

找到了! 謝謝您的幫助!