config for Taiwan-LLaMa-v1.0 demo on Hugging Face Spaces.
Syax19 opened this issue · 3 comments
Syax19 commented
您好,我正在使用您的Taiwan-LLaMa-v1.0模型執行去識別化任務,目前正在比較網頁app輸出的結果和fastchat API gen_model_answer對於同樣的prompt的output差異。
因為現在的Hugging face Spaces上的demo更新成Taiwan-LLM v2.0,之前沒有記錄到Max new tokens, Temperature, Top-p (nucleus sampling), Top-k的預設值,是否能請您提供這些資訊呢?
謝謝您
PenutChen commented
原本 Taiwan Llama 的 Demo Space 還在
https://huggingface.co/spaces/yentinglin/Taiwan-LLaMa2
可以透過 Commit History 確認 Sample Parameters 的設定是什麼
PenutChen commented
Syax19 commented
找到了! 謝謝您的幫助!