/Biba_Benchmarks

Primary LanguageJupyter NotebookApache License 2.0Apache-2.0

Diffusers_Benchmark:使用Diffusers编写的AI绘画Benchmark

使用方法

1 安装diffusers

N卡用户在安装好Python后,运行:pip install diffusers["torch"] transformers

A卡相对复杂一些,要先配置ROCm+WSL+Torch,参考:https://zhuanlan.zhihu.com/p/11572902441

然后再pip install diffusers["torch"] transformers

安装完成后在对应Python环境的Prompt里用python3 -c 'import torch; print(torch.cuda.is_available())'验证安装,出现True则安装成功

2 安装Juptyer Notebook

运行pip install notebook,安装完成之后输入jupyter-notebook打开Jupyter Notebook的网页

3 下载模型

项目默认用的模型是stablediffusionapi/anything-v5stabilityai/stable-diffusion-x4-upscaler的本地模型

如果你没有本地模型,那么把代码中的./anything-v5改成stablediffusionapi/anything-v5./stable-diffusion-x4-upscaler改成stabilityai/stable-diffusion-x4-upscaler即可

注意本地模型要是diffusers的文件格式,不然读不了,模型可以是safetensors也可以是bin

如果使用bin文件,会报警告找不到safetensors,但一样可以加载

4 运行Diffusers_Benchmark

在Jupyter Notebook的网页中打开本项目里的Diffusers_Benchmark.ipynb,依次运行(选中代码框,Shift+Enter)即可

进度条最后的it/s就是运行速度

ollama_test:基于OLLAMA的LLM推理Benchmark

使用方法

1 安装OLLAMA

在这里下载安装即可:https://ollama.com/

2 启动OLLAMA

Windows用户直接运行OLLAMA,任务栏有图标就可以了

3 双击ollama_test.bat

直接双击运行就可以运行Benchmark了,会自动下载qwen2.5的14b、7b和3b模型,输出三个AI生成的txt和相应的时间(秒)

注意跑的过程中不要过0点,否则算的时间是错的

统计一下生成了多少tokens,除以相应的秒数,就可以得到一秒生成多少tokens了

R1-OverThinker:强制让你的DeepSeek R1继续思考

Idea From:https://gist.github.com/vgel/8a2497dc45b1ded33287fa7bb6cc1adc#file-r1-py

使用方法

1 配置Python环境

需要torch、transformers、gradio和random这4个包

2 修改参数

打开R1-OverThinker.py,有以下几个项目可以修改:

1、第8行的模型名称/路径

2、第14行的最小思考token数(min_thinking_tokens)

3、第40行的替换token(random.choice(["\n不对,让我重新分析一下", "\n让我重新思考一下"])

3 运行

运行python R1-OverThinker.py,然后浏览器打开127.0.0.1:7860