基于自翻译的一万条 diffusiondb 中文数据集的 Stable Diffusion 模型训练版本以及对提示文本的“扩展”
Stable Diffusion是现有的一流文本转图像模型。
现如今借助提供跨模态预训练模型的框架diffusers,人们可以通过条件的或非条件的方式(是否提供提示文本)来定制化他们的图像生成器。
这个工程聚焦于根据text to image example中的例子使用来自于diffusiondb的自翻译数据,达到类似的效果。
这个工程创建于2022.11.5.
现如今,IDEA-CCNL在2022.11.2.开源了Taiyi-Stable-Diffusion-1B-Chinese-v0.1 。作为一个在大量数据上进行训练的基本模型,其在中文提示词生成图像的任务上表现优异。那个模型在具有很多现实风格特征的wukong-dataset数据集上进行训练,使得其输出与原始的CompVis/stable-diffusion-v1-4的风格有一些差异。这使得想要生成原始CompVis/stable-diffusion-v1-4风格的图像或使得提示句子更具有表达力的时候面临一些困难。
上面使得提示句子更具有表达力的思路来自于一个叫做prompt-extend的工程,其使用文本生成任务扩展了stable diffusion的英语提示词。可以通过HuggingFace Space这个Huggingface Space链接进行适用实验。
下面是使用Taiyi-Stable-Diffusion-1B-Chinese-v0.1生成一些图片的示例。
from diffusers import StableDiffusionPipeline
pipe = StableDiffusionPipeline.from_pretrained("IDEA-CCNL/Taiyi-Stable-Diffusion-1B-Chinese-v0.1")
pipe = pipe.to("cuda")
pipe.safety_checker = lambda images, clip_input: (images, False)
prompt = '卡通龙'
image = pipeline(prompt, guidance_scale=7.5).images[0]
image
x = "卡通龙,数字艺术、艺术品趋势、电影照明、工作室质量、光滑成型"
image = pipeline(x, guidance_scale=7.5).images[0]
image
Prompt | 卡通龙 | 卡通龙,数字艺术、艺术品趋势、电影照明、工作室质量、光滑成型 |
---|---|---|
卡通龙 |
你可以通过观看上面的输出发现,上面的两个结果在细节上的差异并不大。这样可能会减小模型的想象力并冻结模型进一步的创造空间。
这个工程的目的是通过对Taiyi-Stable-Diffusion-1B-Chinese-v0.1在根据 diffusiondb自翻译的部分数据的在中文领域实现prompt-extend的效果。并通过提供一个文本生成器使得风格化的能力得到强化。
本工程提供了Taiyi-Stable-Diffusion-1B-Chinese-v0.1的微调版本以及 MT5 model模型用来生成提示语句风格化辅助字符串。
所有模型已经上传到Huggingface Hub。
为了进行微调,需要翻译文本。 第一步,在diffusiondb中随机采样一万条数据,使用NMT将它们翻译成中文并进行简单修正。 这些生成后的文本已经被上传到 svjack/diffusiondb_random_10k_zh_v1 ,在基本模型上使用它们就会满足需求。
文本对图像的微调模型包含3个如下命名的模型
svjack/Stable-Diffusion-FineTuned-zh-v0
svjack/Stable-Diffusion-FineTuned-zh-v1
svjack/Stable-Diffusion-FineTuned-zh-v2
这三个模型是按递增步数训练的(即,v0是训练的早期版本 v2是更多步数的训练版本)
第二步,我在MT5模型的基础上训练了一个提示语句风格辅助字符串文本生成模型。在这步中,仅仅需要完成文本的翻译,这个模型位于svjack/prompt-extend-chinese 以及一个基于GPT2的版本svjack/prompt-extend-chinese-gpt
GPT2在 HuggingFace Space有一个部署版本 位于svjack/prompt-extend-gpt-chinese
根据工程本身的代码或Huggingface Hub上的模型卡片进行使用。predict_image.py这个文件仅仅使用微调后的文本转图像的生成模型。prompt_extend.py仅仅根据头部的中文提示字符串生成风格辅助字符串。 predict_image_and_extend.py将二者结合进一个简单函数。
微调的svjack/Stable-Diffusion-FineTuned-zh-vx模型的V0, V1 及 V2各自在svjack/diffusiondb_random_10k_zh_v1上训练了10000, 28000 及 56000 步(batch_size 1)
V1版本在想象力以及对风格的敏感度上超过了其它的版本。Taiyi及V0看起来想象力不足,V2看起来并不敏感而是作为一个极具风格化的版本。
上面表格的偶数行是MT5 model生成的风格化辅助字符串的结果。风格化辅助字符串对于V0以及V1是有效的,对于Taiyi以及V2作用不明显。
尝试使用结合 MT5 model 使用 svjack/Stable-Diffusion-FineTuned-zh-v0 及
svjack/Stable-Diffusion-FineTuned-zh-v1 会给你一个既有想象力又对于辅助风格敏感的结果,
一些情况下,风格化辅助字符串对于样本迁移微调具有很大帮助。下面是一个例子,使用 svjack/Stable-Diffusion-FineTuned-zh-v1生成一个有关"护国公克伦威尔"(Protector Cromwell)的图片,在不使用风格化辅助字符串的情况下,其给出的结果类似**古代的神仙门神画作,但当加上mt5模型生成的风格化辅助字符串"的肖像,由,和,制作,在艺术站上趋势"后,其生成的结果更符合预期。
Prompt | 护国公克伦威尔 | 护国公克伦威尔,的肖像,由,和,制作,在艺术站上趋势 |
---|---|---|
护国公克伦威尔 |
svjack - svjackbt@gmail.com - ehangzhou@outlook.com
Project Link:https://github.com/svjack/Stable-Diffusion-Chinese-Extend