大家好,我是你的好朋友思创斯。今天说一说屠龙刀图_toughbuilt美工刀,希望您对编程的造诣更进一步.
开启掘金成长之旅!这是我参与「掘金日新计划 · 2 月更文挑战」的第 8 天,点击查看活动详情
vx 搜索『gjzkeyframe』 关注『关键帧keyframe』来及时获得最新的音视频技术文章。
预计『ai 绘画』这个主题将持续更新一个系列,感兴趣的话可以点个关注,保持联系。这篇文章我们梳理了『ai 绘画提示词词库 v0.0.1』。
在《midjourney 屠龙刀法》第 1 卷中,我们在掐劈踢大师(chatgpt)的启发下悟出了要想使好 midjourney 这把屠龙刀需要的历练:
- 1、博览各派武学:分析和归类优秀作品的提示词。
- 2、提炼内功心法:抽象 ai 绘画提示词的结构。
- 3、丰富武功招式:收集和储备提示词词库。
- 4、实践打怪升级:按照提示词结构和词库多多练习。
通过分析归类一些优秀作品的提示词,并对提示词的初步分类再归类,我们总结出了一种基本通用的 ai 绘画提示词结构:内容描述 风格描述 参数描述。在这个基础上,我们还构思了 ai 绘画提示词词库的大致结构和样式。《midjourney 屠龙刀法》则会持续收集和储备这个提示词词库。
建设提示词库我们将按照参数描述 → 风格描述 → 内容描述
的顺序来进行,这是一个从通用性到个性化、从少量参数到多样性需求的顺序。
我们从参数描述
开始修炼吧!
参数描述
『参数描述』就相当于打造 midjourney 这把屠龙刀的铁匠师傅给大家出的『屠龙刀出厂手册』,告诉你这把宝刀有哪些基础功能,以及用起来有什么样预期效果。
参数描述的详细信息关注 midjourney 官方文档的 parameter list[1],这里主要是我根据自己的理解做了一些翻译、重新归类和提示词的示例图搭配。
梳理下来的参数描述提示词词条如下图所示:
我们再给每条词条加上示例图后,参数的效果就一目了然了,一图胜千言:
图太大被平台压缩后可能不够清晰,如果你也对这个提示词库感兴趣,关注一下这个公众号,在后台回复『aigc』来获得词库清晰原图
下面,我们来细看一下这些参数,内容包含以下章节:
- 1、模型版本参数
-
- 模型大版本(version)
- 动漫模型(niji)
- test 模型(test)
- testp 模型(testp)
- 2、功能参数
-
- 宽高比(aspect ratios)
- 混沌度(chaos)
- 去除(no)
- 提示词权重(::)
- 渲染质量(quality)
- 种子(seed)
- 网格共用种子(sameseed)
- 任务完成度(stop)
- 风格(style)
- 风格化程度(stylize)
- 重复贴片(tile)
- 创造性(creative)
- 提示图片(image prompts)
- 提示图片权重(image weight)
- 合成(remix)
- 生成过程视频(video)
- 3、上采样参数
-
- light 上采样器(uplight)
- beta 上采样器(upbeta)
- 动漫模型上采样器(upanime)
1、模型版本参数
midjourney 会定期发布新的模型版本以提高绘图效率、一致性和质量,其中不同的模型擅长处理不同类型的图像。按照 midjourney 提供的各种模型,大致可以分为以下几类:
1)模型大版本
可以使用 --version
或 -v
指定不断迭代的大版本。当前最新的模型是 midjourney 4
版本,在这之前还有 midjourney 3
、2
、1
版本。
以下是使用相同的提示词,通过 --v
指定 1
、2
、3
、4
版本模型生成的示例图:
- ①
vibrant california poppies --v 1
- ②
vibrant california poppies --v 2
- ③
vibrant california poppies --v 3
- ④
vibrant california poppies --v 4
2)动漫模型
使用 --niji
来使用 niji 动漫模型。这个模型专注于动漫风格。
下面是使用 niji 模型生成的示例图:
- ①
cat and girl --niji
动漫模型示例图
3)测试模型
除了上述版本外,midjourney 还提供几个测试版本的模型:
test 模型(test) :使用 --test
来使用 test 模型。
testp 模型(testp) :使用 --testp
来使用 testp 模型。这个模型适合摄影类图像。
下面从左到右是用同样的提示词分别设置 --test
和 --testp
模型的生成示例图:
- ①
vibrant california poppies --test
- ②
vibrant california poppies --testp
:3
;- 当宽高比是
1:1
时,初始生成图的网格数量是 2; - 当宽高比不是
1:1
时,初始生成图的网格数量是 1; - 靠近前面的提示词可能比靠近后面的权重更高。
以上便是 midjourney 当下支持的模型的介绍,总结一下主要有这几种:
--v 1
--v 2
--v 3
--v 4
--v 4 --style 4a
--v 4 --style 4b
--v 4 --style 4c
(等同于--v 4
)--test
--test --creative
--testp
--testp --creative
--niji
2、功能参数
1)宽高比(aspect ratios)
使用 --aspect
或 -ar
指定宽高比,意思很好理解,看下图就清楚了:
参数描述:宽高比
不过这里需要注意的是 midjourney 不同模型支持的宽高比范围是不同的:
不同模型版本支持的宽高比范围
目前 midjourney 默认的模型版本是 4(4c)
,对应的默认宽高比是 1:1
。
2)混沌度(chaos)
使用 --chaos
或 --c
指定混沌度,表示生成图的变化多样性,取值范围 0~100
,默认值为 0
。值越小,生成图越稳;值越高,生成图的变化多样性越强,可能会出乎意料。
以下是使用同样的提示词跑了 3 次任务的生成图结果,出图还是比较稳定的:
- ①
watermelon owl hybrid --c 0
- ②
watermelon owl hybrid --c 0
- ③
watermelon owl hybrid --c 0
以下是调整 --c
值为 50 使用同样的提示词跑了 3 次任务的生成图结果,可以看到变化确实要多了一些:
- ①
watermelon owl hybrid --c 50
- ②
watermelon owl hybrid --c 50
- ③
watermelon owl hybrid --c 50
3)去除(no)
使用 --no
可以作为负向提示词来让模型尽量避免在图中生成对应元素。
下面从左到右是按照下列提示词生成的示例图:
- ①
vibrant tulip fields
- ②
vibrant tulip fields --no red
对比一下,可以看到 --no red
确实起到了尽量避免红色的效果。
4)提示词权重(::)
提到 --no
就不得不讲到 ::
符号,因为 --no
还可以用
来表示,效果是一样的。
具体来讲,::
这个符号可以跟在一个提示词单词后面(不能有空格间隔)用来告诉 midjourney bot 进行分词,并且还可以增加一个数字表示这个提示词的权重,默认值为 1
。不过这个权重值是归一化处理的,比如:hot::1 dog
、hot:: dog::1
、hot::2 dog::2
、hot::100 dog::100
效果是一样的,即 hot 和 dog 分词且权重一样;cup::2 cake::
、cup::4 cake::2
、cup::100 cake::50
效果是一样的,即 cup 和 cake 分词且 cup 权重更高。
上面的 -.5
是负数,则表示不要的意思,和 --no
效果一样。
下面从左到右分别是使用相同提示词但设置不同权重的示例图,效果一目了然:
- ①
hot dog
- ②
hot:: dog
- ③
hot::2 dog
5)渲染质量(quality)
使用 --quality
或 --q
来设置你要花费多少渲染时间来得到更好质量的生成图。默认值为 1
,取值范围为 <.25, .5, 1, 2>
。数值越大、渲染成本越高、出图质量可能越好,反之亦然。
该参数只对 1、2、3、4、niji
几种模型有效,且 4、niji
取值范围为 <.25, .5, 1>
。
下面从左到右是使用相同提示词但设置不同渲染质量的示例图,可以仔细观察一下它们在细节上的差异:
- ①
woodcut birch forest --q .25
- ②
woodcut birch forest --q 1
6)种子(seed)
在 1、2、3、test、testp
模型中,可以使用 --seed
来在新任务中生成与之前任务相似的新图。
在 4、niji
模型中,如果 提示词 seed 参数
是一样的,将生成完全一致的图。
有了 --seed
,我们可以调整提示词描述来使得内容发生变化的同时还能保留一些一致的元素。这个参数使得我们生成一个系列图集成为可能。
下面 2 张图分别是在版本 3
模型上用下列提示词生成,两个少女的画风不同,但有着近似的外貌:
- ①
a cute anime girl, in the style of makoto tezuka --beta --seed 29252 --upbeta --v 3
- ②
a cute anime girl, in the style of kyoani --beta --seed 29252 --upbeta --v 3
需要注意的是在 midjourney 的 discord 中要找到一个 job 的 seed,需要向这个 job 发送一个信封(✉️)的互动消息。
7)网格共用种子(sameseed)
使用 --sameseed
可以让初始网格中的所有图像都使用相同的起始噪声,并将生成非常相似的生成图像。--sameseed
兼容的模型版本有:1
、2
、3
、test
、testp
。
下面的示例展示了使用 --sameseed
和不使用 --sameseed
的初始噪声和最终生成图:
可以看到使用了 --sameseed
的任务,初始噪声和最终生成图更加近似。
8)任务完成度(stop)
使用 --stop
指定生成图任务的完成度,取值范围是 10~100
,默认值是 100
。值越小,完成度越低,图会较模糊;值越大,完成度越高,细节越清晰。
下面是使用同样的提示词,但分别指定了不同的任务完成度的示例图,从模糊度和细节上可以看到明显的差别:
- ①
splatter art painting of acorns --stop 10
- ②
splatter art painting of acorns --stop 50
- ③
splatter art painting of acorns --stop 100
9)风格(style)
对于当前 midjourney 版本 4
的模型,有 3 种风格略有差异的模型:4a
、4b
、4c
(默认),可以通过 --style
来指定使用哪个。
下面是使用同样的提示词,但分别指定不同的风格的示例图:
- ①
vibrant california poppies --style 4a
- ②
vibrant california poppies --style 4b
- ③
vibrant california poppies --style 4c
10)风格化程度(stylize)
midjourney 所训练的绘画模型有它所偏爱的艺术色彩、创作和形式,可以通过 --stylize
或 -s
来设定其艺术偏向性的程度。几种不同模型的取值范围和默认值如下:
不同模型版本支持的风格化程度默认值和范围
值越低,生成图艺术偏向性越低,越匹配提示词;值越高,则生成图艺术偏向性越高,与提示词的关联度可能越低。
下面是使用同样的提示词,但分别指定了不同 --stylize
值生成的示例图:
- ①
illustrated figs --stylize 50
- ②
illustrated figs --stylize 100
- ③
illustrated figs --stylize 750
11)重复贴片(tile)
用 --tile
参数可以生成重复图块的图像,比如创作织物、壁纸和纹理的无缝图案。
下面是用提示词生成的贴片图再经过多片拼接得到的图:
- ①
colorful tiger stripes --test --tile
colorful tiger stripes –test –tile
可以看到多个贴片拼接在一起时,花纹确实是无缝衔接。
12)创造性(creative)
在使用 test
和 testp
模型时,可以用 --creative
参数来使生成图更具变化性和创造性。
下面是使用相同提示词对比 --creative
效果生成的示例图:
- ①
vibrant california poppies --test
- ②
vibrant california poppies --test --creative
13)提示图片(image prompts)
提示图片
指的是 midjourney 可以把图片当做提示词来使用从而生成与之相关的新图片。
下面是使用图片作为提示词的格式:
图片提示词格式
需要注意的是:
- 提示图片必须是用图片的直接链接的形式,要放在提示词的最前面;
- 提示词可以包含 1-2 个图片,后面必须跟着文字提示词一起;
- 手机用户可以使用
/blend
命令来对提示图片做混合生成。
下面是使用图片作为提示词做混合得到的生成图的示例:
提示图片混合示例
14)提示图片权重(image weight)
在早一些版本的模型中,在提示词中使用提示图片是作为视觉上的灵感来供模型生成图片。这时候可以用 --iw
来设置图片相对于文字的权重,取值范围是 -10000~10000
,默认值是 --iw 0.25
,当这个参数数值较高时,表明提示图片对于当前绘制新图的任务权重更高,反之亦然。
提示图片权重示例 1
提示图片权重示例 2
15)合成(remix)
在 midjourney 中可以使用 /prefer remix
命令来打开或关闭合成模式
。在合成模式下,网格图的 v1、v2、v3、v4
按钮动作会受影响,它允许你在每次变化中修改你的提示词。对于上采样图,要使用 remix 功能,可以点击 make variations
按钮。
下面是一个使用 remix 功能的示例:
第一步:打开合成模式后,选择一个上采样的图(由提示词 line-art stack of pumpkins
生成),点击 make variations
按钮。
第一步:打开合成模式后,选择一个上采样的图(由提示词 line-art stack of pumpkins
生成),点击 make variations
按钮。
remix 功能示例:1
第二步:在弹出对话框中输入新的提示词 pile of cartoon owls
。
remix 功能示例:2
第三步:midjourney 将在原始图的影响下,结合新的提示词生成新的图片。
remix 功能示例:3
需要注意的是,只有对生成图的变化过程有影响的参数才会在合成模式下生效:
影响初始生成、变化和合成的参数
16)生成过程视频(video)
使用 --video
可以让 midjourney 将初始网格图片生产任务的过程保存为一段视频。
过程视频
要获得这个视频,你需要给该任务发送一个信封(✉️)的互动消息,midjourney bot 会在给你回复的消息中带上视频地址。
功能参数小结
以上便是 midjourney 的功能参数的介绍,为了用好它们还需要注意它们与不同模型之间的兼容性。
1)下面是一些参数在当前 midjourney 默认的版本 4 模型上的默认值和取值范围:
基本参数默认值和取值范围
2)下面是一些参数在图片生成过程中的影响范围、以及在不同 midjourney 模型上的兼容性:
基本参数兼容性
3、上采样参数
使用 midjourney 来生成图片时,midjourney 的每个任务通常会先生成一个低分辨率图像网格来供我们选择。当网格中有合适的图,我们就可以选择对其进行上采样(upscale)
来获得一张尺寸更大、细节更丰富的大图。
在做上采样时,有几种上采样器
可以选择:
1)light 上采样器(uplight)
我们可以使用 --uplight
来设定使用 light
上采样器。这个上采样器在原图的基础上增加了适量的细节,适用于面部、光滑表面类的图片。
下面是使用 light 上采样器的示例:
- ①
adorable rubber duck medieval knight --uplight
light 上采样器
看头盔可以看到一些细节的增加。
2)beta 上采样器(upbeta)
我们可以使用 --upbeta
来设定使用 beta
上采样器。这个上采样器不会在原图的基础上增加太多额外的细节,适用于面部、光滑表面类的图片。
下面是使用 beta 上采样器的示例:
- ①
adorable rubber duck medieval knight --upbeta
beta 上采样器
对比上面 light 上采样器,可以看到头盔上没有增加那么多细节。
3)动漫上采样器(upanime)
动漫上采样器 --upanime
是我们使用 --niji
模型时的默认上采样器,它是针对插图和漫画风格做了针对性的优化。
下面是动漫上采样器的效果示例:
- ①
adorable rubber duck medieval knight --upanime
动漫上采样器
最后
到这里,我们的参数描述
部分就告一段落了。如果说 midjourney 是我们握在手里的屠龙刀,上面所讲的内容就相当于这把宝刀的使用指南。熟悉这些参数的使用,可以让我们四两拨千斤地挥出固定范式的强劲刀法,如果再结合后续风格描述
、内容描述
的招式,我们离使出鬼斧神工、鬼哭狼嚎、鬼神莫测的刀法就又近了一步。
关注一下,不要错过后续。
参考资料
[1]
parameter list: docs.midjourney.com/docs/parame…
文章由思创斯整理,转载请注明出处:https://ispacesoft.com/116632.html