屠龙刀图-金沙1005

屠龙刀图_toughbuilt美工刀开启掘金成长之旅!这是我参与「掘金日新计划 · 2 月更文挑战」的第 8 天,点击查看活动详情 vx 搜索『gjzkeyframe』 关注『关键帧keyframe』来及时获得最新的音视频技术文章。 预

开启掘金成长之旅!这是我参与「掘金日新计划 · 2 月更文挑战」的第 8 天,点击查看活动详情

vx 搜索『gjzkeyframe』 关注『关键帧keyframe』来及时获得最新的音视频技术文章。

预计『ai 绘画』这个主题将持续更新一个系列,感兴趣的话可以点个关注,保持联系。这篇文章我们梳理了『ai 绘画提示词词库 v0.0.1』。

在《midjourney 屠龙刀法》第 1 卷中,我们在掐劈踢大师(chatgpt)的启发下悟出了要想使好 midjourney 这把屠龙刀需要的历练:

  • 1、博览各派武学:分析和归类优秀作品的提示词。
  • 2、提炼内功心法:抽象 ai 绘画提示词的结构。
  • 3、丰富武功招式:收集和储备提示词词库。
  • 4、实践打怪升级:按照提示词结构和词库多多练习。

通过分析归类一些优秀作品的提示词,并对提示词的初步分类再归类,我们总结出了一种基本通用的 ai 绘画提示词结构:内容描述 风格描述 参数描述。在这个基础上,我们还构思了 ai 绘画提示词词库的大致结构和样式。《midjourney 屠龙刀法》则会持续收集和储备这个提示词词库。

建设提示词库我们将按照参数描述 → 风格描述 → 内容描述的顺序来进行,这是一个从通用性到个性化、从少量参数到多样性需求的顺序。

我们从参数描述开始修炼吧!

参数描述

『参数描述』就相当于打造 midjourney 这把屠龙刀的铁匠师傅给大家出的『屠龙刀出厂手册』,告诉你这把宝刀有哪些基础功能,以及用起来有什么样预期效果。

参数描述的详细信息关注 midjourney 官方文档的 parameter list[1],这里主要是我根据自己的理解做了一些翻译、重新归类和提示词的示例图搭配。

梳理下来的参数描述提示词词条如下图所示:

ai 绘画提示词词库 v0.0.1 | 参数描述

我们再给每条词条加上示例图后,参数的效果就一目了然了,一图胜千言:

ai 绘画提示词词库 v0.0.1 | 参数描述 示例图

图太大被平台压缩后可能不够清晰,如果你也对这个提示词库感兴趣,关注一下这个公众号,在后台回复『aigc』来获得词库清晰原图

下面,我们来细看一下这些参数,内容包含以下章节:

  • 1、模型版本参数
    • 模型大版本(version)
    • 动漫模型(niji)
    • test 模型(test)
    • testp 模型(testp)
  • 2、功能参数
    • 宽高比(aspect ratios)
    • 混沌度(chaos)
    • 去除(no)
    • 提示词权重(::)
    • 渲染质量(quality)
    • 种子(seed)
    • 网格共用种子(sameseed)
    • 任务完成度(stop)
    • 风格(style)
    • 风格化程度(stylize)
    • 重复贴片(tile)
    • 创造性(creative)
    • 提示图片(image prompts)
    • 提示图片权重(image weight)
    • 合成(remix)
    • 生成过程视频(video)
  • 3、上采样参数
    • light 上采样器(uplight)
    • beta 上采样器(upbeta)
    • 动漫模型上采样器(upanime)

1、模型版本参数

midjourney 会定期发布新的模型版本以提高绘图效率、一致性和质量,其中不同的模型擅长处理不同类型的图像。按照 midjourney 提供的各种模型,大致可以分为以下几类:

1)模型大版本

可以使用 --version 或 -v 指定不断迭代的大版本。当前最新的模型是 midjourney 4 版本,在这之前还有 midjourney 321 版本。

以下是使用相同的提示词,通过 --v 指定 1234 版本模型生成的示例图:

  • ① vibrant california poppies --v 1
  • ② vibrant california poppies --v 2
  • ③ vibrant california poppies --v 3
  • ④ vibrant california poppies --v 4

图片图片图片图片

2)动漫模型

使用 --niji 来使用 niji 动漫模型。这个模型专注于动漫风格。

下面是使用 niji 模型生成的示例图:

  • ① cat and girl --niji

图片

动漫模型示例图

3)测试模型

除了上述版本外,midjourney 还提供几个测试版本的模型:

test 模型(test) :使用 --test 来使用 test 模型。

testp 模型(testp) :使用 --testp 来使用 testp 模型。这个模型适合摄影类图像。

下面从左到右是用同样的提示词分别设置 --test 和 --testp 模型的生成示例图:

  • ① vibrant california poppies --test
  • ② vibrant california poppies --testp

图片图片

  • :3
  • 当宽高比是 1:1 时,初始生成图的网格数量是 2;
  • 当宽高比不是 1:1 时,初始生成图的网格数量是 1;
  • 靠近前面的提示词可能比靠近后面的权重更高。

以上便是 midjourney 当下支持的模型的介绍,总结一下主要有这几种:

  • --v 1
  • --v 2
  • --v 3
  • --v 4
  • --v 4 --style 4a
  • --v 4 --style 4b
  • --v 4 --style 4c(等同于 --v 4
  • --test
  • --test --creative
  • --testp
  • --testp --creative
  • --niji

2、功能参数

1)宽高比(aspect ratios)

使用 --aspect 或 -ar 指定宽高比,意思很好理解,看下图就清楚了:

图片

参数描述:宽高比

不过这里需要注意的是 midjourney 不同模型支持的宽高比范围是不同的:

图片

不同模型版本支持的宽高比范围

目前 midjourney 默认的模型版本是 4(4c),对应的默认宽高比是 1:1

2)混沌度(chaos)

使用 --chaos 或 --c 指定混沌度,表示生成图的变化多样性,取值范围 0~100,默认值为 0。值越小,生成图越稳;值越高,生成图的变化多样性越强,可能会出乎意料。

以下是使用同样的提示词跑了 3 次任务的生成图结果,出图还是比较稳定的:

  • ① watermelon owl hybrid --c 0
  • ② watermelon owl hybrid --c 0
  • ③ watermelon owl hybrid --c 0

图片图片图片

以下是调整 --c 值为 50 使用同样的提示词跑了 3 次任务的生成图结果,可以看到变化确实要多了一些:

  • ① watermelon owl hybrid --c 50
  • ② watermelon owl hybrid --c 50
  • ③ watermelon owl hybrid --c 50

图片图片图片

3)去除(no)

使用 --no 可以作为负向提示词来让模型尽量避免在图中生成对应元素。

下面从左到右是按照下列提示词生成的示例图:

  • ① vibrant tulip fields
  • ② vibrant tulip fields --no red

图片图片

对比一下,可以看到 --no red 确实起到了尽量避免红色的效果。

4)提示词权重(::)

提到 --no 就不得不讲到 :: 符号,因为 --no  还可以用 ::-.5 来表示,效果是一样的。

具体来讲,:: 这个符号可以跟在一个提示词单词后面(不能有空格间隔)用来告诉 midjourney bot 进行分词,并且还可以增加一个数字表示这个提示词的权重,默认值为 1。不过这个权重值是归一化处理的,比如:hot::1 doghot:: dog::1hot::2 dog::2hot::100 dog::100 效果是一样的,即 hot 和 dog 分词且权重一样;cup::2 cake::cup::4 cake::2cup::100 cake::50 效果是一样的,即 cup 和 cake 分词且 cup 权重更高。

上面的 -.5 是负数,则表示不要的意思,和 --no 效果一样。

下面从左到右分别是使用相同提示词但设置不同权重的示例图,效果一目了然:

  • ① hot dog
  • ② hot:: dog
  • ③ hot::2 dog

图片图片图片

5)渲染质量(quality)

使用 --quality 或 --q 来设置你要花费多少渲染时间来得到更好质量的生成图。默认值为 1,取值范围为 <.25, .5, 1, 2>。数值越大、渲染成本越高、出图质量可能越好,反之亦然。

该参数只对 1、2、3、4、niji 几种模型有效,且 4、niji 取值范围为 <.25, .5, 1>

下面从左到右是使用相同提示词但设置不同渲染质量的示例图,可以仔细观察一下它们在细节上的差异:

  • ① woodcut birch forest --q .25
  • ② woodcut birch forest --q 1

图片图片

6)种子(seed)

在 1、2、3、test、testp 模型中,可以使用 --seed  来在新任务中生成与之前任务相似的新图。

在 4、niji 模型中,如果 提示词 seed 参数 是一样的,将生成完全一致的图。

有了 --seed,我们可以调整提示词描述来使得内容发生变化的同时还能保留一些一致的元素。这个参数使得我们生成一个系列图集成为可能。

下面 2 张图分别是在版本 3 模型上用下列提示词生成,两个少女的画风不同,但有着近似的外貌:

  • ① a cute anime girl, in the style of makoto tezuka --beta --seed 29252 --upbeta --v 3
  • ② a cute anime girl, in the style of kyoani --beta --seed 29252 --upbeta --v 3

图片图片

需要注意的是在 midjourney 的 discord 中要找到一个 job 的 seed,需要向这个 job 发送一个信封(✉️)的互动消息。

7)网格共用种子(sameseed)

使用 --sameseed 可以让初始网格中的所有图像都使用相同的起始噪声,并将生成非常相似的生成图像。--sameseed 兼容的模型版本有:123testtestp

下面的示例展示了使用 --sameseed 和不使用 --sameseed 的初始噪声和最终生成图:

图片

可以看到使用了 --sameseed 的任务,初始噪声和最终生成图更加近似。

8)任务完成度(stop)

使用 --stop 指定生成图任务的完成度,取值范围是 10~100,默认值是 100。值越小,完成度越低,图会较模糊;值越大,完成度越高,细节越清晰。

下面是使用同样的提示词,但分别指定了不同的任务完成度的示例图,从模糊度和细节上可以看到明显的差别:

  • ① splatter art painting of acorns --stop 10
  • ② splatter art painting of acorns --stop 50
  • ③ splatter art painting of acorns --stop 100

图片图片图片

9)风格(style)

对于当前 midjourney 版本 4 的模型,有 3 种风格略有差异的模型:4a4b4c(默认),可以通过 --style 来指定使用哪个。

下面是使用同样的提示词,但分别指定不同的风格的示例图:

  • ① vibrant california poppies --style 4a
  • ② vibrant california poppies --style 4b
  • ③ vibrant california poppies --style 4c

图片图片图片

10)风格化程度(stylize)

midjourney 所训练的绘画模型有它所偏爱的艺术色彩、创作和形式,可以通过 --stylize或 -s 来设定其艺术偏向性的程度。几种不同模型的取值范围和默认值如下:

图片

不同模型版本支持的风格化程度默认值和范围

值越低,生成图艺术偏向性越低,越匹配提示词;值越高,则生成图艺术偏向性越高,与提示词的关联度可能越低。

下面是使用同样的提示词,但分别指定了不同 --stylize 值生成的示例图:

  • ① illustrated figs --stylize 50
  • ② illustrated figs --stylize 100
  • ③ illustrated figs --stylize 750

图片图片图片

11)重复贴片(tile)

用 --tile 参数可以生成重复图块的图像,比如创作织物、壁纸和纹理的无缝图案。

下面是用提示词生成的贴片图再经过多片拼接得到的图:

  • ① colorful tiger stripes --test --tile

colorful tiger stripes –test –tile

可以看到多个贴片拼接在一起时,花纹确实是无缝衔接

12)创造性(creative)

在使用 test 和 testp 模型时,可以用 --creative 参数来使生成图更具变化性和创造性。

下面是使用相同提示词对比 --creative 效果生成的示例图:

  • ① vibrant california poppies --test
  • ② vibrant california poppies --test --creative

图片图片

13)提示图片(image prompts)

提示图片指的是 midjourney 可以把图片当做提示词来使用从而生成与之相关的新图片。

下面是使用图片作为提示词的格式:

图片

图片提示词格式

需要注意的是:

  • 提示图片必须是用图片的直接链接的形式,要放在提示词的最前面;
  • 提示词可以包含 1-2 个图片,后面必须跟着文字提示词一起;
  • 手机用户可以使用 /blend 命令来对提示图片做混合生成。

下面是使用图片作为提示词做混合得到的生成图的示例:

图片

提示图片混合示例

14)提示图片权重(image weight)

在早一些版本的模型中,在提示词中使用提示图片是作为视觉上的灵感来供模型生成图片。这时候可以用 --iw 来设置图片相对于文字的权重,取值范围是 -10000~10000,默认值是 --iw 0.25,当这个参数数值较高时,表明提示图片对于当前绘制新图的任务权重更高,反之亦然。

图片

提示图片权重示例 1

图片

提示图片权重示例 2

15)合成(remix)

在 midjourney 中可以使用 /prefer remix 命令来打开或关闭合成模式。在合成模式下,网格图的 v1、v2、v3、v4 按钮动作会受影响,它允许你在每次变化中修改你的提示词。对于上采样图,要使用 remix 功能,可以点击 make variations 按钮。

下面是一个使用 remix 功能的示例:

第一步:打开合成模式后,选择一个上采样的图(由提示词 line-art stack of pumpkins生成),点击 make variations 按钮。

第一步:打开合成模式后,选择一个上采样的图(由提示词 line-art stack of pumpkins生成),点击 make variations 按钮。

图片

remix 功能示例:1

第二步:在弹出对话框中输入新的提示词 pile of cartoon owls

图片

remix 功能示例:2

第三步:midjourney 将在原始图的影响下,结合新的提示词生成新的图片。

图片

remix 功能示例:3

需要注意的是,只有对生成图的变化过程有影响的参数才会在合成模式下生效:

图片

影响初始生成、变化和合成的参数

16)生成过程视频(video)

使用 --video 可以让 midjourney 将初始网格图片生产任务的过程保存为一段视频。

过程视频

要获得这个视频,你需要给该任务发送一个信封(✉️)的互动消息,midjourney bot 会在给你回复的消息中带上视频地址。


功能参数小结

以上便是 midjourney 的功能参数的介绍,为了用好它们还需要注意它们与不同模型之间的兼容性。

1)下面是一些参数在当前 midjourney 默认的版本 4 模型上的默认值和取值范围:

图片

基本参数默认值和取值范围

2)下面是一些参数在图片生成过程中的影响范围、以及在不同 midjourney 模型上的兼容性:

图片

基本参数兼容性

3、上采样参数

使用 midjourney 来生成图片时,midjourney 的每个任务通常会先生成一个低分辨率图像网格来供我们选择。当网格中有合适的图,我们就可以选择对其进行上采样(upscale)来获得一张尺寸更大、细节更丰富的大图。

在做上采样时,有几种上采样器可以选择:

1)light 上采样器(uplight)

我们可以使用 --uplight 来设定使用 light 上采样器。这个上采样器在原图的基础上增加了适量的细节,适用于面部、光滑表面类的图片。

下面是使用 light 上采样器的示例:

  • ① adorable rubber duck medieval knight --uplight

图片

light 上采样器

看头盔可以看到一些细节的增加。

2)beta 上采样器(upbeta)

我们可以使用 --upbeta 来设定使用 beta 上采样器。这个上采样器不会在原图的基础上增加太多额外的细节,适用于面部、光滑表面类的图片。

下面是使用 beta 上采样器的示例:

  • ① adorable rubber duck medieval knight --upbeta

图片

beta 上采样器

对比上面 light 上采样器,可以看到头盔上没有增加那么多细节。

3)动漫上采样器(upanime)

动漫上采样器 --upanime 是我们使用 --niji 模型时的默认上采样器,它是针对插图和漫画风格做了针对性的优化。

下面是动漫上采样器的效果示例:

  • ① adorable rubber duck medieval knight --upanime

图片

动漫上采样器

最后

到这里,我们的参数描述部分就告一段落了。如果说 midjourney 是我们握在手里的屠龙刀,上面所讲的内容就相当于这把宝刀的使用指南。熟悉这些参数的使用,可以让我们四两拨千斤地挥出固定范式的强劲刀法,如果再结合后续风格描述内容描述的招式,我们离使出鬼斧神工、鬼哭狼嚎、鬼神莫测的刀法就又近了一步。

关注一下,不要错过后续。

参考资料

[1]

parameter list: docs.midjourney.com/docs/parame…

js555888金沙老品牌的版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

文章由思创斯整理,转载请注明出处:https://ispacesoft.com/116632.html

(0)

相关推荐

  • 兄弟姐妹们,如需转载请标明出处:http://blog.csdn.net/jiangjunshow总目录各位乡亲父老们!人工智能,马上就要爆发了。一旦爆发,将会如黄河泛滥一发不可收拾。在当今,人工智能已经渗透到了网络搜索,广告分发,人脸识别,语音识别,自动驾驶,智能医疗等等领域。这都还只是初级阶段,即将到来的人工智能会更惊艳。而且一旦控制不好,会真如马斯克所说的一样——人工智能会毁灭人类~

  • ai人工智能让女神缩小女孩的想象力差距(closingtheimaginationgapforgirls)thetermartificialintelligence(ai)wascoined64yearsagoatascholarlyconference.theaifieldhasn’tremainedthetheoreticalprovi…

  • 元宇宙前景_元宇宙概念发展空间现在大热的元宇宙浪潮下,前端是什么样的一个发展现状。全文从当下元宇宙相关的资本消息开始,介绍了前端 ar 目前的使用场景、webxr 标准、通用 ar 框架原理以及目前的市场化金沙1005的解决方案。

  • 什么是gpt_chatgpt3你可以让它改正下面的句子:parent throughout the world spends time to read with their

  • 一位前端小姐姐的五万字面试宝典「建议收藏」另外小姐姐最近在看机会 base 北京,邮箱已经附在 github 上了。欢迎有坑位的同学进行推荐。 插入排序的改进版。对间隔 gap 为一组的数进行插入排序 1、原型链继承,将父类的实例作为子类的原型,他的特点是实例是子类的实例也是父类的实例,父类新增的原型方法/属性,子类都…

  • 如何使用midjourney和chatgpt制作动画短片?[通俗易懂]ammaarreshi当我制作这部使用生成式人工智能制作的蝙蝠侠动画短片时——我不知道它会在不到一周的时间内获得700万次观看。想学!给我们讲解下是整体的制作流程吧!!opusammaarreshi我不是电影制作人,也从未写过剧本。我只是有还不错的想象力。有一天,我看到有人用midjourney制作了一部动画短片。然后我就心动了…我花了6个小时来研究他们是如何做到的。我疯狂地实验…

  • chatgpt是什么?它的情商到底有多高?那么,chatgpt到底是什么,为什么受到这么多人追捧?由美国人工智能研究公司 openai 在 11 月 30 日上线的新模型。

  • dart flutter_dart多线程1.同步1.1:同步的演示1.2:同步的劣势1.3:关于异步2、从读取文件开始看异步2.1:关于future对象2.2:使用future异步读取文件2.3:使用async和await异步读取文件2.4

发表回复

您的电子邮箱地址不会被公开。

联系金沙1005

关注“java架构师必看”公众号

回复4,添加站长微信。

附言:ispacesoft.com网而来。

关注微信
网站地图