项目 | 描述 | 特点 |
---|---|---|
SDWebUI | 基于Gradio库的Stable Diffusion浏览器界面 | Stable Diffusion Web UI |
Vega AI | 基于Stable Diffusion二次开发的AI绘画平台 | 初学者友好、功能多样、无需安装、直接使用 |
微信AI绘画小程序 | 微信平台的AI绘画功能 | 操作简单、大部分有“一键同款”功能 |
一个完整的Midjourney基础提示词结构是“/imagine prompt:提示词+参数”,如
/imagine prompt:cat--v 5。
序号 | 元素名称 | 示例 |
---|---|---|
1 | 主题 | 动物、人物、地点、物体等 |
2 | 环境 | 室内、室外、太空、纳尼亚、水下、翡翠城等 |
3 | 媒介 | 照片、插图、素描画、雕塑、挂毯等 |
4 | 照明(光源) | 星光、柔光、环境光、荧光灯、霓虹灯、摄影棚灯等 |
5 | 颜色(调色板) | 鲜艳、柔和、明亮、单色、彩色、黑白等 |
6 | 心情 | 沉重的、平静的、激动的等 |
7 | 画质 | 4K、8K、高清等 |
8 | 渲染 | 实时渲染、离线渲染、云渲染等 |
9 | 纹路 | 豹纹、渐变、线状等 |
10 | 时间 | 19世纪60年代、20世纪80年代、21世纪、早上、下午、晚上等 |
11 | 镜头 | 近景、远景、全景、中景等 |
一个画面大致由以下几种元素组成,但不用都写出来,我列举了一些,供大家参考。
比如,“男孩+教室+插图+荧光灯”,男孩就是主题,教室就是环境,插图就是媒介,荧光灯就是照明(光源)。它的提示词结构是“/imagine prompt:
boy+classroom+illustration+fluorescent light--v 5
中文提示词 | 英文提示词 |
---|---|
有趣的 | playful |
正视角 | eye-level |
斯堪的纳维亚风格 | Scandinavian |
儿童房 | nursery |
装饰墙 | accent wall |
编织 | knit |
木制 | wood |
毛绒玩具 | plush toys |
奇特的装饰 | whimsical decor |
有趣的图案 | fun patterns |
柔和色调 | pastels |
鲜艳的装饰 | bright accents |
宜家 | IKEA |
柔和 | soft |
温暖的灯光 | warm lighting |
深圳 | Shenzhen |
下午 | afternoon |
快乐 | joyful |
孩子气 | childlike |
现代 | modern |
4K | 4K |
在实际操作中,大家可以按照自己想要的画面去组合提示词,越靠前的词,权重就越大。 比如,下面这幅图是我使用了14种元素(构图、拍摄角度、风格、房间类型、焦点、纹路、细节、调色板、品牌、照明、地点、时间、氛围、建筑风格)组合起来的画面,是不是很精美? 提示词:有趣的,正视角,斯堪的纳维亚风格,儿童房,装饰墙,编织,木制,毛绒玩具,奇特的装饰,有趣的图案,柔和色调,鲜艳的装饰,宜家,柔和,温暖的灯光,深圳,下午,快乐,孩子气,现代,4K /imagine prompt:playful,eye-level,Scandinavian,nursery,accent wall,knit,wood,plush toys,whimsical decor,fun patterns,pastels,bright accents,IKEA,soft,warm lighting,Shenzhen,afternoon,joyful,childlike,modern,4K--ar 16:9--v 5
主题 | 详情 |
---|---|
结构 | |
图像提示词 | 在提示词前添加图像网址来影响图像的样式和内容。 |
文本提示词 | 添加描述图像的文本,助于生成意想不到的图像。 |
参数 | 影响图像生成方式的因素,放在提示词的结尾处。 |
长度 | |
提示词简短 | 单词或表情符号可以生成图像,简短的提示词依赖于默认风格。 |
提示词描述 | 使用具描述性的提示词得到独特效果,但注意不是越多越好。 |
语法 | |
语法理解 | Midjourney Bot不理解人类的语法、句子或单词,所以选择合适的提示词很重要。 |
同义词选择 | 使用更具体的同义词可能会得到更好的效果。如使用“巨大的”代替“大”。 |
组织语言 | 可用逗号、括号和连字符组织语言,但Bot可能不完全理解。 |
高级提示词可以包括一个或多个图像提示词、一个或多个文本提示词和一个或多个参数。
提示词可以非常简单。单个单词甚至连表情符号都可以生成一张图像。非常简短的提示词将严重依赖Midjourney Bot的默认风格,因此,使用更加具有描述性的提示词可以得到更加独特的效果。但是,提示词并不是越多越好,请将注意力集中在你想要创建的图的描述上。
Midjourney Bot不像人类那样理解语法、句子或单词,所以提示词的选择很重要。在许多情况下,使用更具体的同义词,生成的效果会更好。比如,用“巨大的”“庞大的”“极大的”来代替“大”。还可以使用逗号、括号和连字符等帮你组织语言,不过,Midjourney Bot可能无法准确理解它们。
功能/模型 | 描述与用法 |
---|---|
动漫模型切换 | 通过在Bot中键入“/settings”选择“Niji version 4”或“Niji version 5”切换至Niji 4或Niji 5模型。 |
Niji 4 | 使用--niji 4启用,偏向动漫风格。 |
Niji 5 | 使用--niji 5启用,偏向写实动漫风格。 |
Niji 5 (expressive风格) | 使用--niji 5--style expressive启用,更写实,偏游戏原画风格。 |
Niji 5 (cute风格) | 使用--niji 5--style cute启用,偏动画风格且更显可爱。 |
Niji 5 (scenic风格) | 使用--niji 5--style scenic启用,常用于风景画。 |
Testp模型 | 使用--testp启用,适合摄影类作品。 示例:“可爱的猫”对应于/imagine prompt:cute cat--testp |
宽高比设定 | 使用--aspect或--ar设定图像的宽高比。可以使用例如9:16的比值来设计图像或获得图像的实际宽高。 |
动漫模型(Niji 4和Niji 5) 你可以通过在Bot中键入“/settings”来切换你想要的模型,选择“Niji version 4”或者“Niji version 5”来启用Niji 4或者Niji 5。
使用--niji 4来启用Niji 4,这个模型偏动漫风格。
使用--niji 5来启用Niji 5,这个模型偏写实动漫风格。
使用--niji 5--style expressive来启用Niji 5。这种风格更加写实,偏游戏原画风格。
使用--niji 5--style cute来启用Niji 5。这种风格更显可爱,偏动画风格。
使用--niji 5--style scenic来启用Niji 5。这种风格多用于风景画。
使用--testp来启用Testp。这个模型适合摄影类作品。 提示词:可爱的猫 /imagine prompt:cute cat--testp
使用--aspect或--ar来设定宽高比,也就是尺寸比值,如下图所示。
我们可以使用9:16的宽高比来设计一个图像,或者使用它们获得图像真正的宽和高。
提示词:可爱的猫 /imagine prompt:cute cat--ar 16:9--v 4
使用--chaos或--c来指定混沌度,表示生成图的变化多样性,取值范围为0~100,默认值为0。值越小,生成图的稳定性越高;值越大,生成图的变化多样性越强,就越有可能出乎意料。
使用--no可以让模型尽量避免在图中生成对应的元素。
提示词:可爱的猫 /imagine prompt:cute cat--no yellow--v 5
提到--no,就不得不讲到::符号,这个符号表示提示词权重。--no<prompt word>还可以用::-.5来表示,它们的生成效果是一样的。 具体来讲,::这个符号既可以跟在一个提示词后面(不能有空格)用来告诉Midjourney Bot进行分词,还可以增加一个数字表示这个提示词的权重,默认值为1。不过,这个权重值是归一化处理的,比如,hot::1 dog、hot:: dog::1、hot::2 dog::2、hot::100 dog::100效果是一样的,即hot和dog都是分词且权重一样;又比如,cup::2 cake::、cup::4 cake::2、cup::100 cake::50效果是一样的,即cup和cake都是分词,但cup的权重更大。
渲染质量(Quality) 使用--quality或--q设置渲染图像的参数,以得到更高质量的生成图。默认值为1,取值范围为<.25,.5,1,2>(.25和.5分别是0.25和0.5)。数值越大,渲染成本越高,图的质量可能就越好;反之亦然。需要注意的是,这个参数并不影响分辨率,它改变的是图像的细节。
风格(Style) Midjourney V4中有三种风格略有差异的模型:4a、4b、4c(默认),可以通过--style来指定风格。
提示词:可爱的猫 /imagine prompt:cute cat--v 4--style 4a
Midjourney所训练的绘画模型有它所偏爱的艺术色彩和创作形式,我们可以通过--stylize或--s来设定其艺术偏向性的程度。几种不同版本模型Stylize的默认值和取值范围,如下图所示。
Stylize值越低,生成图的艺术偏向性越低,与提示词的关联度就越高;Stylize值越高,生成图的艺术偏向性越高,与提示词的关联度就越低。
使用--tile可以生成重复图块的图像,比如织物、壁纸和纹理的无缝图案。 下面是用提示词生成的贴片图经过多片拼接得到的图。可以看到,多个贴片拼接在一起时,花纹确实是无缝衔接的。 提示词:彩色猫条纹 /imagine prompt:colorful cat stripes--test--tile
在使用Test和Testp版本模型时,可以用--creative使生成图更具变化性和创造性。
提示词:可爱的猫 /imagine prompt:cute cat--test 提示词:可爱的猫 /imagine prompt:cute cat--test--creative
使用/blend可以快速上传2~5张图像,分析每张图像的美学理念,并将它们融合成一张新的图像。 /blend最多可以使用5张图像。如果在提示词中要使用5张以上的图像,请使用/imagine命令和图像提示词。 /blend与文本提示词不兼容。如果需要同时使用图像提示词和文本提示词,请使用/imagine命令和图像提示词。 使用/blend后,系统将提示我们要上传2张图像。当使用移动设备时,可拖放图像或从图库中添加图像。若要添加更多图像,请选择“选项”字段并选择“image3”“image4”“image5”,如下图所示。
/blend命令可能比其他命令的启动时间要长,因为在Midjourney Bot处理我们的请求之前,我们必须先上传图像。 混合图像默认使用1:1长宽比,但我们可以使用“dimensions”字段在正方形长宽比(1:1)、竖向长宽比(2:3)或横向长宽比(3:2)之间进行选择。 自定义后缀会被添加到/blend提示词的末尾,就像其他/imagine提示词一样。作为/blend命令的一部分,指定的长宽比会覆盖自定义后缀中的长宽比。 需要注意的是,为了获得最佳效果,我们要上传与自己期望结果相同比例的图像。
图像权重(Image Weight) V5版本模型的默认值为--iw 0.5,取值范围为0.5~2。当这个参数的值较大时,表明图像对于当前绘制新图的任务权重较高;反之亦然。
提示词:原图链接 可爱的猫 /imagine prompt:https://s.mj.run/kMDsfF-N5OI cute cat--iw 0.5--v 5
提示词:原图链接 可爱的猫 /imagine prompt:https://s.mj.run/kMDsfF-N5OI cute cat--iw 1--v 5
提示词:原图链接 可爱的猫 /imagine prompt:https://s.mj.run/kMDsfF-N5OI cute cat--iw 1.5--v 5
提示词:原图链接 可爱的猫 /imagine prompt:https://s.mj.run/kMDsfF-N5OI cute cat--iw 2--v 5
功能/命令 | 描述 | 示例/用法 |
---|---|---|
/prefer remix | 打开或关闭合成模式,允许在每次变化中修改提示词。 | /prefer remix |
/describe | 上传图像,获得4个描述该图像的文本提示词。 | /describe(后跟图片上传) |
--video | 保存初始网格生成任务的过程为视频。V4和V5版本模型不支持此功能。 | /imagine prompt:cat--video--v 3 |
上采样(Upscale) | 从低分辨率图像选项的网格中选择一个图像进行高分辨率渲染。 | 选择网格图像中的一个进行上采样 |
--uplight | 使用Light上采样器在原图的基础上适量增加细节。 | /imagine prompt:cat--uplight |
--upbeta | 使用Beta上采样器不增加太多额外的细节。 | /imagine prompt:cat--upbeta |
--upanime | 使用动漫上采样器,优化插图和漫画风格。 | /imagine prompt:cat--upanime |
--chaos / --c | 指定生成图像的随机性水平。范围: 0-100。默认值: 0。 | /imagine prompt:cute cat--c 50 |
--no | 模型将避免在图像中生成指定的元素。 | /imagine prompt:cute cat--no yellow |
:: | 表示提示词权重的符号。 | hot::1 dog, cup::2 cake:: |
--quality / --q | 设置图像的渲染质量。不影响分辨率,只影响细节。可选值: .25, .5, 1, 2。默认值: 1。 | /imagine prompt:cute cat--q 2 |
--style | 从Midjourney V4模型中选择一种风格。可选: 4a, 4b, 4c(默认)。 | /imagine prompt:cute cat--style 4a |
--stylize / --s | 设置生成图像的艺术偏见程度。 | /imagine prompt:cute cat--s high |
--tile | 生成适用于纹理、织物、墙纸的重复图案。 | /imagine prompt:colorful cat stripes--tile |
--test | 与Test和Testp模型版本一起使用。 | /imagine prompt:cute cat--test |
--creative | 使生成的图像更加多变和创造性。 | /imagine prompt:cute cat--test--creative |
/blend | 合并2-5张图像,分析它们的美学,并创建一张新图像。与文本提示不兼容。 | /blend(后跟图片上传) |
在Midjourney中可以使用/prefer remix打开或关闭合成模式。在合成模式下,网格图的V1、V2、V3、V4、V5按钮动作会受到影响,它允许我们在每次变化中修改我们的提示词。对于上采样的图,要使用合成功能,可以点击“Make Variations”按钮。
使用/describe命令并上传图像,即可获得4个描述该图像的文本提示词;然后点击下方的按钮,生成每个对应的图像。
使用--video可以让Midjourney将初始网格生产任务的过程保存为一段视频。不过,V4和V5版本模型不能生成过程视频。 下面是使用提示词生成图像的过程的视频示例。 提示词:猫 /imagine prompt:cat--video--v 3
要想获得这个视频,我们需要通过信封表情符号()给该任务发送一条互动消息,Midjourney Bot会在给我们回复的消息中附上视频地址。
使用Midjourney生成图像时,Midjourney通常会先生成一个低分辨率图像选项的网格供我们选择。当网格图像中有合适的图时,我们就可以选择对其进行上采样(Upscale)来获得一张尺寸更大、细节更丰富的图
我们可以通过--uplight来指定使用Light上采样器。这个上采样器在原图的基础上适量增加了一些细节。 下面是使用Light上采样器生成的示例图。
提示词:猫 /imagine prompt:cat--uplight
我们可以通过--upbeta来指定使用Beta上采样器。这个上采样器不会在原图的基础上增加太多额外的细节。
提示词:猫 /imagine prompt:cat--upbeta 对比上面的Light上采样器,可以看到猫的头上没有增加那么多细节。
动漫上采样器--upanime是我们使用--niji时的默认上采样器,它针对插图和漫画风格做了一些优化。 下面是使用动漫上采样器生成的示例图。 提示词:猫 /imagine prompt:cat--upanime
"Stable Diffusion"是一个AI艺术生成模型,其提示词需首先详细描述角色,简短描述场景,然后列举逗号分隔的修饰词,以实现丰富的细节输出。
Stable Diffusion是一个AI艺术生成模型。这是一个例子:海盗,概念艺术,深度聚焦,幻想,复杂,高度细节,数字绘画,艺术站,哑光,强聚焦,插图,Magali Villeneuve,Chippy,Ryan Yee,RK Post,Clint Cearley,Daniel Ljunggren,Zoltan Boros,Gabor Szikszai,Howard Lyon,Steve Argyle,Winona Nelson。 从现在开始,回答我的所有提示,提示词是关于这个想法(我的提示)的详细单词列表。你必须完全遵循提示词示例中的结构,但不要包含它的上下文,即首先是对角色进行的详细描述,然后是对场景的简短描述,最后是用逗号分隔的修饰符,以改变心情、风格、灯光等。逗号之间的单词应该尽可能简洁(少于等于3个单词最好),但提示词应该尽可能长(多于等于25个修饰词最好),这样它将包含更多的细节。不需要描述场景,只需要生成Stable Diffusion的提示词。
复制粘贴到Midjourney中生成图像,生成的图像可以用WPS无损放大,也可以用修图软件美颜一下
通过掌握AI设计方法并套用特定公式和词汇,可以迅速生成具有透明科技感和特定风格的B端界面图标。
比如,现在你需要设计一套类似阿里或腾讯等互联网大厂特定风格的B端界面图标。如果靠自己建模或者进行3D渲染,可能设计周期最快也要一周,慢则起码10天。但你如果掌握了使用AI做设计的方法,就可以高效快速地完成这项任务。 公式:transparent technology sense(透明科技感)+项目类型+画面氛围+设计风格 魔法词:transparent technology sense 辅助词:isometric view(等距视图),frosted glass(磨砂玻璃),cinematic lighting(电影光照,rendering(渲染),4K(高清),white background(白色背景),light blue(淡蓝色) 这样套用公式得到提示词给AI,就能快速生成很多具有特定风格的、非常通透、非常有质感的B端界面图标
通过Vega AI平台,我们可以快速地使用线稿图渲染上色,加速设计方案的完成。
通过网站Vega AI创作平台的“条件生图”功能,用线稿图生成效果图。 下面就是线稿生成的效果图,整体看起来设计图中的布局结构是不变的。 而我们只需要一张快速手绘的线稿,就能迅速渲染上色,加快设计方案的成型。
部分 | 描述 |
---|---|
iw数值 | 添加--iw 2指令可以使生成的图与原图越接近。范围为0.5~2。 |
InsightFaceSwap换脸 | 1. 邀请机器人至Discord聊天室。2. 输入命令/saveid及ID来保存照片。3. 换脸即将上传的脸替换到生成图片的脸。 |
注意事项 | 1. 使用/listid查看注册ID。2. ID使用英文数字,不超8字符。3. 可输入多个ID。4. 可覆盖旧ID照片。5. 照片应清晰、正脸、无遮挡。6. 避免上传戴眼镜或过度美颜照片。7. 每日50次命令限制。8. 生成效果不定。9. 仅限个人用途。 |
iw数值:基本描述语句后边可以添加指令iw,格式是:--iw 2,取值范围是0.5~2,数值越大,生成的图和原图越接近。
未来的婚纱摄影将利用AI技术在室内拍摄后生成多种场景和风格的照片,提高效率、减少成本并增强艺术性。
未来的婚纱摄影领域将会发生巨大的改变。新技术可以让婚纱摄影更加轻松和简单,只需要在室内拍摄一些照片。这样,新婚夫妇可以放松自己,享受拍摄的过程,而不必担心天气和环境的影响。在拍摄后,将照片训练成lora模型,在Stable Diffusion中生成不同场景的婚纱照。这是一种基于AI技术的创新方式,可以根据新婚夫妇的喜好和需求,生成多种不同的风格和场景的婚纱照。这种技术可以使摄影更加轻松自然,同时也可以增强照片的艺术性和美感。生成过程比传统的拍摄加后期制作要快得多,减少了成本和时间。