
2023 年,那是开源绘画真正点燃的第一年。
一臻也是那时,就迷上了LiblibAI,当时还写了一篇关于LiblibAI的使用小结:

一晃2年过去,无数图像创作者在开源生态里汇聚、分享、碰撞、彼此启发,AI创作正在经历一场静默的猛涨期。
当大多数人还在讨论哪个模型更强时,LiblibAI 2.0已经悄然完成了从工具集合到创作生态的升级:

LiblibAI 2.0的出现恰逢其时,敏锐地捕捉到了创作者的核心痛点——不是缺乏工具,而是工具太多;不是技术不够先进,而是技术难以转化为生产力。
平台将图像生成、视频制作、特效处理、工作流管理等模块深度整合,真就构建了一个真正意义上的AI创作工作室。

案例 01 - ControlNet
ControlNet是一种神经网络概念,就是通过额外的输入来控制预训练的大模型。SD中的ControlNet插件可以通过模型精准的控制图像生成,比如:上传线稿让AI控制人物的动作姿态、边缘检测、柔和边缘和涂鸦乱画等等。
如下是一个涂鸦乱画的示例(首先需要上传一张ControlNet参考图):

提示词:
一辆中国红的大巴车漂浮在天空中,可以看到大巴车的完整外观。
案例 02 一键同款
在首页中,选择感兴趣的图,进入后点击【加入模型库】,然后鼠标移动到模型的【生成信息】,复制其中的正向提示词、反向提示词以及采样方式到【在线生图】页面中即可。

如果发变形有崩掉的情况,则需要调大生成图片的的宽度和高度。
因为每张图片都有尺寸大小,尺寸不够且需要的元素太多就容易挤在一起导致图片崩坏。
案例 03 图片生成
首页左侧栏中,选择 创作 - 图片生成,然后输入如下提示词:
请帮我生成一张两人站在高楼大厦顶楼对峙的图,左边是马斯克,右边是钢铁侠,高质量,中远景视角
效果如下:

案例 04 视频生成
图片生成后,可以直接在图片上点击【图生视频】,输入如下提示词:
两人突然使用中国功夫,迅猛直拳,飞踢连击,快速闪避,贴身擒拿,回旋肘击,弹腿快攻,激烈紧张,武术高手般的暴力打斗场面,动作非常快速,打出幻影,打出能量冲击波与音爆,伴随炫目能量光效和动态模糊,打到飞起。
效果如下:
.....
玩法太多了!
并且官方还提供了齐全的操作手册:https://liblibai.feishu.cn/wiki/QW3VwEyieiNnp4kfyXfch5bfnvh
未来,类似的整合平台可能会越来越多。但LiblibAI 2.0的先发优势和社区积累,为其构建了相当的护城河。
创作本就该如此简单,灵感本就该如此自由。当技术真正服务于创意时,每一个人都可能成为艺术家。
这,或许就是AI创作最美好的未来