00:00
好,各位好啊,我是腾讯云函数的产品经理,然后也是目前这个service stable应用的策划人,嗯,今天的话我想花大概半个小时的时间邀请在座的同学我们一起来快速的生成几张美图啊,来放松一下之前连续几个小时听讲座的一个呃,高密度输入的紧紧张的神经啊,我们在这个报名的链接里面,当时有邀请大家去写入自己的uin,然后我们目前收收集上来的一部分啊,但是并不是每个同学都有写,所以说如果有更多同学在当时报名的那个表格里面没有写入u in,呃,但是现在又想拿出电脑和我们一起参与这个环节的话,可以现在把那个u in输入到群里的共享表格里面,然后我们现场给大家开白,目前的话,这个应用是开白给大家使用的,我们大概等大。
01:00
大家两分钟的时间。对,大家可以看一下群公告,我刚刚在群里面发了,就是如果就是在报名的时候没有填写你的u in,那现在在群里面那个共享文档再填写输入一下是腾讯云账号的u in。然后刚刚有小伙伴是在签到的时候,是说有一个小纸条,对不对,那个小纸条其实就是我们为了给今天大家体验的时候申请的那个代金券,那个知道怎么兑换吗?你扔了吗。对对对,兑换了之后应该在你们的账户里面。然后没有的话呢,没有领到的话,我这里还剩余有一些需要的话,对请发放一下,因为每个人只能领一张,所以你多领也没有用的。如果今天就是现在,现在那个林杰会给大家开通一下白名单,如果确实怎么样都没有开通成功的话,也不用担心,我们后面等活动结束之后,他还会继续给大家去操作,到时候有问题大家可以在我们的群里面反馈。
02:12
可以那边也分发一下。对。刚刚我们的一周老师回答的问题是哪哪三位同学提问的呀?刚刚在群里接龙,举一下手。嗯,这两位还有谁。那后面那一位是吧,好那个麻烦工作人员给一下那个礼品。
03:02
诶,刚刚刚刚刚刚提问,提问的那才有总共三个,就不要冒领了,刚刚这边就是一中老师回答问题的那提问的那三个同学。给了是吧,后面还有个这个这个这个。对,这里。黑色。他们吧。嗯,好的,那我看大家也都填写的差不多了,那么我们就准备啊开始然大家不用担心了,如果说你现在填了表格,但是因为我们没有来得及给你加白的话,呃,您可以先呃跟着我们的演示看一遍,然后回家以后呢,这个白银不单还是会给您生效的,然后您可以线下去用我们的代金券啊,去体验这个产品。
04:01
好。那么呃,各位可以现在拿出电脑,我会给大家一些简单的步骤的指引啊,大家可以跟我一起来做。
05:02
好,那么设备老师投下屏,我们就现在开始好,然后我我现在在群里给大家发了一个链接啊,大家可以直接点击群中的链接,或者说呃,直接进到我们腾讯云的控制台去搜索service应用,呃,然后进到service应用这个页面。啊,我看现场大部分同学啊,用手机操作是吧。啊,没事,我们的这个外部UI呢啊,也是支持移动端访问的,大家可以先看我演示,正好这个今天时间比较紧张,我就尽快的啊,加快我的速度,好,我们现在开始去创建一个应用啊,可以看到其实非常简单啊,我们帮我们的所有的开发者,使用者呃,做好了所有的环境准备,包括说在创建完成之后,我们会为我们的开发者和使用者去准备好所有的资源啊这个整个过程呢,其实大家需要需要去介入,去输入,去自定义的,就是有几个字段,一个是我这个应用要叫什么名字,另外一个是我这个应用想部署在哪,好比如说我现在随便输入一个哈。
06:12
我们今天会用到nova AI的这个二次元的模型,然后相信现场很多肯定有很多朋友比较熟悉了。诶,我们去输入了应用的名字,然后选择一个地域啊,我们选择这个预装的模型,选到nova AI。啊,我们点击完成。好,他会花大概两到三分钟的时间来部署,那么趁这两到三分钟的时间,我想再跟大家简单介绍一下我们为什为什么要做这个事情,以及说我们现在做这个形态大概是一个怎样的一个产品函数呢?在过去很多年我们一直在探索AI的方向,然后呢,我们也呃在线上支持了特别多的框架,如果大家用过我们的函数产品,会发现在Python3.0这个runtime中,我们帮大家把整个t flow给包进去了。
07:03
所以说呃,我们在过去做了很多很多的尝试,呃,但是一直没有等来一个很好的契机,什么契机,当今这个大模型突然爆发,全民每一个个人开发者都拿到了这个AIGC时代入场券的这么一个。时代这样一个时期终于到来了。我们AI的。从事的门槛,或者说从事AI使用的门槛被降到了一个历史的新低,那么这个时候我们很多云函数的用户,他也可以开始在函数的平台上快速的五分钟搭建一个AI的应用,搭建一个AI的推理,推理的这个模型服务。所以说我们我们在观察到了现在市场的整个大的趋势,包括说我们每个开发者他现在的一个诉求之后,呃,我们做了很多很多的改变,比如说我们支持了非常多的GPU的资源的这个卡型和规格,呃,大家可能自己在家里用3060。2060这样的卡去跑SD,或者说去跑一些比较小的,呃,语言模型可以跑,但是肯定体验不好,如果是跑SD的话,可能输输出一张1024以上的图,显存就爆了啊,为了解决说大家能够更好的去拿到这个时代的入场券,去成为这个时代的一个参与者,呃,浪潮上的弄潮儿的一份子,我们是为大家提供了很多工业级的卡卡型啊,我们目前平台上提供到的最低级的卡是T4的卡,呃,Tesla t4这张卡的显存是16G。
08:30
然后呢,呃,主流的用在生产环境的卡,一般是会给到A10这样的规格。当然大家如果有像A100V100这样的需求啊,可以直接和我们对接,我们也可以去给给到这样的一个提供。好,那么呃,同时呢,我们也观察到,其实现在整个sda社区非常活跃,然后不仅有我们的个人开发者,也有非常多的我们的设计师,还有我们的这个创作者朋友们,然后他们可能没有非常强的一个技术的一个背景啊,然后包括说现在社区非常火的,包括如果现场有SD的玩家,可能在初学者阶段都会去接触到的,呃B站的秋叶大佬对吧?呃猴菩萨给我们做的一个整合包啊,所以说呃整个社区其实都在寻求一种比较轻量的,简便的高效的一种SD服务的部署方案,那么最传统的单呃单点服务的部署方式就是可能我去下个整合包把把它跑起来,那么函数在这边帮大家做了什么事情呢?我们把呃,所有SD需要的环境依赖给打包到了云上的环境中,大家只要像我刚刚一样点几个。
09:37
呃,按键输入几个关键词都可以快速的去搭建好一个可以在任何地方访问的SD的服务,那么同时我们有什么不同呢?刚刚有同学问到啊,我们这个,呃,其实插件的维护。是个很痛苦的过程,是个很很痛苦的问题,我今天装了一个插件,我明天update一下,这个插件崩了,他和我的这个web的版本不兼容,或者说我我就我就没有技术背景,我不知道怎么去把SD做服务跑起来,跑起来遇到了各种各样的报错,我不知道怎么解决,而这种种种的SD的运维的问题,其实都是service的这个平台可以帮大家去解决的,呃,这也是我们s service的一个核心的价值,它是个免运维的一个服务,大家不需要去考虑底层资源,底层的运行环境,平台会帮大家解决。那么其次呢,我们最大的不同和如果大家本地去跑,或者说去买一台虚拟机,买一台GPU服务器去运行SD的最大不同在于我们是按时长计费的,而且是按照实际的跑图的时长计费。
10:38
再者,我们底层采用了腾讯Taco的推理加速框架,所以说同样生成一张图,同样用同一个规格的卡,我们的速度会比您本地的机器,您去其他云厂商买的机器去跑,会快上40%~50%的这个样子,呃,又因为我们是按时长去计费的,那么您的成本在这个场景下被更大的限度的一个降,被更大限度的降低了,大家记得说这里的按量。
11:06
按时长计费性感的地方在哪呢?我们平时申图的时候,会涉及大量的一个调参输入pro的一个过程,这个过程在我们平台上是不会计费的。啊,那么同时针对我们的企业客户啊,呃,他也会去把sa服务提供给特别多的外部的用户,C端的用户,或者说内部的公司内部的这个设计者啊去使用,呃,那么这个时候,呃,如果说是面向C端的服务场景去对外提供C端的服务,一个非常难解决的问题,在单点服务下没法解决问题,就是业务上量的问题,呃突然618来个活动啊,我要上一个异次元的,我这样一个运营运营活动啊,我我要怎么支持这一波流量呢?我我去哪找这么多GP的资源呢?我就算找到了啊,我现在一下子去买一张卡,我成本承担不起啊,那么service的服务就可以很好解决这个问题,呃,我们会实际的去贴合真实的业务流量,去给大家去对GPU的资源做一个弹性的扩缩容,当您的业务来了一百一百个并发,我们就扩100张卡去支持你你现在的流量,并且呢,我们能够保证说。
12:11
您的卡是一定能够扩出来,一定能够被供应上的,我们能够从呃,我们能够从多个地域,多个可用区给大家去。呃,调度GPU的资源,那么最后呢,我们也发现说web UI可能对设计者,对个人开发者,对于我们,呃,普通创作者来说很好用,他是一个呃。可近似于,可以取取近似于的一种生产工具,但是真正对于一些大企业用户来说,呃,他们可能会希望说我,呃,你你厂商能够给我一个稳定的推理的API,我把它集成到自己的软件里面去啊,比如说假如我是清颜相机啊,假如我是美图秀秀,呃,这个自己的同学也在现场,对吧?这个清颜如果可以用的话,可以找我们聊聊,清颜相机,美图秀秀那会有这个纹,这个纹身图的场景,图身图的场景他们需要去,呃有一个服务商给他提供一个API,我们这能提供这样的API,并且这个API呢,不用管运维,不用管背后实际绑定了多少资源,只管接入,接入之后我们会根据你实际的业务流量去做一个非常迅速的计时,相应的扩缩容。
13:17
好,那么呃,马上会给大家演示呢,就是这样一个呃,Sta web UI的一个界面,大家肯定如果用过的话会比较熟悉,我们是和社区同步的,虽然我们底层做了一些小的修改啊,并且的话我们也目前哈支持了线上支持了一些预装的模型,包括nova AI和SD,然后我们也也帮大家装了一些插件,像这个均部和control net,我们也在正在开发,呃,紧锣密鼓的通宵达旦的开发去支持大家把自己本地的模型上传到我们的云平台上,呃,我们的体验和其他的类似的解决方案都不都会不太一样,到时候大家只需要把自己本地的模型上传到cos统即可,甚至于我们也会帮大家准备一些大家常用的模型啊,准备到我们的一些呃,CDN节点上,大家直接去呃,通过控制台点击的方式,就可以快速的把它下载到自己的cos统里面去,不用自己本地的去下载以后再传上来。
14:12
好,那么这是我们刚刚讲到的一个计费模式啊,就可以看到说,如果你在页面上去写提示词,配配参数,这个过程不会收取任何的费用,你在图库浏览器里面浏览图片,这个过程也不会收取任何费用。好,那么我们的这个创建流程差不多是应该完成了啊,然后我们给大家简单的看一下创建出来是怎么样子,我们会给到大家一个链接,大家点进这个链接其实就可以呃看到这样一个页面。我给大家放大一点。好,那么呃,大家可以看到,可以看到其实整个布局也比较简单,上方呢是提示词,我们希望这个图片生成的内容包含什么元素,下方是互相提示,提示词,我们希望这张生成的图片不要包含哪些内容,那么我提前为了加快速度啊,我准备了一些pro词啊,然后带大家快速的来看一下生成的效果。
15:04
大家稍等啊。比如说啊,我们想生成一张。我找一个,嗯。找哪一个呢?找这个吧,我们生成一张美少女。啊,我们直接把正向提示指数在这里,像这里的话,他们会他会描述图像的这个质量啊,它必须是极度的精细的啊,最好的质量,后面呢,会描述这个女孩,她可能会包含了一些身上的一些元素,比如说她应该是一个白色长发,她有蓝色的眼睛啊,她有这个,呃呃,这这这有有有有一个刘海在他的这个两眼之间啊,包括说他穿的是水手服啊,类似这样,然后呢,我们也可以规定他的一个姿态,比如说他必须站着的,我们输入一个standing即可啊,然后我们去输入一个负向提示词,负向提示词就非常简单啊,大家呃,基本上是一个人物生成的标准标准式啊,大家直接把这样的内容去输入到,呃。
16:05
负向提示词框中,比如说我们去去希望他不要有多出来的手指,不要有多出来的脚,类似于这样,因为我们会发现现在的这个纹身图模型在生成手和脚这些精细部位的呃时候,可能没有那么好的表现好,我们可以看一下最后。我们调一些简单的参数啊,然后可以看一下它具体生成出来是一个什么样的一个效果。初次生成大概会花费呃两到五秒钟的时间,把模型去加载到内存当中去,以及加加载到显存当中去,所以说初次初次的一个生成会耗费时间久一点,之后的话会快很多。好,那我们可以看到生成的是一个站立的少女啊,我们再换个采样方法,它这个效果不太好。啊,这个有多张角。
17:03
诶,这个不错啊,包括他的背景其实也很精细。那么我们也可以调整它的迭代步数,那么一般来说的话,我们这个steps越高,它的一个画面精细度也会越。越越高,但是如果说他在较早的这个step的时候就已经生成了错误的图像了,那么这个错误就会被呃继承下去,比如说可能会有更多的角,然后他把每一只脚都画的很清晰。对,好,那么大家其实能够get到这样这样一个过程啊,很简单,大家输入正向提示词,负向提示词,然后就可以帮助大家去生成这样的图片,那么很多时候大家也会问啊,我现在因为选的是512乘512的分辨率,我实际用在创作工作中,呃,可能要1024以上,我才能勉强用作生产,对吧?那怎么解决?当然可以直接去拉高这个宽度和高度,但是这样会非常显著的。呃,增加对GPU资源的占用,以及会大量的增加成本和生成的时间,我们有一种更优的解法是我们可以去选择高清修复,我们去用。呃,刚刚在一周同学PPT里面有提到了CU这种技术,我们去把一个图无损的去放到一个更大的一个分辨率下。
18:19
比如说我们去把它从512放大到1024。我们把步数稍微调低一些啊,这样可以稍微快一点。应该有同学之前已经加过我们的AI绘画群啊,然后有同学吐槽啊,我生成一张512乘512的图,五秒钟解决了,为什么我生成一张1024乘1024的图片,十分钟都没跑出来,嗯,是有这样的情况发生的,因为它其实整个分辨率提高了四倍,那么可以看到说画面精晰度其实是提升了的,然后如果去把放大也会发现说他其实呃,分辨率达到了1024的一个效果,呃,但实际上我们在生成这个图片的过程呢,是我们先生成了一张512乘512的图片,然后我们用这个拉伸算法把它拉到了1024乘1024。
19:30
这张图嗯,大家就不要传播了啊,自己看看就行。好好,那么其实看过了这个生成,呃,人物以后呢。我们也可以看一下他在生成场景上的表现,呃,其实现在SD或者说纹身图这些模型对场景生成有特别大的帮助,如果大家是做美术做动画,呃,不仅仅是做人物插画,可能做美术做插画有一些场景,呃,场场场景绘制的一些诉求,甚至于大家做材质,嗯,你想做一个箱子的材质包,你想做一个贴图,都可以用SD来辅助,辅助生成,我们现在来给到大家一个做场景的例子。
20:12
稍等啊。好,这这些图片都是我在网上找到的。呃,照片呢,然后一会的话会告诉大家这这种照片可以怎么去用,有一些奇巧印记啊。好,我们先,比如说我们生成一张什么图呢?我们生成一个,呃,有樱花。有河流,还有一个城堡的图片,大家可以先想象一下,然后我们去把下面的负面提示词,把人物相关的提示词其实都可以去掉了,我们就保留一些。稍等。啊,这个可以。我们就保留一些和场景相关的负面提示词,比如说像missing fingers啊这种其实可以去掉了,当然你放在这也没有没有太大问题。然后我们去看看,大家想想想三个元素,樱花、河流、城堡会绘制出一张怎样的图片,然后我们看看AI会给我们生成怎样的图片。
21:18
我们这次就不用高清修复了,我们快点。拉到40。好。是不是跟想象差不多,甚至于,甚至于说它的元素可能比大家想象的还会丰富一些,那如果说我们继续去。加深它的迭代步数,比如说我们拉到50以上,然后我们换一种更好的采样方法。它的效果会更好,比如说我们换这个。
22:08
好,可以看到其实页面的细节,特别是水流,水流的细节被补充的特别多,甚至于连光反的细节都呃有有给补充上,然后大家可以记住说用这个方法呢,在50步以上的表现是特别好的,他会呃非常呃非常细致的去描绘他能够描绘的每一个贴图细节。好,那么呃,刚刚也也有大家肯定看到了,说我自己准备的素材里面有很多外部的图片,那么我怎么去用呢?比如说我现在我们刚刚已经生成了一个有樱花的,有河流的,有城堡的一张图片,我们去把它和这张图片去结合一下,看看会发生怎样的一个效果,我们希望说这张图片中能有樱花的元素被加进来,那我们要怎么做呢?很简单啊,我们去。把它换成我们去打开control net这个这个工具,我们把刚刚这个图片上传上去。
23:08
好,然后呢,呃,因为这个为了保证大家使用体验,包括说整个服务的拉起速度,能启动速度,我们没有给大家去预计很多control net的模型,所以如果大家用过这个服务会发现我们我们其实没有给大家提供就是control net的模型,但是的话最新的control net给大家。支持了一个非常好的功能,叫reference only,它几乎可以替代Laura的作用,也就是说他可以去学习这张图片的风格,然后让某一张图片生成出来的图片的风格尽可能的去接近他。好,我们,呃,参数其实都可以,不用变太多,我们换到这个会快一点。我们可以看看说两张图片结合会碰撞出怎样的效果。哦,忘记点启用了,Sorry。
24:02
好,我们再点一次啊。可以看到说呃图片A的元素,这张图片的元素特别是很多,呃灯灯火的这个元素被很好的继承到了。呃,我们要生成的印花这张图片的效果当中,并且因为这张这张元素,呃,这张图片的元素和我们原先想生成的印花的元素,它的重叠的部分不是很多,所以说它会非常大程度上的丰富我们最后生成图片的一个细节,我们前面生成的城堡的图片不会有这么多的细节,包括说水中的一个,呃,这个这个水反啊,包括说天空的云的细节也看到,其实这更多的云的细节是由这个去我们去参考的reference这张,呃这个图片去提供到的,所以说如果说我们想要快速去丰富一个图片的细节,我们只要找找到两张符合自己呃想法,符合自己想要的元素的,包含自己想要元素的图片,我们用这个reference only,用control这个功能就可以快速的去融合两张图片里面所有的元素。
25:13
呃,这是一个非常棒的功能,我个人认为可以非常呃,非常大程度上的加快一些创作流程,包括其实很高兴的能够和大家去报告说我们腾讯内部我们的游戏团队,呃也现在目前在用SD的这样一种服务去加速自己的创作,无论是呃去给到自己的创作过程一些更多的灵感也好,还是直接辅助自己人物原型的产出也好,还是2D3D的这个人物例会的输出也好,都有用到目前三呃SD这样一个技术,今天时间有限,我没法去深入太多的细节,我只能够给大家一些简单的演示,呃然后最后的话,嗯,可以再给大家看一个小例子,就是说SD还可以做什么,我们演示过了纹身图,那么图身图可以做什么呢?假如说我们有一个喜欢的图片。
26:06
比如说嗯,我找一张。就这张吧。那时上不太好。算了,就这张版。好,比如说我们找一张图片,然后我想去做一些风格迁移,或者细节的一些重绘,这其实其实其实就是昨天我用no生成一张图,但是我觉得这个三无的没有表情的面孔不太好,我想输出一张笑脸怎么办啊,非常简单,我们去点到补重会,然后我们去把这张图。上传上去啊,我们去把整个里描一遍。可以不用描那么精细,但是可以把它把它呃,把他脸,用这个门板我们叫做门板的这样一种。把东西描一遍。好,然后呢,我们去输入提示词,我们希望在这个图脸上去生成什么样的内容呢。
27:00
我们希望说这个脸上能够生成一些。笑容。我希望他是个笑脸啊,然后的话,同时我们也加上这个常见的复用提示词,呃,负面提示词。好,然后我们同样的去在下面去设置一下我们的参数啊,我们可以把采样方法设置成一个。兼顾了表现和速度的一个方法,然后呢。嗯,迭代步数的话,20步也可以稍微多一点点。啊,或者我们有个更好的效果吧,为了预防不可控的事件发生。好。好,这样应该就可以了,包括。好,我们这里要选颈纹门板。然后我们生成一下看看。
28:02
好,变成了一张笑脸啊,包包括这个面部细节,我个人觉得还是挺不错的,呃确实也达到了我想要的效果,其实我只是在原来的这个提示词上,呃多增加了一个那life smile而而已。所以说呃用SDK非常快速的帮助大家去对已有的美术素材做一个批量化的生产,比如说呃其实现在创意行业最大的一个痛点是我的媒资哪里来啊,我的这个创意内容哪里来?呃用SDK非常快速的去把已有的属于自己。属于属于自己的那些那个媒资。快速的去做批量化的小小小小部分的变化,然后去生成越来越多和它近似百这个美资,比如说这个,假如这个少女是我们公司的一个IP,它就是我们公司的一个,比如说叫呃,小圆,OK,然后我我们希望批量生成小圆的更多的图片,我们可以给他换脸,包括我们也可以给他换衣服,如果说你有耐心,你把整个衣服都涂一遍,然后你去描述你想生成一张怎样的一个衣服,他就可以给你去生成。
29:05
你想要那些衣服,包括说他的这个腿部的一些细节啊,头发的颜色,头发的发饰,所以说嗯。SD他在很大程度上的去加速了我们美工,包括说创意行业的这个生产的。这样一种速度和效率。好,那么其实刚刚给大家演示的是呃呃创意工作者他会怎样的去用SD,那么对于一个公司来讲,对于一家美图这样的公司,或者说呃清研这样的公,这样的产品团队,他们怎么样去快速的呃。利用到SD的能力呢,我们其实给我们的企业客户提供了这样的公开的API。我们其实可以给大家演示一下,说我们是怎么去提供到的,也非常简单,我们的企业用户只需要在控制台上。去创建一个。
30:00
API服务即可,大家注意啊,这里所有的创建出来的,创建出来的资源和服务都是部署在用户自己的账号下的啊,所以说这个资源和数据平台是拿不到的,也就保证了客户的数据安全,呃,同时呃。同时我们平台其实。我们这么大一个云厂商,我们做了这么多年,我们沉淀了非常多的一些数据加密的算法,包括说这个抗,抗DDOS啊,抗d dob啊,各种各样的天,包括我们和天宇合作做了非常多的一些。防数据攻击的算法能够保证存在用户存在自己账号下的数据不会被他人窃取,那么这就可以很好的保证在实际上生产。的过程中,用户的数据隐私怎么保护的问题?好,我们可以创建一个API的服务,来看一下我们在这里应用类型,这里选SD的API。然后我们点创建,同样可能会需要两到三分钟,我们来给大家快速的来看一下说,呃,SD的API在这个场景下,它提供了怎样的能力。
31:11
首先它还是和所有的SD service的应用一样,它是按量付费,也就是说在这个场景下,只有你退申图的时候会收费,包括呃,假如你在早上,比如说你是个非常典型的C端的业务的波峰,波谷非常明显,呃,非非非常显著,差异非常显著的这样一个业务的话,早上你可能有100个QPS需要支持,中午可能没有QPS没有请求,到晚上五点以后,可能又有QPS需要支持,又又有业务流量涌上来,那么这个时候我们可以非常快速的去贴合用户,用户实际的业务流量去给你扩充那么多的GPU的资源。但是我们的用户在。编码的时候,或者说在自己去创建应用的时候,完全不需要管背后的这个扩容是怎么完成的,那么另外的话,呃,我们也底层现在加速,呃,支持了这个Taco k的腾讯自研的推理加速的这样一个框架已经整合到我们的应用当中去了,大家的话,呃,实际生产环境下去跑这个推理API会比自己去买服务器搭建要快很多。然另外的话,我们也也刚刚说过,我们正在做的事情,同样的在为外PI的事情,我为外PI做的事情,我们在也在为同步的为SD的A去做,我们会支持我们的企业客户,使用API的用户快速的去把自己的模型,或者说取常用的模型从我们的CDN里面下载,或者说从本地去上传到cos统里面去啊,这都都是我们现在在做的事情,好,那么呃,以免刚刚大家没有加过这个AI会话的交流群哈,大家可以其实可以现在再扫码加入一下,我也看到刚刚微信群里有小伙伴在问。
32:48
我们会不定时的去在群里跟大家分享我们所有的一些呃,SD场景下的思考啊,教程啊,包括如果我们看到内部的员工会写的一些比较好的,呃呃手把手的教程,我们脱敏后也会发给大家。
33:10
好,都扫完了吧。对,稍等。我们今天。我到场的人比较多啊,所以这个。前台的网络确实很慢。啊,没有关系,应该是我们的配额到上限了啊,我们目前呢,给每个账号只支持了两个应用的创建配额,也就是说每个账号其实只能创建两个应用,那如果超出了呢,就会。
34:07
呃,报错告诉你没法部署,因为你的配额到上限了,那么这里我切回我自己的账号给大家演示一下。嗯,这是个web UI,好,我给大家创建一个API。但是如果有带电脑或者说用手机其实也可以啊,自己在控制台上快速创建一个呃web UI,然后在手机上也可以去访问到那个web UI,去里面写提示词,包括看到生成图片的效果,和控制台上是没有任何差别的。
35:15
好,这里大概会花两到三分钟时间。好,我们把这个群的二维码还是放在这里啊,线上的小伙伴有加群的需求,可以继续扫这个码。加入进来,线下的小伙伴应该已经加入得差不多了。
36:05
好,我们看一下部署怎么样了啊,正在最后一步部署了。啊,大家继续加群,我们这个群呢,从上个月呃去。创建出来以后,到现在已经有了2000多个群,有有八个群了啊,所以说这个社区还是非常庞大的。大家有任何问题,我们的工程师,包括我本人都在群里可以呃,随时响应大家。
37:16
可能还有点时间啊,一般三分钟左右。啊,17分,现在是20分不到。大家稍等一下,可以自己在控制台创建一个应用出来看看。好,这边应该是执行成功了,我们马上就可以跳到那个详情页。
38:01
好,其实API的这个应用呢,给到大家的一个形态也和web特别类似,我们会给到大家一个API的地址,那大家呃,很多小伙伴在群里问我这个API怎么用啊?呃,其实给大家准备了一个简单的API文档,大家可以直接通过在这个地址后后缀后面直接加入DOS。呃,访问到一个。稍等。哦,我创建的是web UI。啊,没事。我们先拿这个来演示吧。No a I OK。
39:03
没事,我们可以再看回这个页面,因为那么这个页面的话,其实刚刚没有演示到,正好它是SD的模预装模型,呃,也就是大家熟悉的SD1.5的底模,呃,为什么会支持这个模型,其实它虽然通用性更强,但是它其实这个模型没有什么特点,大家如果试用一下也知道,包括也有很多同学在群里问啊,为什么这是一个底膜设出了那么多丰富的模型,因为其实在这个这个设置当中,还有很多小白,或者说第一次接触A绘画的同学,他们从来没有接触过S。这样一种形态,那么其实底膜是可以非常好的让大家快速去了解,说SD是诞生知识,或者说他最早。嗯。他,他可以至少怎样的程度,以及说,呃,通过和AI的对比,大家可以非常惊讶的发现说,哦,原来这个领域是。发展的可以这么快的,包括说通过对。
40:03
底膜做一些小小的修改,竟然可以拿得到像AI一样这么好,效果这么好的这样一个模型。呃,我们在平台上给到了大家一些简单的预制的prompt,大家如果现在在手机上创建出来的话,可以不用做任何更改,直接点击生成。我们给到大家的是一个赛博朋克风格的废土风。废土风格的一个。啊。一个壁纸吧。一样的,首次生成会多花五到十秒来加载模型。对,还是挺赛博朋克的,这其实是最早,最早SD刚开园的那会儿就已经推出了SD1.5的模型,大概是去年的九月份十月份左右,呃,去年的模型其实也已经有这么好的一个效果了,如果说呃,大家后续去开始玩SD,然后去社区里面找各种各样的模型,会发现其实他们那些模型都是从这个模型演变过去的,呃,然后的话,其实能够达到一个非常令人惊叹的一个效果。
41:13
我们再稍等一下。现场同学有在使用了吗?或者说对现在的SD。本身或者说对函数上的SD,对service SD有任何疑问的,可以趁这个时间我们简单的快速交流一下。好,这位同学。喂。喂,刚才其实我在群里提问了一下,就是那个刚才那个ta k我比较感兴趣,就对SD做加速嘛,有可能你们优化了一些排的一些东西,呃,现在能因为我我也了解了,阿里那边他可能说会发布一些版本,支持什么CNE的一些加速,这边的话现在是进展怎么样,我们我们都在做,其实您可以理解。
42:21
呃,我们这个tale k呢,它是一个通用框架,所有跑在。呃,拍上的我们都可以支持,所以跑在对就在我们可对,我想我想要一个文档,比如说我在腾讯上自己在service里面,或者是CVM上部署的那个SD的web UI,我怎么去对接这个ta去做加速,好好,呃,您可以直接去官网直接搜ta口,然后会搜到GPU服务器,他们有一篇文档,您直接在腾讯云官网去搜ta口tco应该就可以搜到相关的文档,然后会有非常详细的细节来帮助大家快速的去把ta k部署到自己的服务器下面,呃,当然这个部署在service环境下已经帮大家做好了,然后他K,我再补充一下我们自研的推理加速的框架呢,它和其他的基于。
43:17
减脂的、裁剪的、蒸馏的、量化的算法都不一样,我们其实是跟传统的LVM,或者说如果大家熟悉编译原理的话,跟编译加速是一样的,我们是用一个图的方式,一个graph的方式来做底层的算子的加速,所以说不会损失任何模型的精度和模型的效果。对,所以这一点大家可以放心,他不是一个裁剪的,或者说一个蒸馏的,一个量化的模型。好,这边应该是成功,呃,创建出来了,我们给大家演示一下API可能会怎么去用。我们在后面,在这个地址后面很简单的去加一个DOS。
44:01
就可以看到fastpi这样一个页面,其实跟社区很像啊,在这里的话可以看到所有的API的调用方式,以及说它的一些参数,包括如果大家想要去在线上。去快速的生成一个请求的体,或者说生成一条curl命令,点一下就会try out,我们把这里面的参数填写完整,点击executive啊,它就会给一个。Cur命令出来,你就可以直接在本地去请求了大家,呃,大家之后回家之后可以去这样尝试一下,包括除了这个维生图的API,大家可以看到有非常多丰富的API,无论是原生的,原生支持的纹身图,图生图,包括插件的API也会有,比如说呃,下面的。Control net的一系列API都会有,呃,所以说呃,现在可能大家。还没有给到大家一个能力,就是我们可以去把自己的control net模型啊,Laura模型啊,自己的VE啊,自己的自定义的SD的模型啊,上传到平台上来,这个链路目前还在做,但等我们做完以及在六月份发布之后,大家可以通过API的形式完成整个自定义模型的。
45:16
部署和服务化。我们只需要把自己的safe文件或者CKPT文件上传到我们的一个cos统里面。我们就可以在这个平台上快速完成一个算法模型的服务化和工程化,这在过去呢,是需要一个完整的工程团队来支持的,但是现在他和你可能只有一个鼠标的距离。好,那么我们来演示一下吧,这个同步接口呢,调用起来是一个什么样的效果?我复制一下这个啊,准备好了参数的。
46:00
啊,我在这里定义好了pro和negative promp,其实他所有的参数都不是必须的,但是promp和negative promp肯定要写。所以说只用写这两个参数其实都可以。好,我们直接post,请求一下看看。一样的初次请求,呃,需要花大概五到十秒钟去加载这个模型,呃,后续的请求非常多,我们给大家看一下它返回的内容是什么样的。嗯,其实返回的内容很简单,就是一个BASE64,呃,大家如果说把这个BASE64呃拿到以后。可以直接嵌入到自己的APP应用里面,或者说自己的系统里面去做展示,那这个还是非常非常方便的,包括下面也会给到大家一些。呃,大家的输入参数,就比如说当时输入进来的这个参数到底是。
47:04
啊,输入进来的pro是怎样的啊,包括说当时设置的一些参数都会反馈给大家,有了这个base以后,呃,就可以非常方便的完成生成图片的。呃,一个展示,包括说一个后续的存储啊,我们在六月底也会发布一个功能,就是所有生成图片会帮大家自动存储到一个cos统里面去,这可以完成一个什么事情呢?我们可以把同步的过程改成异步的过程,如果说我们希望我们成本有限,我们就希望我就只要一张GPU卡,但是我可能需要同时服务五到十个客户。怎么办呢?有方法的,我们可以让他们排队,我们在前面加一个卡夫卡的队列,那么等这十个客户进来的时候呢,我们去创新的支持,呃,同时异步的去把所有的输出的结果写入到cos统里面去,我们只需要定期的去轮询,或者说大家有更好更优雅的事件方式去看自己的这个目标图片有没有被输出,并且。
48:02
再把它返回给前面排队的用户,就实现了,呃,一个串行的,或者说一个呃。一一或或者说实现了一个把同步请求异步化,把在线请求近线化、离线化的整个过程。好,那么其实我今天给大家演示的内容就到这里为止了,然后这个呃,所有给大家发放的代金券呢,大家都可以都是可以说拿到场下再继续去使用的,包括说后续有任何问题,大家也可以在群里面随时和我们去交流,我们的工程师,包括我自己,我们的产品团队都会随时的去给到大家一个响应和呃回复啊,那么那么今天我的分享就到这里,谢谢大家。谢谢林杰精彩的分享,就现场有大家跟着一起做完的吗?哦,有问题,对对对,来。问答环节,对,我我我刚才在群里问了一下,就是那个绘画绘画这个模型啊,呃,很多人比如说你刚才说举个例子,不是画美少女吗?那如果很多人都画了这个之后,呃,然后会影响到后面在那个在画的这个人的,呃不在在使用的使用人的这个出来的图案的效果嘛,嗯,就说他他做做积累,有有这种位的这个过程吗。
49:26
嗯,您是想问的是,呃,可能我们能够生成的图片是有限个,您是这这样认为的是吗?对,就是这个图片它是有变化的嘛,积不积累以前你会以前的绘图的这个结果,嗯。他肯定是有限的,呃,这肯定是个有限空间,是毋毋庸置疑的,任何机器学习的这种任何生产算法的输出结果肯定都是个有限级,但只是这个有限级它巨大无比啊,就我们在SD里面的话,我们会有一个参数来控制实际生成图片它是什么样的。
50:00
呃,效果,它有个唯一的标识符叫CD。然后我们可以看到这个CD,它有多大呢?这个CD是可以非常大的,我们生成一张图片以后,都会返回一个CD,在下一次我们去做同样完全一样的参数的输入,并且把CD也做成完全一样以后,我们就会得出一张完全一样的图片,但是你可以看到这个C的数可是非常非常大的,并且呃,大家每一次请求的参数其实都是非常非常不一样的,但即使是在现在一个,我们现在还没有完整支持所有的功能,所有的插件。在一个非常。呃,生产环境下的一个,呃,创作者他会调的参数可能是成百上千个的,那么在这种情况下。两个创作者输入完全一样的参数的可能性是微乎其微的。那么即使他们生成了完全一样的,他们输入了完全一样的参数,他们生成的C的他他他们这个输入的C的这个值不一样。
51:01
他们也会得到完全不一样的图像,所以说其实您可以可以不用担心这个问题,就是呃。呃,这是一个。概率问题,呃,就就很有可能下一秒我们屋内所有的人都会被窒息,都会窒息而死,为什么?因为可能,呃,所有的空气分子都会运动到某一个小的角落里面去,我们所有人就窒心而死了,这,这是有概率的,但这个概率非常小。同样的,在机器学习领域,在图像图像生成领域,在内容生成领域,这个道理也一样行得通,他是个有限级,但是它会在某一次随机过程中得到一样结果的概率,小之又小,小之又少,小之又小。我第二个问题啊,那个现在对这个图像的生成呢,在法律法规这一块,比如说某一些图案有没有做过滤。呃,非常感谢您问了一个特别好的问题,就是特别是我们在国内去落地,呃,纹身图或者说所有A应用的时候,其实都是要考虑的问题,我们其实呃之前有试过去推第一方的,或者说我们之间的模型,但是遇到一个最大的问题,就是很多时候我们的模型没有党性。
52:15
啊,就是他没有政治意识,他不知道哪些该生成,哪些不该生成,所以说我们只能用一些前置的方法,或者后置的后验的算法去调节,包括说是控制哪些内容该输出,哪些内容不输出,一个非常简单的一个做法是,呃,我们可以对promp的词前置的输入了promp词进行控制,如果如果发现了高危的pro词,我们就把这个pro词剔除掉,保证它输出的这个图片不会有那样危险的倾向,呃,这是一个可以做的,但是这个做法可能我们目前没有集现在我们的应用里,但是我们实际线上的这个客户。肯定都都是这样做的,然后第二个后置的方法和服务就比较丰富了,呃,我包括说如果我们我们把图片输出到cos统里面去,我们的cos有一个功能叫数据万象,那么在数据万象里面就提供了一个内容审核的服务,可以对所有的呃生成的内容进行一些呃内容审核啊,包括说色情检测。
53:14
暴力检测,政治敏感检测啊,这些都是在腾讯云上沉淀了非常多年,非常成熟,包括我们内部在微信,在我们自己的业务上也试验了很多年,被验证非常有效的一些服务和算法,呃,在cos上也可以去用到,所以说如果说国内目前的业务想要去用SD这样一个服务来,呃,把这个场景快速去落地的话,其实可以联合腾讯云的多个服务和产品来用,可以用腾讯云的我们的应用来做内容的生成,并且用cos里面的数据万象,或者说安全团队提供天娱的这个平台来做内容的审核啊,这都是都是现在比较成熟了,我们正在输出的解决方案。
54:01
诶你,诶这里哦,好,这边这边左右边右边哦,看到了看到了你好,你好,诶李老师你好,我这边有三个问题就是。第一个问题就是,呃,我现在也用那个腾讯云那个服务器,就是也是T4的,然后是GMGGMT的那个那个CPU,然后是8G38核32G,然后我想问一下你,我看到四零明线也是用到T4,然后。他们的服务之间是不是也有用到你刚才所说的那个设理那个那个加速推理,那那种技术有没有用上,对其实腾讯的腾讯系的,呃,主要是对外提供的SARS的算法服务,无论是我们提供的,还是由云三的安全团队啊,AI团队提供的一些。OCR啊,各种各样传统的AF,其实我们都有集成,嗯,然后第二个问题就是我看到腾讯出了一个那个什么模型的一个加速的一个。
55:01
套件是吧,对对,好像是吧,好像群里有人说过是什么困源加插件,反正是对那些AI的模型进行一个加送,然后再放入到那个AI那个那个生成里面,然后就可以加速的模型,我不知道service里面可不可也会用到这种技术,我们之后会以插件的形式去支持到这个功能,就是您说的这个东西,它是叫Taco kit,它是Taco团队,GPU团队去开源提供给到大家的,呃,一个小的插件吧,相当于您可以认为它可以作为您流水线里面的某一个step,某一个agent去存在,您每一次生成出来一个新的模型以后您都可以用。Ta k去跑一遍推理加速,把这个模型去呃,做一次优化。然后之后的话,只要您保证在您的运行环境里面有Taco的框架。你就可以用用上您优化过的这个模型,这这个东西我们之后都会去。
56:03
产品化的包装到我们的整个流程里面去,最可能的一个产品形态呢,是我们用户在自己上传模型到cos桶里,或者上传到我们指定的目录的时候,我们就会让用,让我们的用户来选,你要不要去做这个推理的加速,要不要把这个模型做一次优化。呃,然然后第三个问题就是刚才我也看到你上面也说了,是之后会支持用户自己去上传那些模型到那个存cos里面,存储通里面,然后我想问就是它会会产生额外的费用,因为我看现在的COC存储桶,它是有存储容量的收费,然后有下载的一个收费,然后相当于如我下载一个150G的那个文件或者那个文件夹之类,它会产生差不多100多元的那个费用,如果它你把它整合到设备里面,它不会也存在这种这种费用的一个产生,嗯,是这样,就是您用的是cos吗?呃,反正就成储桶里面,然后我看到橙储懂里面有一个也有一个文件系统有挂载,但是它收费也是挺贵的,明白如果说你用Co的话,其实cos的存储的费用还是比较比较亲民的,它只有下载,下载的费用很贵,对下载的可能您流量的费用会稍微低一些,但是实际上您去上传的话不会有,呃。
57:19
太大的费用,然后这是一个问题,第二个问题的话,我们前面也提到,我们会在我们我们腾讯云的CDN节点上也放一些大家常用的模型,比如说anything,或者说社区里面比较火的一些模型,我们会放到CDN上,然后大家之后只需要在控制台上去选那些模型,我们就可以走内网把这个模型下载到您的cos统里面去,然后内网流量我们目前是不收费的,目前不,所以之后收,呃,您可以认为很多年都没有收费,内网流量从过去到现在都没有收费,因为我看他虽然CDN也是有一个收费的一个标准的,呃,CDN是我们这边提供的服务和。不不会在您这边产生资源的创建,也不会收您的费用,那行那没什么问题,谢谢。
58:05
啊,问题还比较多啊,我们一个一个来,要不先前排这个同学吧。你好,就是我想问一个问题,就是比如说我这个AI生成的图片之后就是版权的归属问题,就是我到时候可以直接用来商业化吗?还是这是一个非常好的问题,呃,其实整个IGC领域,或者说内容生产领域,现在最大的问题就是版权问题,呃,我们推荐的做法是这样的,就是我们在生成的时候,一个我们可以只用它来做,嗯。来做灵感的启发,就是我们生产出来的内容,我们不直接投入商业化,投入生产,只是我们可以借用中间的一些元素,这是一个第二个,如果我们的公司呃有自己的IP,我们可以用自己的IP去训练一个和自己IP最贴合的一个模型。
59:05
啊,就比如说我们公司有这个腾讯有欣铜,那我们就可以去输入很多新铜的图片,然后训练一个属于欣铜的一个模型,这样他每一次生成的图片里面的人物都是新同的这个人物,那么这样的话,因为是公司自有的IP,所以就不会有版权的风险。呃,其实现在很多。比较前沿的一些,呃,游戏公司,动画公司都是这么做的,只要他们有自由的IP的话,然后去自己做模型的微调都可以,呃,保证说自己不会有版权侵权的问题,对,好,谢谢老师。那这边这位同学吧,一会儿叫后面那位同学。是是是是老师你好,就是我想问一下,就是腾讯这个sless未来还可能会提供哪一些AIGC的一些工具,嗯,就是上线哪一些产品,明白,呃,您可以认为我们不会上线独立的产品,因为我们是一个呃pass平台,或者说是一个pass平台,我们不是专门做AI应用的一个团队,但是的话我们会加速大家呃在AI生产,AI模型生产,AI应用生产这个环节的效率,我们会提供很多工具,嗯,比如说社区现在很火的LA,我们也在看,说他要以一种怎样的姿态和形式去集成到我们的工具链体系中去,或者说我们要不要去做一些对公开的这种算法工具链的支持,这都是我们正在考虑做的。然后包括说,呃,您刚刚提到说对其他模型,其他场景,我们也也有在考虑。比如说去。
60:39
针对更多LLM的图,这个模型我们也去做一些像SD一样的事情,我们把它去产品化出来,包分装成一个应用,企业可以直接把一个LLM的模型去做一个快速的服务化,这都是我们在考虑做的事情。谢谢老师。好,我先请后面那位同学,他刚刚举手举的比较久了,呃,就是这边云函数也是可以用GPU的嘛,然后但是我了解到可能腾讯云某些ID域啊,就我们需求量比较大,已经把一些GPU,可能比如说T4这种低级的卡我们包下了,那云函数这边,比如这个地域是不是也用不到这个卡了,然后可能就开不起来或之类的,他会跨地域的去调署部署这个GPU,对这个是个好问题啊。呃,一个就是您可以认为我们的资源的供给手段是我们自己会囤一个GPU的池子。
61:35
也就是说,呃,一般来讲,我们不会让我们的这个资源池。低于我们客户实际诉求的资源量,假如我们每天我们观察到用户,他就只需要两百两千张卡,我们储备的尺子不会比这个小。我们会留一个buffer,我们不,我们会保证自己的池子不会被击穿,所以说其实您可以不用担心说资源运维的问题,包括我们现在也在非常积极的和呃GPU团队。
62:07
我们都在联合去解决,呃,GPU调度的问题,包括其实刚刚GP这个。呃,PPT里也有提到,我们正在做的事情,是我们在做资源的全球调度,呃,这个还没有上线,但是是我们未来会做的一个尝试,我们希望说所有的GPU他可以不用受到呃地域的限制啊,比如说欧洲区的所有客户,他可以用法兰克福的资源,他也可以用到欧洲东北的资源,他可以用到欧洲任何一个地域的资源,然后这个环亚地区的,APEC地区的这个用户,他不仅可以用到国内的GPU资源,他也可以用到新加坡的,用到马来的任何一个,呃,符合只要符合数据流通标准和法规的地域的。资源我们都可以给他去调度,我们正在做这个事情,我们会抹平,呃,资源的地域差异,差异,当然这个事情他背后涉及的技术架构上的改变。
63:07
和技术挑战会很大,所以呃,周期会相对相对长一点,对。好,这位同学。我们最后呃,最多在这之后再问一个问题,因为现在时间也比较晚了,呃,我有一个问题就是如果我作为一个那个这个东西的插件开发者嘛,那我比如说想调试的话,就是能不能就是在这里线上直接在线调试,然后可以热更新的那一种方式。嗯呃,对,我想自己的插件明白明白明白,您是想做您做的插件是指这个web页面上的插件,就就是web页面上面就是加一点自己的新功能,我自己,嗯,没问题,你你是想在上面热更新是吗?对有有没有这种就是功能,就是自己把我编好的插件。可以直接整合进去,可以就您您您应该也知道说现在SD的这个外部UI,它的一个插件的安装方式,其实是支持我们去直接从代码仓库里面去拉的,对,只不过是这一期我们还没有做,没有没有放开这个链路,因为我们没有做插件数据的一个持久化,就是我们还没没有支持大家可以把本地的插件或者第三方的插件直接去上传到平台上来,我们还没有,还没有做完这个我们正在做,可能这个月底就会做完,到那个时候,呃,等等等等整个链路被打通以后,呃,您只需要在这里去。
64:35
安装您自己代码从库下那个插件,安装完以后,它就会就会一直都存在了,包括您说的日日更新,其实也是也是都可以做的好,谢谢。最后一个问题。啊,那边那位同学。我们的这个公仔也差不多发完了。
65:11
那个你好,就是我对AIAI绘画比较感兴趣嘛,那请问在哪里有这种,就是这个详细的使用教程和一些使用方法之类的,可以在哪里获取呢?嗯,好,嗯。有几个地方吧,一个的话,我非常推荐您去加我们的那个A交流群,然后我们在里面会有非常多的社区的使用者,每天在里面交流自己的心得和使用经验,你如果说经常去水群的话,会在这方面有特别多的知识的增长,包括我们自己作为官方的角色,我们也会不定期的去发布一些我们觉得对用户来说有价值的内容,呃,这是一个途径,然后另外一个途径,如果说您想自己去自学和自己去研究这个领域的话,您可以去。呃,看公开的渠道,然后目前在这个领域下,最优质的资源其实都是来自于B站,对的,去B站上搜。
66:06
好,那么我们今天的这个问答环节就先到这里,然后非常感谢大家参与,现在时间也比较晚了,大家退场的时候,回家的时候小心对我们这个活动整整推迟了一个小时,感谢最后还坚持在这里的所有的朋友们,呃,那我们今天所有的活动分享就到此结束了,如果大家再切一下那个二维码吧,如果后续还有任何问题交流,呃,都可以进到我们的社群,对,还有关注我们的公众号,腾讯云原生公众号跟腾讯云函数公众号,所以我们最新的活动,包括产品技术的最新内容都会在公众号上披露出来。好的,感谢大家,我们的活动so,深圳站就到此结束了,后面我们嘉宾所有嘉宾到前面我来拍个照吧,哎,这个二维码先放一下时间。
我来说两句