
好事发生
这里推荐一篇实用的文章:https://cloud.tencent.com/developer/article/2465556?shareByChannel=link
《使用Python实现深度学习模型:智能食品包装设计》
这篇文章介绍了如何使用Python构建一个用于智能食品包装设计的深度学习模型。主要内容包括数据准备、模型构建、训练、评估和预测应用。作者展示了如何通过卷积神经网络(CNN)进行包装图像分类,利用数据增强提升模型的泛化能力,并最终实现对新图像的预测。此技术可提升包装设计的效率和质量,为消费者提供更个性化和智能化的体验。这种智能化设计有望在未来的食品包装中得到更广泛的应用。
从最初的年初到现在,过去了200多天的时间,OpenAI的Sora终于赶在年底正式发布了。在刚刚发布的时候,就惊艳了所有人,终于能够上手体验一番。

Sora一经上线,网页火爆到卡住了。目前已经停止所有新用户注册。

为什么这么久才出Sora,猜测是因为需要不断优化Sora的速度,所以今天上线的被称为Sora Tubo版本。这个新版本肯定相比于原版有更快的速度,同时它能生成任意长宽比的视频,分辨率从480p到1080p,时长从5秒到20秒,还能保证生成的画面具有一致性。
在定价方面,Sora整合到OpenAI的ChatGPT订阅体系中:
打开sora的网站,可以看到这个产品已经比较成熟.

这次的Sora官网提供了几个比较创新的功能:Remix(重混)、Re-cut(重新剪辑)、Storyboard(故事板)、Loop(循环)、Blend(混合)以及Style presets(风格预设)。那这几个功能有什么用了?下面来一一介绍以下~
顾名思义就是你如果对于生成的视频不满意,可以继续修改提示词。
比如在输入“长毛猛犸象走过沙漠景观”的prompt,等待一段时间后,四个视频就出现了,我们可以选择最理想的那个。

然后可以利用Remix方法,把猛犸象修改为“机械猛犸象”:

生成的效果还是比较逼真
如果对于生成画面的某一帧不满意,sora还提供了一个re-cut功能,能够直接在网页上进行编辑。

剪辑过的视频进行重新生成:

这个功能能够高度自定义,在整个序列中产生一个包含多个动作的视频。
这这里面,我们可以随意定义自己想要的prompt,比如我们可以描述一个当前的环境、人物和特定的动作
又或者可以设定在在时间轴的开头,直接定义一个整体的基调,设定一个具体的场景。

Blend其实就是可以把两个场景混合到一起形成一个完美的视频。
比如有两段视频,一个是雪花,一个是叶子。然后就可以进行混合生成:

又或者,把机械猛犸和猛犸象进行混合生成:

这个功能特别适用于短片中的循环播放,可以无缝拼接进行视频的重现
Sora会在开头和结尾中添加大量帧,来将它们连接起来。

不足的地方在于,目前的sora最长只支持20s生成的视频,和当初最开始宣传的可以直接生成1分钟的视频还是有一定的差距。因为目前国内外其实已经有很多能够做到20s视频长度的AI工具了。所以OpenAI想要跟这些拉开差距,除了保证画面能够尽量逼真外,还需要不断把当初最强大的Sora原版放出来。
应该说,目前的Sora Tubo版本类似于当初的GPT-2.5,如果能够做到像GPT-3那样的划时代的生成大模型,还需要OpenAI不断的迭代升级。不过我还是盲期待这一天的到来。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。