前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >实测完快手的AI视频「可灵」后,我觉得这才是第一个中国版Sora

实测完快手的AI视频「可灵」后,我觉得这才是第一个中国版Sora

作者头像
数字生命卡兹克
发布于 2025-04-14 10:30:03
发布于 2025-04-14 10:30:03
1260
举报

昨天,6月6号,是快手的13周年生日。

在这一天,所有AI圈的人都想不到,快手在13周年之际,没有任何预兆、没有任何宣传,直接发布了他们的AI视频大模型。

可灵。

给我也干了个措手不及。

我当时正在看360的发布会,突然手机就叮叮当当一顿狂响,打开一看,一群人跟我说:快快快,看快手,他们发AI视频模型了。

我当时想着,发个AI视频模型就发个AI视频模型呗,能有啥大惊小怪的,这年头,做AI视频的多了。要么就是发了个老技术的产品给大家先用着占坑,要么就是发了个Sora那种新技术的纯PR视频,又不给用纯粹To VC的。还能有啥。

打开快手的模型官网一看,嚯,新技术的,运动幅度跟Sora有的一拼,还能支持最长2分钟。这就有点意思了。

然后,即刻开放邀测。

虽然不抱有能用的希望,但是我秉持着来都来了的原则,还是去申请了一下。

申请流程:下载快影APP - AI玩法 - AI生视频模块 - 填问卷申请。

我本来以为,跟两个月前的某AI视频产品一样,说是比Sora还好,但是我申请了两个月都没动静。

结果没过几个小时,我就收到了快手的短信。。。

不是哥们,你来真的啊?

你说的发布居然是真发啊,居然当天真的给人用啊?你居然不是画饼啊?

这一下,给我整不会了...

快手不愧是老铁,真实诚。

到家了之后,我花了好几个小时,跑了100多个case,又跟好基友@吉川明静勾兑了一下他那边的case。差不多有了一些不是特别全面的认知。

但,有一句话,我觉得是可以放心说了。

快手的可灵,就是我认为正儿八经的,经过验证的,而且还能上手直接用的,第一个中国版Sora

不过可灵是大模型,真正变成产品,还是有很多限制的,比如算力、功能、开发周期等等。

所以现在可以使用的版本,并不是完全体。

比如现在的固定时间只能为5s、不支持图生视频只支持文生、不能自定义尺寸等等。

但是都无关大雅,因为所有人对Sora的兴奋点,不是那些功能,而是他那最核心的:

极度真实的物理规律。

而这一点,快手可灵,做到了。

随手放几个我跑的case,第二个是吉川跑的。

这运动幅度、物理规律的稳定性,就非常的离谱。

如果不涉及人与人、或者人与物体之间复杂的交互,那可灵的物理表现,几乎可以称的上完美。

毕竟,连吃面条这种坑死所有AI视频产品的case,都能搞定掉。做一些复杂的动作或者细腻的表情,也都没啥问题。比如:

但是我们真的去看一部电影、一部电视剧,里面还是有很多复杂交互的。

比如最常见的打斗戏、比如操作一台极其精密的设备等等。而这些,也是物理难度最高的,连Sora处理的都非常的一般。

可灵自然也不例外,在复杂交互上,目前还有很大的进步空间。比如我跑的这个决斗场景。

但至少,他给了我们一个新的可能性。如果大家留意一下过往的所有AI视频,你用图生视频的方式去做,是几乎不可能做出这种交互镜头的,都是用蒙太奇或者AE去替代掉。而现在,有希望了。

而在单人镜头上,人物在没有支点(比如空中坠落)的时候,会发生一定程度上的变形。同时如果人物在画面中比例较小的时候,也会发生糊脸现象,这个是现在AI的通病,不仅AI视频有,AI绘图一样也有。等未来数据集和技术迭代吧。

还有一个很意外的片段,我自己非常非常喜欢。

Prompt是:“你站在桥上看风景,看风景的人在楼上看你。明月装饰了你的窗子,你装饰了别人的梦。”

虽然出来的视频,跟Prompt稍微有那么一些的不搭嘎,但是这个片段,真的属于意外之喜,我非常非常的喜欢。

目前看下来,可灵在“真实风格”的场景上,表现的最好,而在一些风格化的表现上,就会比“真实风格”上,稍微逊色一些。

比如我的这段Prompt:

“拟人化的穿着西装的狗,提着包在公交车上,窗外是飞驰而过的城市”

如果是真实风格,效果就会非常好。

但是如果改成动漫风格,就会傻里傻气很多...

可灵整体上,在Prompt的依从性上,个人觉得在AI视频里,肯定是第一梯队,但是如果你跟AI绘图的头部、跟文本大模型的头部去比,那感觉还是会差一些。

比如:“一只企鹅穿着西装,在办公室里开会,用严肃的表情进行演讲”,西装丢了,只剩企鹅了。

比如:“一只穿着盔甲的猫骑着独角兽在彩虹上奔驰,穿越魔法森林,背景是古老的城堡”,奔驰这个动作没了,直接不动了。

不过这也不是什么大问题,毕竟这才第一版,还在内测,这些做好了,都是锦上添花的东西。

模型的质量,模型的物理规律,才是真正的核心,真正的重中之重。

这一点,快手可灵,除了那个没发布的Sora之外,基本碾压所有同行。

我现在非常期待可灵的图生视频功能。

因为对于专业的AI视频创作者来说,基本上还是会用图生视频,因为可控性更强,一致性的控制更方便一点。而文生视频,还是会更偏向于普通用户一些。

说实话,我现在已经有了一个非常想做的AI作品的故事。

现在,我真的非常非常想用快手可灵,把他做出来。

毕竟,这是真正的第一个,中国版Sora

哪个创作者会不兴奋,会没有创作欲望呢?

就看什么时候,快手可灵能更新它的图生视频功能了。

我期待着那一天。

谢谢你,快手。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-06-07,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 数字生命卡兹克 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
YOLOv8优化策略:Adam该换了!斯坦福最新Sophia优化器,比Adam快2倍 | 2023.5月斯坦福最新成果
斯坦福2023.5月发表的最新研究成果,他们提出了「一种叫Sophia的优化器,相比Adam,它在LLM上能够快2倍,可以大幅降低训练成本」。
AI小怪兽
2023/11/03
2.2K0
Google Brain新提出的优化器“Lion”,效果要比Adam(W)更好
与 AdamW 和各种自适应优化器需要同时保存一阶和二阶矩相比,Lion 只需要动量,将额外的内存占用减半。 这在训练大型模型和大Batch size时很有用。 例如,AdamW 需要至少 16 个 TPU V4 芯片来训练图像大小为 224、批量大小为 4,096 的 ViT-B/16,而 Lion 只需要8个。
致Great
2023/08/25
1.1K0
Google Brain新提出的优化器“Lion”,效果要比Adam(W)更好
神经网络调参技巧:warmup策略
有一些论文对warmup进行了讨论,使用 SGD 训练神经网络时,在初始使用较大学习率而后期改为较小学习率在各种任务场景下都是一种广为使用的做法,在实践中效果好且最近也有若干文章尝试对其进行了理论解释。例如《On Layer Normalization in the Transformer Architecture》等,论文中作者发现Post-LN Transformer在训练的初始阶段,输出层附近的期望梯度非常大,所以没有warm-up的话模型优化过程就会非常不稳定。
炼丹笔记
2022/04/06
1.2K0
神经网络调参技巧:warmup策略
torch.optim
为了使用torch.optim,你必须构建一个优化对象,那将会保持现有的状态,并且基于计算的来更新参数。
狼啸风云
2020/06/12
1.6K0
“瘦身成功”的ALBERT,能取代BERT吗?
模型的创新点集中在了预训练过程,采用Masked LM和Next Sentence Prediction两种方法,分别捕捉词语和句子级别的表示。
量子位
2020/03/31
9630
“瘦身成功”的ALBERT,能取代BERT吗?
手把手教你从零实现一个深度学习框架(附代码实现)
当前深度学习框架越来越成熟,对于使用者而言封装程度越来越高,好处就是现在可以非常快速地将这些框架作为工具使用,用非常少的代码就可以构建模型进行实验,坏处就是可能背后地实现都被隐藏起来了。在这篇文章里笔者将设计和实现一个、轻量级的(约 200 行)、易于扩展的深度学习框架 tinynn(基于 Python 和 Numpy 实现),希望对大家了解深度学习的基本组件、框架的设计和实现有一定的帮助。
一点人工一点智能
2022/12/27
1.5K0
手把手教你从零实现一个深度学习框架(附代码实现)
当前训练神经网络最快的方式:AdamW优化算法+超级收敛
Adam 优化器之旅可以说是过山车(roller-coaster)式的。该优化器于 2014 年推出,本质上是一个出于直觉的简单想法:既然我们明确地知道某些参数需要移动得更快、更远,那么为什么每个参数还要遵循相同的学习率?因为最近梯度的平方告诉我们每一个权重可以得到多少信号,所以我们可以除以这个,以确保即使是最迟钝的权重也有机会发光。Adam 接受了这个想法,在过程中加入了标准方法,就这样产生了 Adam 优化器(稍加调整以避免早期批次出现偏差)!
机器之心
2018/07/26
1.6K0
当前训练神经网络最快的方式:AdamW优化算法+超级收敛
【知识】PyTorch中不同优化器的特点和使用
小锋学长生活大爆炸
2025/04/09
2820
Adam 优化器
Adam(Adaptive Moment Estimation)优化器是一种广泛使用的优化算法,在深度学习训练中特别流行。它结合了两种不同的优化算法的优点:Momentum 和 RMSprop。下面是 Adam 优化器的工作原理的简要概述:
为为为什么
2024/01/13
1.5K0
【深度学习实验】网络优化与正则化(三):随机梯度下降的改进——Adam算法详解(Adam≈梯度方向优化Momentum+自适应学习率RMSprop)
  目前,研究人员通过大量实践总结了一些经验方法,以在神经网络的表示能力、复杂度、学习效率和泛化能力之间取得良好的平衡,从而得到良好的网络模型。本系列文章将从网络优化和网络正则化两个方面来介绍如下方法:
Qomolangma
2024/07/30
3780
【深度学习实验】网络优化与正则化(三):随机梯度下降的改进——Adam算法详解(Adam≈梯度方向优化Momentum+自适应学习率RMSprop)
AdamW
L2正则是一种减少过拟合的一种经典方法,它在损失函数中加入对模型所有权重的平方和,乘以给定的超参数(本文中的所有方程都使用python,numpy,和pytorch表示):
狼啸风云
2021/08/05
1.3K0
机器学习|从0开发大模型之模型预训练
继续写《从0开发大模型》系列文章,本文主要介绍预训练过程。 预训练是目的是让模型学习知识,需要将预处理的数据(《机器学习|从0开发大模型之数据预处理》)中生成的 pretrain_data.bin 文件的上下文全部学习到,那预训练怎么做呢?
用户1904552
2025/02/27
1710
机器学习|从0开发大模型之模型预训练
torch.optim.lr_scheduler:调整学习率
本文是笔者在学习cycleGAN的代码时,发现其实现了根据需求选择不同调整学习率方法的策略,遂查资料了解pytorch各种调整学习率的方法。主要参考:https://pytorch.org/docs/stable/optim.html#how-to-adjust-learning-rate
全栈程序员站长
2022/11/03
1.4K0
Pytorch optimizer.step() 和loss.backward()和scheduler.step()的关系与区别
首先需要明确optimzier优化器的作用, 形象地来说,优化器就是需要根据网络反向传播的梯度信息来更新网络的参数,以起到降低loss函数计算值的作用,这也是机器学习里面最一般的方法论。
狼啸风云
2020/07/01
4.8K0
神经网络中的优化方法
在传统的梯度下降优化算法中,如果碰到平缓区域,梯度值较小,参数优化变慢 ,遇到鞍点(是指在某些方向上梯度为零而在其他方向上梯度非零的点。),梯度为 0,参数无法优化,碰到局部最小值。实践中使用的小批量梯度下降法(mini-batch SGD)因其梯度估计的噪声性质,有时能够使模型脱离这些点。
@小森
2024/05/06
1180
神经网络中的优化方法
torch.optim
torch.optim is a package implementing various optimization algorithms. Most commonly used methods are already supported, and the interface is general enough, so that more sophisticated ones can be also easily integrated in the future.
狼啸风云
2019/09/25
8960
【AI】从零构建深度学习框架过程学习
当前深度学习框架越来越成熟,对于使用者而言封装程度越来越高,好处就是现在可以非常快速地将这些框架作为工具使用,用非常少的代码就可以构建模型进行实验,坏处就是可能背后地实现都被隐藏起来了。在这篇文章里笔者将设计和实现一个、轻量级的(约 200 行)、易于扩展的深度学习框架 tinynn(基于 Python 和 Numpy 实现),希望对大家了解深度学习的基本组件、框架的设计和实现有一定的帮助。
Freedom123
2024/05/17
1660
Lion优化器与Yolov8
Yolov8是一种经典的目标检测算法,而Lion优化器则是近年来新兴的优化算法之一。本文将介绍Lion优化器与Yolov8目标检测算法的结合应用,以及它们对目标检测任务的性能提升。
大盘鸡拌面
2023/11/22
8010
[源码解析] PyTorch分布式优化器(3)---- 模型并行
本系列介绍分布式优化器,分为三篇文章,分别是基石篇,DP/DDP/Horovod 之中数据并行的优化器,PyTorch 分布式优化器,按照深度递进。本文介绍PyTorch 分布式优化器和PipeDream之中的优化器,主要涉及模型并行(流水线并行)。
罗西的思考
2021/12/10
1.5K0
[源码解析] PyTorch分布式优化器(3)---- 模型并行
PyTorch常用代码段合集
本文是PyTorch常用代码段合集,涵盖基本配置、张量处理、模型定义与操作、数据处理、模型训练与测试等5个方面,还给出了多个值得注意的Tips,内容非常全面。
小白学视觉
2022/02/14
1.2K0
PyTorch常用代码段合集
推荐阅读
相关推荐
YOLOv8优化策略:Adam该换了!斯坦福最新Sophia优化器,比Adam快2倍 | 2023.5月斯坦福最新成果
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档