Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >「拨云见日」英特尔揭秘短视频背后的二三事

「拨云见日」英特尔揭秘短视频背后的二三事

作者头像
静一
发布于 2018-06-08 02:15:13
发布于 2018-06-08 02:15:13
38602
代码可运行
举报
文章被收录于专栏:云计算D1net云计算D1net
运行总次数:2
代码可运行

“像一棵海草海草,随风飘摇,海草海草,浪花里舞蹈……”看到这样魔性的歌词,你是不是有立刻跟着唱的冲动,甚至还很想起来跳一段呢?去火锅店点餐,你会掏出手机告诉服务员按照视频内容操作吗?还有火了很久的手势舞、拍灰舞,你也都能跟着来几个动作?做到以上至少一点,恭喜你,你已经被短视频征服了。

数据显示,2017年初,短视频的市场规模达到了数百亿人民币的规模,用户量也已经达到了4亿人,上到一些中老年用户,下到小朋友们和萌宠,都曾参与到短视频的录制,短视频俨然成为了如今最流行的娱乐方式之一。不仅仅是酷炫的特效、可以变速的配乐、卖萌搞笑的贴纸,视频的质量包括是否可以清晰流畅地观感、能和主播没有延迟的沟通也成为用户挑选平台的重要参照,这也是短视频企业最为关注的后台技术。

英特尔中国区互联网业务部技术总监高明先生、江湖人称“敏哥”的金山云高级总监武爱敏先生和知乎达人Gashero一起做客首期《云中论道》,就短视频的背后的转码、延迟优化、实时处理等话题做了探讨。

视频转码

移动视频已经普及,但移动设备发展程度却不同,高端手机和低端手机的分辨率差距很大,同时,系统架构也不一样,安卓、苹果、微软等不同系统终端拍摄出来并保存下来的视频格式、分辨率也是不一样的,不同平台对视频处理能力也是不一样的。短视频平台必须把这些视频文件通过特定的压缩方式,使其按照相应的转码标准从一个格式转换成另一种可以在该平台播放的格式,这个过程就是视频转码。

英特尔推出新的AVX-512指令集,这让视频转码的性能大幅提升,金山云基于英特尔至强可扩展处理器进行了H.264视频转码测试,相比英特尔®至强®处理器E5-2690 V4,英特尔®至强®可扩展铂金8168处理器的转码性能有94%的提升。与此同时,金山云还推出了图样增强的功能,优化用户上传的分辨率不高或者不太清晰的视频,并能通过人工智能的方式,分析视频内容,保证内容健康安全。

延迟优化

视频转码只是第一步,缩短视频延迟则是另一个技术发力点。当人们打开视频的时候,如果需要等待才可以观看,会对用户体验大打折扣。在观看直播时,用户对视频延迟更为敏感,例如赛事直播时,进球时已经听到欢呼却还看不到画面细节;与直播对话的时候,已经发出了问题,过一阵才会得到解答,这样会流失许多用户。

现在视频数据过于庞大,为了提高视频传输效率和视频服务质量,工程师会把视频数据先输送到各个CDN边缘数据缓存节点,然后再通过网络,把视频内容传输到用户的移动设备上,这整个过程的延迟其实特别短,几十毫秒就可以完成。

而从用户拿到手机点开视频的那一瞬间,也就是“秒开”过程,为了保证这一瞬间用户可以获得视频内容,金山云在边缘节点会预先缓存一部分数据。为了更好的做到这一点,在用户观看第一个短视频的时候,第二个视频就已经开始加载了。“敏哥”在节目中介绍,金山云对这一过程进行了优化,现在已经可以达到500-1000毫秒这样比较快的速度了。

此外,考虑到由于在户外信号不好、Wi-Fi较差的情况,金山云还提出了一个“双倍加速”的产品,即使网络差一点也没有关系,通过“双倍加速”用户也可以像在良好网络下看视频一样。

其实最大的延迟其实是在播放过程中,一般像秀场、游戏等,现在已经控制在3-5秒之间,对于用户体验来说,其实没有什么影响,但是涉及到像比赛、重要会议这样的直播,考虑到安全问题,会有人工审核的过程,因此延迟会在15-30秒之间,这个是无法避免的。

实时视频处理

特别多女孩子喜欢录短视频、录直播,有很大一部分是因为一些可爱的贴纸功能,比如说猫咪胡须,兔子耳朵这些,以及一些不同风格的美颜效果,例如甜美可爱美颜、高冷白领妆容等等。这其实涉及到了基于人工智能的计算机视觉处理功能,英特尔®至强®可扩展处理器很好的支持了实时视频处理的开发,帮助客户选择最合适的去支撑业务。其次,英特尔也提供了最优化的软件框架,帮助处理器发挥最优性能,使实时视频处理界面更成熟。

视频行业从来不缺少重量级玩家的介入,短视频市场仍在急速扩张,玩家也逐渐集中在头部用户。正如敏哥在节目中提到,在视频业务中,无论是直播还是点播,它们的发展过程,实际上就是用户需求和技术创新在背后不断推动的过程。想要在激烈的竞争市场中夺得一袭之地,想要在数亿用户的心中脱引而出,技术创新才是解决实际问题、推动持续发展的唯一途径。英特尔也将坚定与合作伙伴的合作,继续创新研究硬件技术,以支持短视频后端的技术优化。

回顾整期节目,请访问:

https://www.geekbang.org/page/intel2018live.html?from=singlemessage&isappinstalled=0

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2018-05-08,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 云计算D1net 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
深度学习:神经网络优化技巧
在深度学习中,有一个“损失loss”的概念,它告诉我们:模型在训练数据中表现的“多差”。
皮大大
2025/05/09
770
不愧是京东,面试超开心。。。
这几天看到以为同学面试京东,给她的感觉非常不错,如果加入面试官的团队,一定会超开心。
Python编程爱好者
2024/01/20
1640
不愧是京东,面试超开心。。。
深度学习——优化器算法Optimizer详解(BGD、SGD、MBGD、Momentum、NAG、Adagrad、Adadelta、RMSprop、Adam)
在机器学习、深度学习中使用的优化算法除了常见的梯度下降,还有 Adadelta,Adagrad,RMSProp 等几种优化器,都是什么呢,又该怎么选择呢? 在 Sebastian Ruder 的这篇论文中给出了常用优化器的比较,今天来学习一下: https://arxiv.org/pdf/1609.04747.pdf 本文将梳理: 每个算法的梯度更新规则和缺点 为了应对这个不足而提出的下一个算法 超参数的一般设定值 几种算法的效果比较 选择哪种算法 ---- 0.梯度下降法深入理解 以下为个人总结,如有错误
10JQKA
2018/05/09
8.3K0
深度学习——优化器算法Optimizer详解(BGD、SGD、MBGD、Momentum、NAG、Adagrad、Adadelta、RMSprop、Adam)
由浅入深了解 深度神经网络优化算法
在最简单的情况下,优化问题包括通过系统地从允许集合中选择输入值并计算函数值来最大化或最小化实函数。
AiCharm
2023/06/07
4490
由浅入深了解 深度神经网络优化算法
从梯度下降到 Adam!一文看懂各种神经网络优化算法
每天给你送来NLP技术干货! ---- 编译:王小新,来源:量子位 在调整模型更新权重和偏差参数的方式时,你是否考虑过哪种优化算法能使模型产生更好且更快的效果?应该用梯度下降,随机梯度下降,还是Adam方法? 这篇文章介绍了不同优化算法之间的主要区别,以及如何选择最佳的优化方法。 什么是优化算法? 优化算法的功能,是通过改善训练方式,来最小化(或最大化)损失函数E(x)。 模型内部有些参数,是用来计算测试集中目标值Y的真实值和预测值的偏差程度的,基于这些参数,就形成了损失函数E(x)。 比如说,权重(W)
zenRRan
2022/05/06
9460
从梯度下降到 Adam!一文看懂各种神经网络优化算法
神经网络优化算法综述
算法检查 gradient check sanity check other check 一阶算法 Adagrad momentum nag rmsprop 总结 二阶算法 牛顿法 拟牛顿法 参考 神
用户1147754
2018/01/02
1.3K0
神经网络优化算法综述
【PyTorch入门】 PyTorch不同优化器的比较
在 PyTorch 中,torch.optim 提供了多种优化器用于神经网络训练。每种优化器背后有不同的更新规则和机制,旨在适应不同的训练需求。以下是五种常见优化器(SGD、Momentum、AdaGrad、RMSprop、Adam)的原理、作用、优缺点及应用场景。
机器学习司猫白
2025/01/21
2540
【PyTorch入门】 PyTorch不同优化器的比较
如何选择优化器 optimizer
在很多机器学习和深度学习的应用中,我们发现用的最多的优化器是 Adam,为什么呢? 下面是 TensorFlow 中的优化器, https://www.tensorflow.org/api_guid
杨熹
2018/04/03
3.7K0
如何选择优化器 optimizer
02.改善深层神经网络:超参数调试、正则化以及优化 W2.优化算法(作业:优化方法)
调好参数的 mini-batch 梯度下降,通常优于梯度下降或随机梯度下降(特别是当训练集很大时)
Michael阿明
2021/02/19
3780
斯坦福CS231n - CNN for Visual Recognition(7)-lecture6梯度检查、参数更新
  梯度检查是非常重要的一个环节,就是将解析梯度和数值计算梯度进行比较。数值计算梯度时,使用中心化公式
李智
2018/08/03
7410
斯坦福CS231n - CNN for Visual Recognition(7)-lecture6梯度检查、参数更新
【深度学习实验】网络优化与正则化(一):优化算法:使用动量优化的随机梯度下降算法(Stochastic Gradient Descent with Momentum)
  目前,研究人员通过大量实践总结了一些经验方法,以在神经网络的表示能力、复杂度、学习效率和泛化能力之间取得良好的平衡,从而得到良好的网络模型。本系列文章将从网络优化和网络正则化两个方面来介绍如下方法:
Qomolangma
2024/07/30
2790
【深度学习实验】网络优化与正则化(一):优化算法:使用动量优化的随机梯度下降算法(Stochastic Gradient Descent with Momentum)
入门 | 目标函数的经典优化算法介绍
选自3dbabove 机器之心编译 参与:乾树、刘晓坤 本文使用通俗的语言和形象的图示,介绍了随机梯度下降算法和它的三种经典变体,并提供了完整的实现代码。 GitHub 链接:https://github.com/ManuelGonzalezRivero/3dbabove 代价函数的多种优化方法 目标函数是衡量预测值和实际值的相似程度的指标。通常,我们希望得到使代价尽可能小的参数集,而这意味着你的算法性能不错。函数的最小可能代价被称为最小值。有时一个代价函数可以有多个局部极小值。幸运的是,在参数空间的维数
机器之心
2018/05/10
2K0
神经网络中的优化方法
在传统的梯度下降优化算法中,如果碰到平缓区域,梯度值较小,参数优化变慢 ,遇到鞍点(是指在某些方向上梯度为零而在其他方向上梯度非零的点。),梯度为 0,参数无法优化,碰到局部最小值。实践中使用的小批量梯度下降法(mini-batch SGD)因其梯度估计的噪声性质,有时能够使模型脱离这些点。
@小森
2024/05/06
1180
神经网络中的优化方法
caffe详解之优化算法
前面我们介绍了卷积神经网络中主流的数据层,卷积层,全连接层,池化层,激活函数层,归一化层,dropout层,softmax层。分析每一层的配置及意义的目的主要是为了便于设计出适合自己的网络。然后根据自己的任务需要定义合适的损失函数。当搭建出自己的网络并确定网络的损失函数后,下一个关键问题便是训练网络,训练网络的前提需要确定优化算法。下面我们针对常见的深度学习优化算法进行梳理:
AI异构
2020/07/29
5110
caffe详解之优化算法
深度|梯度下降优化算法综述
该文翻译自An overview of gradient descent optimization algorithms。 总所周知,梯度下降算法是机器学习中使用非常广泛的优化算法,也是众多机器学习算法中最常用的优化方法。几乎当前每一个先进的(state-of-the-art)机器学习库或者深度学习库都会包括梯度下降算法的不同变种实现。但是,它们就像一个黑盒优化器,很难得到它们优缺点的实际解释。 这篇文章旨在提供梯度下降算法中的不同变种的介绍,帮助使用者根据具体需要进行使用。 这篇文章首先介绍梯度下降算法的
智能算法
2018/04/02
7050
深度|梯度下降优化算法综述
深度学习中的优化算法与实现
通过这么长时间的学习,我们应该对于通过深度学习解决问题的大体流程有个宏观的概念了吧?
BBuf
2020/10/10
1.1K0
深度学习中的优化算法与实现
梯度下降优化算法概述
本文介绍了自适应学习率算法的发展历程、常用算法、以及若干优化策略。通过实际案例分析了自适应学习率算法在深度学习中的重要性,并探讨了未来研究方向。
Alan Lee
2018/01/03
2.8K0
梯度下降优化算法概述
【动手学深度学习】深入浅出深度学习之RMSProp算法的设计与实现
RMSProp(Root Mean Square Propagation)算法是由Geoffrey Hinton在2012年提出的,是对传统的梯度下降算法的改进。它是一种常用的优化算法,用于在深度学习中更新神经网络的参数。
SarPro
2024/04/10
4600
【动手学深度学习】深入浅出深度学习之RMSProp算法的设计与实现
深度学习与CV教程(7) | 神经网络训练技巧 (下)
本系列为 斯坦福CS231n 《深度学习与计算机视觉(Deep Learning for Computer Vision)》的全套学习笔记,对应的课程视频可以在 这里 查看。更多资料获取方式见文末。
ShowMeAI
2022/06/01
5260
深度学习与CV教程(7) | 神经网络训练技巧 (下)
动手学深度学习(八) 优化算法进阶
在 Section 11.4 中,我们提到,目标函数有关自变量的梯度代表了目标函数在自变量当前位置下降最快的方向。因此,梯度下降也叫作最陡下降(steepest descent)。在每次迭代中,梯度下降根据自变量当前位置,沿着当前位置的梯度更新自变量。然而,如果自变量的迭代方向仅仅取决于自变量当前位置,这可能会带来一些问题。对于noisy gradient,我们需要谨慎的选取学习率和batch size, 来控制梯度方差和收敛的结果。
致Great
2020/02/25
1.4K0
动手学深度学习(八) 优化算法进阶
推荐阅读
相关推荐
深度学习:神经网络优化技巧
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验