04:12
各位开发者,各位朋友们,大家好。欢迎参加首期Taco day腾讯技术开放日。我是dowson,曾经也是一名程序员。我加入腾讯已经17年了,最开始在架构部担任架构师。现在与庐山一起主持腾讯技术委员会和腾讯技术通道的工作。过去20年诞生了很多C端的应用,比如大家熟悉的QQ、微信、QQ音乐等,而腾讯的创始人和高管,比如Pony Pony,他们本身也都是程序员出身。不少大家用过的产品,就是他们亲手敲每一行代码出来的。
05:00
在消费互联网时代,无数程序员出身的创业者,或者单枪匹马,或者用小团队的模式创造出很多新奇的应用,改变和丰富了我们的娱乐和生活。现在我们进入产业互联网时代,更加波澜壮阔,但需求的场景也更加复杂。开发者需要有行业的know how,需要上下游的协作。一个产品从想法到落地,需要更多的流程、工具、协作平台和技术积累。所以我们发起腾讯技术开放日。希望提供一个真正懂程序员需求的交流平台。腾讯云也在过去这几年不断推出更多的研发工具,希望通过医用前沿的技术和工具帮助开发者。
06:01
解决遇到的难题,降低开发门槛,实现对于数字世界的创想。首先,我们希望通过轻量化的工具降低开发门槛,让每个人都可以成为数字的建筑师。一方面,针对通用性需求,提供模板级的工具,实现一键开发。另一方面,也为定制化的需求提供可用的API代码工具。降低这个开发门槛。过去,在搭建web应用小程序、APP等场景中,需要创建服务器、配置网络、安装应用软件、数据库服务器等。再进行各种环境的配置,还需要花蛮多的时间。针对这类高频开发场景,我们推出了轻量应用服务器lighthouse,把ice的资源、应用软件和各种配置都统一打包好,实现开箱即用。
07:10
就算是刚入门的开发者,也只需要一分钟不到的时间就能够完成一个网站的搭建。我们一家合作伙伴深圳网商天下,主要服务电商出海的业务,基于lighthouse的服务,在不到三个月时间里,就帮助数百个卖家成功搭建跨境电商的独立网站和APP。我们提供的微搭低代码服务,可以用搭积木的方式构建企业OA门户和审批管理系统。同时与小程序的流程深度打通,方便构建与发布小程序,快速触达客户。减轻了重复和定制化的工作,开发者可以聚焦在业务本身,同时也打通了企业微信、腾讯文档,还有腾讯会议等丰富的SaaS应用。
08:10
开发者可以一站式的完成应用的集成和开发,快速优化企业各种业务流程,提升管理流转的效率。目前,微大已经服务了10万个开发者,构建了超过30万个应用。此外,以小程序为代表的微信生态是开发者关注的技术热点。腾讯云和微信联合推出云开发,服务了超过200万个开发者,也成为微信开发者首选的一站式S开发平台。日调用量也超过了30亿。随着平台的成长,很多企业开发者也提出更深度的诉求。为此,我们也原子化输出了云开发网关,将边缘加速、安全的风控、流量治理等功能整合起来,让开发者可以更加轻便的介入。
09:13
帮助像帕帕马特等客户在弱网络的情况下,稳定性也能提升到99.9%。同时也抵御了黑产的刷单、BDOS的攻击、数据爬虫等多类安全的风险。其次,我们希望通过自动化流程来提升研发效率。让建筑师们可以在云端快速构建与交付应用。传统开发模式下,项目管理、编译、构建、部署等流程环节各自独立进行,就像一座座的孤岛,需要大量的人工在中间协调配置。很难满足快速迭代的业务需求。
10:02
云的出现也为软件开发提供了标准化的基础设施,统一的架构也让开发工具链能够统一,开发工程化、自动化有了实现的基础。腾讯云的coding OPS平台也在助力研发和运维的自动化。帮助产品发布时间从过去的以季度、年为单位缩短到以天或者周为单位。在coding平台上,敏捷的项目管理、测试管理、持续集成制品库持续部署、应用生命周期管理等功能在一个平台上面统统实现。这让团队研发、工具建设的成本下降了82.7%。研发效能也提升了75%。产品的交付效率也提升了68%。
11:01
同时,Coding dev OPS平台和腾讯云监控的能力无缝集成,也实现了秒级的监控、精准的告警、可观测的能力。帮助开发者轻松应对云端的各种突发情况,增强业务的稳定性,提升运维的效率,降低成本。今天我们也将发布orbit云原生应用部署平台,简化应用部署和运维工作,支持应用运维工作往左移。开发人员可以低门槛的观测啊应用运行的状态,进行扩缩容。监控日志的报警等各种配置啊,也完成整个应用的生命周期的管理。最后,我们还期望能够提供模板化的产品与能力,让AI、视频、虚拟仿真等天然技术为每个开发者所用。
12:06
数字技术也正在发生巨大的变革。音视频已经成为新一代人机交互的新语言。新式。我们向计算机输入的信息内容从过去以文字、图片拓展为今天,声音、动作也越来越符合人体自然感官的这个习惯。创造的可能性也更多。AI通过革新运算处理,也成为无所不在的数据驱动力。将很多过去高度依赖人工的重复性工作,通过建立模型进行了自动化的处理。但这些技术门槛较高,从零到一的搭建耗费大量的时间和成本。现在我们把多年积累的AI音视频技术能力模块化。
13:03
放到腾讯云上,让开发者可以很方便的去调用。例如,我们将支撑腾讯会议的音视频能力封装成为腾讯云的势立方音视频终端SDK,让开发者可以一键集成快速稳定的视频直播的能力。以我们的合作伙伴小鹅通为例,这是一款及品牌营销、知识、产品交付、用户管理等为一体的数字化工具。拥有百万级的客户。也借助腾讯云,四立方。小鹅通只需要一个SDK,一套接口,就能够拥有全站的视频需求的能力。投入的成本也缩减了2/3。接下来的议程。我们的同事也会将大家介绍更多腾讯云的产品与工具。
14:03
例如机器学习平台腾讯云T平台的公有云版本,也会让个人开发者能够用数据训练来得到自己的AI模型。创新突破、开源共享、求进务实。使开发者的精神。同样的,也是腾讯人一直的坚持。我们相信代码能够传递思想,技术可以创造未来。在过去20年里,腾讯在全球主要国家跟地区申请的专利数量超过了55000件。授权的数量也超过25000件。是国内互联网公司最多的,在全球也仅次于Google。在开源方面,我们在GI上贡献了超过140个项目,贡献者的人数也超过了3000名。
15:00
获得全球的大的数量也超过了40万。在数十一体的新世界建设中。代码是基础的建筑材料,开发者是最重要的建筑师。未来,腾讯也将持续贡献自己的能力,探索前沿的技术,做好工具和产品,助力开发者用的好,迭代更优,创新更前沿。一起携手逐梦云端,谢谢大家。尊敬的各位嘉宾、各位同仁、开发者朋友们,大家好。
16:02
我是来自腾讯云太平台的李世平。今天非常高兴能够通过Taco day向大家介绍我们全新升级的太平台公有云版本。AI作为下一个十年最核心的科技手段之一,正在加速渗透到各行各业。AI应用在各个行业蓬勃发展。比如在泛户领域的推荐、广告等场景。政务领域的智慧化城市运营管理。医疗领域的疾病辅助诊断等等。每个AI应用的建设都离不开数据、算法、算力三个要素。要有效的组织这三个AR要素,需要付出大量的工程手段。而AR开发服务平台能帮助AI应用的开发者们大大简化工程上的研发投入。将精力聚焦在业务本身,从而大大提高AI应用的开发效率。
17:01
腾讯云钛平台就是这么一款帮助提升AI应用开发效率的一站式AR开发服务平台。今天我们在这里发布全新升级的腾讯云太平台公有云版。腾讯云太平台是基于腾讯先进AI能力和多年技术经验,面向开发者、政企提供的一站式AR开发服务平台。帮助用户快速创建和部署AR应用。管理全生命周期的AI解决方案。腾讯云太平台系列产品支持公有云访问、私有化部署以及专有云部署。今天我们全新发布的太平台公有云版,具备五大技术优势。分别是性能强大。兼容性高。智慧、灵活。使用门槛低以及管理高效。太ACC是本次太平台全新升级发布的重磅功能。
18:03
它支持大规模的训练和推理加速。其性能强大。全新升级的太平台,支持各类训练框架和分布式训练工具。能够构建、发布和管理各类模型格式,兼容性高。太平台公有云版支持预付费和后付费两种计费模式。能满足用户弹性扩松容的需求。根据业务规模随时调减资源规模,计费灵活。太平台提供了丰富的算法框架和预制算法模型。大大降低了AI应用的开发门槛。平台在MLOPS上提供了标准化的模型开发、部署以及运维工具。从而实现高效的AI开发和运维管理。太平台作为一站式AI开发服务平台,可以帮助各行各业实现降本增效。
19:05
AI应用的开发通常包含数据接入、数据处理、模型训练、模型服务四个环节。太平台在每个环节都提供了一系列的工具,帮助开发者提升开发效率。比如在数据接入环节。太平台支持各类主流的结构化和非结构化的数据接入。同时提供成上分离的计算框架。能将数据接入周期缩短80%。在数据处理环节,太平台提供了丰富的图像标注工具。同时支持智能标注和数据增强。可以将标注成本降低70%。在模型训练环节,太平台针对不同技术背景的开发者提供了多种训练建模工具。包括低门槛的自动学习工具。
20:00
方便即时调试的notebook工具。以及任务是建模工具。同时,太平台提供的模型评测工具能帮助开发者更有效的进行模型迭代优化。在模型服务环节。太平台提供模型管理。服务管理。弹性服务、定时调度等功能。本次太平台公有云版全新升级的重磅功能是太ACC训练加速和推力加速功能。下面将展开跟大家介绍。企业在AI加速的训练和推理上都有明确的痛点和需求。首先,在训练上,随着AI应用场景和要处理的数据量越来越大。同时,模型网络结构的复杂度越来越高。导致模型的训练周期越来越长。复杂模型训练周期往往持续一到两周。严重影响了模型产出的效率。
21:02
TACC训练加速就是基于模型精度不下降的前提下,提升模型的产出效率。其次,在推理上。AI应用的业务规模越来越大,需要支撑的GPU资源也越来越大。目前GPU的卡成本还是非常昂贵的。推力加速就是在不影响预测精度的前提下,降低资源占用率,从而为企业降低成本。目前市面上虽然有一些开源的推力加速框架,但效果一般,使用上也不便捷。而TACC推理加速在加速效果和使用便捷性上都有明显的优势。派ACC依托优图实验室在CV领域以及外部推荐项目中的打磨沉淀。在产品能力上。能支持主流的训练框架和分布式训练工具。同时包含了丰富的加速优化手段。
22:01
加速效果,UE。通常,原生训练框架能提升30%以上的训练性能。表中有两组测试数据,比如CV领域的经典的T50模型。原生拍套式训练框架在V100卡上,训练速度是每秒处理70.8个样本。而我们的太ACC能提速到379个样本。提升的训练速度达四倍多。再比如推荐领域常见的wide deep模型。原生的训练框架在V100卡上的训练速度是每秒处理59.5个样本。而我们的太CC能提速到124个样本。训练速度比原生框架快了一倍。派ACC推理加速的产品表现同样非常优异。在产品能力上,除了可以支持主流的各类模型格式,同时也包含了丰富的推理加速优化手段。
23:06
加速效果上同样表现优异。相比原始模型。推力加速比通常达到两倍以上。通过表格中的几组测试数据,我们可以看到。拍ACC。对于经典的五零模型。优图内部的S模型。Fashion transformer模型。以及常用于商品识别的GCN模型。在推力、加速上都有优异的表现。加速比在两倍到六倍之间不等。下面我们讲一个实际的落地案例。我们这个客户是做商品识别的RV厂商。他们采用的是two的商品识别模型。该模型在商品识别精度上效果优异。但对于推理的性能要求也比较高。
24:01
随着业务规模的扩大。该客户在推理上的GPU卡资源投入成本越来越高。厦门的诉求非常强烈。基于太ACC在CV领域的长期沉淀。我们仅用了半天时间就完成了该项目的POC。却取得了近两倍的加速效果。客户将TACC加速优化后的模型部署到生产环境,提升了45%的服务QPS。大大降低了起云资源的成本支出。TAC除了优异的加速效果,在使用上也非常便捷。对于训练加速,开发者只需要增加一到两行的代码,即可实现各种建模方式的训练加速。对于推理加速,只要在太平台的模型优化板块。新建优化任务,即可生成加速优化后的新模型。
25:01
太ACC还在持续的迭代优化。未来将支持更广泛的训练框架和模型格式。以上就是全新升级的太平台公有云版本的介绍。这次升级的重磅功能是派ACC训练和推理加速。希望通过太平台能帮助更多企业提高AI开发效率,实现降本增效。谢谢大家。大家好,我是腾讯云的柳四川。今天由我给大家。介绍腾讯云室内方播放器SDK的一个发布。
26:01
移动互联网数十年的一个发展,当前咱们已经进入了全镇互联的一个时代。从以前的图文消费,已经开始转变到音视频的一个内容消费。在音视频的这样一个内容消费,每天的消费里面,我们可以去到很多一个内容平台去观看费子流,或者是说我们可以去到类似像斗鱼、虎牙这样一些游戏直播,或者一些秀场直播,去看一些更多好玩的东西。另外我们在教育行业也可以去针对小朋友去做更多的一些直播互动。基于整个音视频发展的一个趋势,腾讯视频云做了一系列的一个解决方案。其中在终端,我们提供了腾讯立方终端OSDK的一个解决方案,它能够让客户一次性接入就能够快速具备音视频的一个核心能力。而播放JSDK作为核心第一入口。它需要提供更。
27:04
加完善的一个能力。播放器。作为核心的第一入口。它随着业务的一个发展,它已经不只是单纯需要播放,而是变成需要处理一系列复杂业务逻辑的一个小的系统。首先它需要去解决掉整个功能的一个完整性的能力。类似于像啊播放视频的一些试看,或者是字幕支持,或者一些快速播放的一些能力。包括像在直播领域一些11播放。或者是说一些弹幕的一些能力。除了这个基础能力之外的话呢,我们也需要去关注到它的一些核心播放的性能能不能满足要求,比如说它的一个核心的一些内存的一个占用,或者说它的一个稳定性。还有包括他一些功耗,是不是能够做到足够的优秀。
28:01
另外它的一个接触的一些成本,包体的大小,都是我们需要去重点考虑的一些问题。另外我们有没有一些更加创新的一些技术,能够帮助企业去做一些更加增值的一些服务?为此,我们基于腾讯视频同款内核,打造了业界领先的播放器SDK。这个SDK里面,我们去能够在功能上完全覆盖掉长短视频,包括直播领域的一些功能的这个支撑。另外我们也去自研了领先的自适马力的技术。它可以解决掉复杂网络底下。多码率的一个获取技术,保证在不同的一个手机,不同一个网络环境底下,也能够有一个极致的一个观看体验。另外在画质的一个方面,我们支持腾讯视频,正在试听HDRDR这样一些高清的模式,能够在手机上也能够有影院的一个体验。
29:05
版权保护方面,我们除了传统的一些防盗链的这些基础知识之外,我们也自研了一个私有DM的一个方案,它可以更轻量的去解决掉安全保护的这样一个核心诉求,能够让类似像教育付费的这样一些行业有更多的一个技术的一个支持。在性能稳定性方面,我们通过一级用户的一个核心验证我们在核心的解码器解码性能,然后在核心的一个网络下载上面对比。系统播放器的一些性能,我们有50%以上的晋升。另外我们在核心的一个秒开技术上面来看,我们在视频的一个核心优化里面,我们可以做到低值100毫秒的一个秒开的一个速度,它是远远低于市面上当前主流的一个起波的一个效率。同时,我们也适配了市面上主流的协议格式。
30:00
我们在自建的一个样片库的播放成功率,我们可以达到一个100%的播放,可以覆盖到市面上所有的一个播放场景。另外我们也提供了一个多平台的支撑,帮助企业APP能够快速部署到多种的一个环境里面去。除了这些基础能力之外,我们也去为客户做了一些降本增效的一些能力。在协议格式里面,我们支持VH6一些新的格式,它在对于老的H6264265这样一些格式来看,它会有一个大一个压缩比的提升。从而能够去帮助客户在音视频部署里面去有一个极大的一个传输效率和提升,另外我们在播放的体验里面。AV0266已经可以达到一个完全商业的一个阶段。另外我们基于腾讯资源AI的一些能力,我们也提供一个终端极速高清的一个能力。他可以在终端把类似比如说480P的这样一个。
31:03
视频可以去做到一个接近720P的一个播放体验。那通过这样一些方式,我们就可以极大的去压缩音视频传输链路的一个成本消耗,达到为企业降本增效的一个目标。这些能力都非常的优秀,那么我们怎么样能够快速的去把它接入进来,首先我们去提供了一些场景化的一个低代码的方案。基于我们的一个SDK的一个全接口的一个实现,我们做了一个全场景最佳的一个实现,通过这个一个实现的话呢,客户可以在一天里面去完成这样一个快速的接入,达到一个客户场景的一个最佳的一个实现。另外我们也把整个的一个播放内核做了一个插件化的一个实现。我们把基础的一个播放能力跟我们的一个内核去做了一个插件解耦,把一些增值能力去做一个独立的一个一个拆分,那么这样客户就可以根据他的一个需求。
32:05
按需接入。呃,相关的一些插件,达到一个最小的包体的一个目标。另外我们也提供了全年度的一个数据监控能力,通过对数据的一些买点,我们可以对数据统计、质量监控做可视化的一个报表,呈现在这个可视化报表里面,我们可以去针对一些播放行为,比如说像一些播放热门,或者说不同的区域的播放一些行为去做一个更好的分析。从而有效的指导运营的策略。驱动业务整体的一个增长。那么这么一些好的一个SDK,其实你只需要每个一元就可以拥有这个SDK。期待您的使用,谢谢。
33:12
大家好,我是海狸,来自腾讯云codings团队,今天非常荣幸给大家介绍coding面向云原生应用推出的全新产品orbit。近两年,云原生技术正在颠覆传统应用的交付和运维。如今有数百万的开发者使用docker技术构建可以在不同操作系统移植的应用。使用cooper编排容器,应用的运行时,Cooper面向中态的API设计大大降低了应用的运维难度。随着云原生技术的不断成熟,越来越多的企业运用云原生技术应对市场的挑战。如今,市场的不确定性要求企业的应用和基础设施变得更加敏捷,为服务、为应用的独立交付和独立部署提供了架构支持,库和容器技术则抹平了基础设施之间的差异。为应用持续交互提供了理论和工具,支持企业运用上述云原生技术高频次、大规模的发布云原生应用,应对市场的不确定性。在这个背景下,云原生开发者的职能边界正在被重塑,传统运维的应用交付和应用运维工作正在左移至开发,而传统运维的基础设施运维工作正右移致云厂商。
34:19
应用交付和运维左移式研发大大增加了开发者的心智负担,开发者要直接面对很多业务以外的复杂性,在应用开发、交付和运维都有很多新知识、新工具、新技能需要学习,并且在这个新智负担还会随着业务增长,随着云原生社区的不断发展而一直增加,直到研发的新智不堪重负,导致研发产能出现断崖式的下降。口令团队在服务企业营销治理的过程中观察到企业上云普遍存在的一些挑战。首先是人员,是应用开发环节的挑战。企业应用交付通常需要在多个环境进行验证,环境之间的基础设施一致性有助于提高应用交付的成功率。因此,容器化应用通常会采用和生产环境一致的基础设施来搭建开发环境,这使得coscksh等云原生技术渗透到了研发环节。
35:13
开发人员不得不花费较大的精力去学习。和业务关联不大的。云原生技术极大的增加了开发者的心智负担。另外,可历史对于开发环节来说过于笨重,开发人员需要花费数小时准备开发环境,应用启动也可能需要花费数分钟的时间,而非容器应用开发一行代码立刻启动应用进行调试,容器应用开发效率反而不如非容器应用。大家可以看到图上2017年CNCF的云原生技术占全景图和2022年的对比,CF官方项目正在快速的发展,不断扩展的云原生项目又进一步扩大了云原生开发的复杂性,开发者想要拥抱云原生的技术红利,就不得不持续的学习可及其生态。然而开发者的心智负担是有极限的,随着云原生技术在复杂性不断扩大,开发者的心智将会超过负载,研发的产能不增反降。
36:05
第二个挑战是发布时的效率低,可靠性低。企业在做云延伸也通常伴随着微服务架构演进。微服务架构的好处已经被广泛的证明,这里就不再赘述了。而微服务所带来的问题是,应用发布的复杂性会大大增加,每个服务都有自己的数据库,有自己的配置,有自己的镜像,在应用交付左移的趋势下。开发们开始自主的进行发布,但是开发者很快又会发现,在缺乏完善的工具支撑的情况下,根本无法保障发布的安全性、效率。开发者凭借记忆、收据发布、物料发布一次就要忙活一整天,还要经常导致服务的漏发、配置漂移等引发线上故障的问题。开发办也缺乏发布经验,诸如灰度、蓝绿等保障线上服务质量的手段也都只是无法落地的概念,发布的效率和可靠性较难得到保障。第三个挑战是应用运维的工具割裂和视角割裂。我们知道,故障修复的时间和用户的满意度息息相关,随着修复故障时间的流逝,用户的满意度逐步的降低,直到达到一个临界点,用户的满意度呈现断崖式的下降。而原生应用的复杂性,微服务数量的庞大导致了调用量很长,在不具备应用端到端的可观测能力下,快速定位调用链中的故障将会变得非常困难,企业SLA的服务指标也难以得到保障。另一个问题是传统的可观测工具建设普遍是资源视角。
37:30
而研发是业务视角,两者之间的信息架构存在天然的割裂,研发在定位问题的过程中需要脑补信息架构之间的差异,严重影响排档效率。传统可观测工具的建设存在工具工的孤岛和视角割裂的两个问题,监控日志调用链追踪是独立的工具,工具之间缺少有效的信息串联,研发定位问题需要在多个工具之间跳转,同样影响排档效率。不同环境下的可观。测工具还不一致。这就是研发工具的学习成本以及心智负担也比较高。
38:03
想要应对前面提到的种种挑战,需要有良好的方法论和工具来支撑。云人生社区也陆续涌现了诸如OM gets open等优秀的方法论,行业里也随时出现了实现这些方法论的工具。这些工具解决开发者的一些问题,却都没有办法很好很全面的去应对整个研发交付和运维中不断增加的心智负担。研发需要去学习和维护这些工具,这反而又带来了额外的心智负担。为了更好的服务企业应用人员生化赋能开发者职能转型,Holding持续部署产品全新升级,推出了一站式人员升应用生命周期管理工具orbit,为企业提供降低应用原生化门槛提高。应用交付、效率、可靠性、研发、高效自助是运维三重价值。现在我们来具体介绍一下在R中我们是怎么解决之前所提到的种种挑战的。在office中,我们使用视角分离的方式来解决原生的、复杂性的问题。具体来说,运务人员通过模板去封装Co的规范,通过插件去封装Co和CNCF社区的种种扩展能力。
39:08
就算把cooper和社区的各种扩展能力变成一个积木,同时奥提供了内置的服务模板和运营插件,封装了常用的资源对象和CNCF核心领域的热门插件,大幅降低企业接入CNCF官方生态的门槛,因为人员还可以借助orbit规定生产环境必须开启探针V要关闭等插件来落地民生规范。研发人员可以通过引用这些模板和插件,填上少量和业务相关的参数,就可以完成云原生应用的改造。设备上云原生社区的最新能力我们是基于OM这套开源的应用建模规范去定义我们的应用的。通过OM这种把cooper历史能力模块化,比起直接做cooper图形化控制台的优势是OM的方式有非常好的扩展性。如果你的团队在用一个控制台,没有支持的社区能力,就只能给平台提需求的平台支持。而OM的方式是你可以把这个社区的能力封装成一个插件,一小段压某就可以对平台进行扩展。例如说在前面的故事中,企业决定要推动一个云原生。
40:10
新的能力落地不再需要等平台支持,可以自己动手扩展出这个插件,这个时候研发人员再去接入这种新的云原生能力,就会保持一个非常低的门槛,填几个参数就可以了。对于发布效率和可靠性的挑战,奥的解决方案是all one的变更引擎和自动简配研发只需要专注于写代码,Orbi会通过监听视频库和代码仓库自动简配应用未发布的制品配置和S变更。随后这些应用的变更物料会被我们o one的发布引擎原子化、版本化的发布到多个环境中,保障了多环境发布的一致性、可靠性。提高了混合云发布的自动化水平,解放了研发手动发布的精力消耗。同时二也可以基于版本进行原子化的回滚。奥基于腾讯云的大规模的容器的发布的经验,抽象了产品化的分批部署灰度蓝绿军事确的发布策略,当部署被取消后的引发故障失败后,引擎会自动把环境回滚到发布之前,减少故障时间。用户仅需表单化的配置发布策略,即可在发布流水线中应用灰度蓝绿军事确的发布策略,有效的提高发布的可靠性,降低发布引发的生产故障。
41:18
二支持可视化的部署流程编排,可以灵活的编排多环境、多地域的发布,发布过程一目了然,并且支持在发布的过程中进行暂停、取消的人工记录操作,发布过程中开发才可以直观的观察到当前应用服务的健康程度,支持一键跳转查看该服务的日志,监控事件,为发布过程提供较好的可观的性,提高了发布的成功率。面对视角割裂和工具割裂的可观测性问题,二被推出了以应用为中心混合云统一观测平面的能力,涵盖了日常排障场景中发现问题、定位问题、解决问题的核心工具,包括监控、告警、链路追踪以及日志,并且打破了各个工具之间的信息屏障,通过垂ID将原本零散的信息建立关联,同时抹平的不同环境之间的工具差异,建立了以应用为中心服务研发视角的一体化观测工具,同时自研的服务也统一了各类可观测工具的数据标准,实现了可观测工具的可插拔性以及可扩展性,用户可自由选择2B官方支持的可观测工具,也可以自定义扩展其他可观测工具。
42:24
目前,奥B开源生态兼容上支持了普罗米修斯、lock sky king等主流开源观测产品,同时为了保障用户在生态环境上观测工具的可靠性。奥比联合腾讯云监控、APM以及日志服务等观测产品,为腾讯用户打造一体化的观测体验。接下来是一段or统一可观测平面的演示视频,用户进入到某个应用的环境页面后,可以在监控页签中看到OB内置的应用监控和服务监控,同时针对服务资源提供的告警的能力。点击服务名进入到服务视角的监控面板内置的语言指标和资源指标,用户可以在这个面板添加服务的业务指标中。
43:05
实现服务的多维度监控。另外,奥比还提供了自定义监控的能力,可以根据业务场景设置不同的监控图表,并且可以和自定义变量配合使用,达到精准监控的目的。来到链路追踪页面,我们筛选出服务状态失败的测试列表,点开一个即可看到测详情。根据鸟瞰图,可以快速找出被定位到出错的查看出的span的详细信息以及上下游信息。最后还可以通过一键查询与当前链路相关的日志信息,从日志角度复盘整整条调用的链路,从而定位问题所在,提高故障的排障效率。奥比斯在库之上构建的应用全生命周期管理平台得于库优秀的架构设计。奥比参考了库架构,取长补短,采用了更为轻朗的架构模式,灵活整合资源。我们在客户的集群中采用了c RD operator的设计,这样可以在部署不受网络质量的干扰,也打通了内网机群,用户的集群不再需要再开放API server等外网访问即可被托管,更加安全可靠。客户端的operator一方面会去进行gets的部署操作,另另外一方面也会使用adapt模式,支持各种各样的可观测底升工具,并且支持用户基于统一的标准进行自行扩展。
44:22
OK,今天的发布就到这里,感谢大家的观看,期待腾讯云2B能给云原生开发者带来全新的应用管理体验,助力开发者轻松拥抱云原生的技术红利。大家好,我是腾讯云数据仓库负责人马文博。腾讯云数据仓库是腾讯云重点打造的一系列企业级全托管型云数仓产品,包括有click house post circle和for阿帕及DORIS3个产品。
45:13
兼备超高性能、高性价比、稳定性、安全性、简单应用的同时,提供高效的自主运维工具和自主开发环境等配套设施,满足用户不同业务数据仓库场景的方案选型。提升用户分析查询效率,赋能用户数据价值。今天很高兴和大家分享腾讯云CDWC在海量数据实时分析场景下的极速体验。首先我们看一下云上企业大数据分析应用技术架构的发展与趋势,传统的海多普生态体系经历了这么多年的发展,存在的挑战是非常明显的。
46:00
因其架构臃肿给系统维护带来了很大的困难。众多的组件。导致时效性不强,同时成本比较高,而且流批不是一体的。我们发现简单易用的云数据仓库受到越来越多的云上企业的青睐,他们更倾向于用云数据仓库来完成海量数据的实时分析。Click house就是近些年非常火热的一款仓产品,它拥有非常出色的性能表现,相比海杜生态体系有高达甚至百倍的性能提升。同时拥有极高的性价比,因此非常适合企业做海量数据的实时分析。但是随着越来越多的企业自建使用click house,我们也经常听到来自客户的真实的声音。click house的痛点也是很明显的,比如扩缩容之后,数据是不均衡的,缺乏企业级特性的支撑。
47:06
导致自建运维难度很大。另外由于对clickhouse不够系统和深入的了解,缺乏实践经验的,导致使用它的时候性能并没有达到最优,而且也经常出现稳定性的问题。为了更好的解决用户提到的这些痛点问题,我们在腾讯云上拉起了c DW click这款全托管的仓产品。它定位于为客户提供低成本、高吞吐写入百亿规模毫秒级的分析服务,它可以以超低的成本为用户提供极致的分析性能。有企业及稳定的内核和配套功能,我们有针对性的根据不同客户在自建中遇到的常见问题,提供了一系列企业级功能,让其更加简单易用。
48:04
同时,我们有完整的运维体系和领域专家的全面支持,为用户的业务保驾护航。另外,C DW click house在集群的可靠性、计算节点类型、存储类型为用户提供了非常丰富的选择,可以很好的服务于各种广泛的业务场景。接下来我们看一下QQ音乐是如何在c DW click上解决数据分析的痛点问题的。QQ音乐大家都不陌生,在国内为用户提供领先的音乐流媒体的优质服务的背后,是每天万亿级新增数据,PB级的数据分析服务。QQ音乐最早也在使用have做大数据分析,但随着业务的发展,对于数据分析的时效性、效率要求越来越高,Have。
49:06
逐渐显现出在时效性、易用性、流程效率上的问题。后面,QQ音乐开始摸索自建clickhouse。但因其稳定性、性能、运维等因素放弃自建,最终基于c DW click搭建了高可用、低延时的实时分析计算可视化平台。支撑着日增万亿记录。整体秒级实时分析的业务。Cdw house帮助QQ音乐大幅提升了。实时数据日接入能力达到了四万亿以上。实时链路平均延时缩短在十秒内,大幅提升了数据分析的时效性。帮助QQ音乐。
50:00
搭建基础实时数据敏捷分析平台,实现了自助o lap分析。在这里我们也进一步回顾一下QQ音乐在自建c house上遇到的问题,上面提到的自建最大的痛点,扩缩容后数据不均衡。那其实用过c house的朋友们都知道,原生的house集群水平扩容仅仅是增加新的空白节点,新增节点上既没有集群的源数据,也没有数据。需要用户一个一个节点连上去,手动创建原数据。大家想一下,如果集群中有很多张表,那么这个重建原数据的工作量是比较大的。QQ音乐当时每次扩容后都要在新的节点上去跑脚本,重建源数据,费时费力,同时因为已有数据没有被重分布到新的节点上,新的节点没有办法分担集群的计算压力,没有真正起到扩容提升基金算力的作用。
51:11
那典型高阶用户的解法是通过提高新节点的写入权重,引导新的写入数据全部打到新的节点上,直到集群中每一个节点上的数据大小一致以后,再重新改回权重,从而最终实现各个节点之间数据大小的平衡。这个方案虽然可以解决数据大小均衡的问题。但是。显然不是很方便,人工干预成本很高。同时还有另一个影响性能的问题就是这个方案无法保证数据按照沙丁key方式对齐,也就不能保证多表之间的call join。从而大大影响相关查询的性能。但是如果按照杀菌T对齐,需要重写全部数据,整个过程不可避免的要停读停写,这对于用户业务上来讲是不可接受的。
52:13
那我们来看看QQ音乐在c DW click上是如何解决这些问题的。首先,在扩容后,CDW会自动同步数据到新增节点。省去了用户手动创建原数据的操作。同时提供了方便灵活的方式,让用户随时发起数据重分布。白屏化操作可以让用户根据不同的业务场景选择不同的。策略异步的把数据打散到所有的节点上,在重分布的方式啊,我们提供了按part和REARING2种不同的方式,分别应对只关注数据大小和沙丁T对齐的两种不同层面的re balance。
53:02
更重要的是,我们提供了最细力度的控制,让用户可以按照partition为单位做重分布。这在带重分布的表非常大的时候是非常有用的,因为大数据量的表重分布的时间会很长。按最细力度partition来做,可以保证业务读写不受影响。另外,用户可以随时直观查看重分布任务的进度,包括平均速度、剩余大小。等信息,根据业务情况实时做流量控制,加快或减慢重分布的速度,甚至取消任务。QQ音乐在CDW可以耗上,可以做到非常方便的按需扩容,随时根据业务按需发起处理重分布,在对上层业务无感的情况下,保证了杀丁T的对齐方式,提升了查询的性能。最后我们看看微信这款国民级的应用是如何借助c DW clickhouse应对好海量多样化的业务形态,对。
54:11
数据分析提出的新挑战的。其实早在2020年底的时候,因为繁荣的海多的生态体系,微信也开始。探索自建click house方案。在小规模应用click house后,遇到了很多自建的问题,比如JK瓶颈频繁,OM to part。慢查询、拖死、DDL卡死、数据不一致等稳定性问题,还有数据接入慢等问题。发现用不好的,可其实并没有那么快。于是,在2021年,微信决定放弃自建,选择了CDW。稳定性和性能得到了巨幅提升,同时也迎来了用量的爆发期。
55:01
在BI分析看板这里,单表万亿级,多表join从小十级降到了五秒内。AB实验平台业务大表,实时join单表日增千亿条,95%的查询三秒内返回性能有50倍的提升。实时特指计算全链路延时在三秒内,95%的查询在一秒内返回,单次查询扫描量在数十亿。Cdw house帮助微信让数据决策更迅速、商业反应更敏捷、实验结论更准确、周期更短。模型验证更快。现在微信在CW上整体集群的规模达到了千台,总数据量60PB。单集群每天六千万次的。查询量平均1.5秒的响应时间,整体表现比海集群最大性能提升了百倍。
56:02
在爆发期中,我们随着微信分析业务的快速增长也发现了一些问题。我们在探索如何解决微信数据分析中的计算资源峰谷需求的问题,如何快速增加算力,扛过业务洪峰的同时,能够在业务低峰期减少算力,帮助微信降成本。如何能够让微信的临时的或突发的计算任务不去占用固定的、重要的任务的资源?我们基于云的基础设施对CDW进行架构和能力的升级,在2002年实现了突破。Cdw house云原生版采用存算分离的架构,我们在相比开源版没有性能损失的前提下,实现了秒级的弹性能力,100TB数据弹起一个计算节点,在30秒内完成数据自动均衡。
57:04
节点进入最好的查询状态。依托共享的资源池,可以根据业务灵活的定义不同的计算资源组来实现数据分析的隔离,从而大幅提高了稳定性。同时,秒级的弹性能力可以迅速拉起计算节点,轻松应对业务的洪峰。分时弹性可以让微信的分析成本在高峰期更高,成本在低峰期更低。微信数据分析团队基于CDW打造的实时数仓平台。完美的支撑着微信上包括视频号、直播、朋友圈、公众号、小程序、支付、搜一搜等在内的所有重要应用的后台数据分析服务。腾讯云c DW k house专注打造极致性能。高性价比、简单易用、稳定可靠的产品体验,在海量数据分析场景下,让用户简单轻松的完成对数据的实时查询分析,提升数据价值挖掘的整体效率。
58:14
好。感谢大家的观看。大家好,我是腾讯云音视频应用产品总经理田超,很高兴今天能够和关心腾讯云音视频技术的朋友们聊一下我们最新的一些进展。我们在VT云点播这个产品的基础之上,做了一个全新的产品,也就是云创2.0SS这个产品。为视频用户带来了全新的视频生产的新方式。腾讯云vod是依托于腾讯音视频技术平台的视频点播服务,为客户提供简单易用的云端视频播放一体化解决方案。
59:09
感谢过去我们所有客户的支持,经过八年的发展,腾讯云vod已经成为了行业第一的视频解决方案。八年间,我们已经服务了超过50万的To B,呃,客户,当前视频的存储的数量也超过了200亿条。很高兴我们的产品伴随着众多的客户过去的成长与发展,为用户提供增量价值也是我们一项的产品的理念。我们在过去一年中深度访谈了很多vod的用户,视频内容已经逐步成为了企业最重要的数字资产。我们发现了一个行业的规律,也就是对广大的中小企业用户来说,视频生产本身成本越来越贵。在我们的统计下,一条视频生产的成本对比存储播放的技术成本来说,可以达到16 : 1。这也就是说,我们每消耗一块钱的VG的成本,企业要花16块的生产成本去生产对应的内容。
60:04
因此,视频生产也就成为了我们要为vod客户解决的重要的问题。我们从二一年下半年开始开发了腾讯原创这个产品,专门定位于解决广大中小企业视频生产的问题。针对视频生产,支持团队审片、在线剪辑、多路直播、媒资存储等视频生产全链路的服务。原创经过一年多的时间,现已服务超过500个企业级的用户,累计服务用户超过20万,我们今天正式发布了腾讯云云创2.0这个产品,实现了。啊与腾讯云VD的打通。原有vod的用户可以通过云创平台基于SARS方式管理自己的视频,可以直接使用云创,构建起来一站式的全链路视频生产运营平台。不需要额外的开发,就可以拥有一个全功能、行业一流的且一直在持续演进迭代的视频生产运营SaaS中台。
61:03
原创2.0都有哪些功能呢?我们会分为四个大的产品能力板块,首先是视频生产。我们提供智能标签、视频精准搜索、视频模板编辑、直播快剪等能力,可以帮助企业构建起来智能的生产平台,提升视频制作和存储的效率。除了基础的视频生产管理外,我们发现视频的审核与协作也是一个行业的痛点。视频内容的安全保证可以说越来越重要,因此我们提供了视频的在线审核模块,其中包含视频审核、异地协作、小程序审核等等能力。可以帮助企业快速的一键构建完整且高效的在线视频审核与协作工作流。数据能力已经成为了短视频平台最重要的运营能力,点击率、完播率、VV时长等数据都是短视频运营的基础。云创2.0平台的运营模块也使得vod的短视频运营能力得到了大幅度的增强。
62:05
视频运营数据报表、视频链路追踪、视频排行榜,可以帮助企业实现和腾讯一样的数据分析运营能力。最后,我们还在云创平台上上线了AI处理模块。我们在第一期提供了高清修复画质增强智能语音字幕等AI能力。后续我们会在这个模块里持续集成腾讯公司的呃AI能力,帮助接入的企业能够持续获得腾讯最新的视频AI研究成果和最佳实践。非常感谢大家能够参加今天的活动,腾讯云音视频团队非常感谢过去所有客户的帮助,因此我们今天趁着Taco day特别提供了100个云创2.0阿尔法版免费的企业账号,欢迎大家扫码参与,也欢迎大家多为云创提意见。谢谢大家。
63:21
呃,大家好,我是来自于腾讯云物联网团队的周嘉欣,然后继去年给大家推出了物联网连接与应用平台LTW后呢,其实今年我们更多给大家推出一个物联网的分析型产品,物联网设备分析LT inside,那这个产品其实也是在过去两年的时间内,我们的很多这种企业客户,包括生产制造的这种客户,给我们反馈他们的很多一些生产型方面的一些需求,那这些需求呢,就是会包括怎么去提高,特别是针对一些制造业的一些企业去做一些日常的运营管理。
64:01
的一些。需求,那也包括从比如说产线上的,包括像一些呃设备维度,怎么去提高整个产线业务的一些协同,最后还有一点呢,就是从能耗管控上,怎么去更好的去实现这个双碳的目标,那我们今年也在整一个LT平台里面去融合大家的需求,提供更多的以整个应用开发的一个工具给到大家。那整个L呢,它在设备接入的部分呢,是支持这种购呃协议的接入的,那其中很主要是有几大板块,一个呢,就是在设备资产建模的部分,我们是支持整个结构化数据跟非结构化数据的一个建模,然后在分析的部分呢,这里面会包括一个指标计算,就是资产计算的部分,会有实时离线时序的那种分析,那同时我们也会提供大量的一些异常检测的一些算法。去满足整个分析过程的一些需求,那同时呢,也开放了整个底层的API的接口,去满足我们的客户去把。
65:08
数据跟他们自身的一个业务管理系统上面去做整合,那整个LT赛的产品呢,会应用在呃以下四个应用场景,一个呢就是从生产效率上来看,怎么做实施OE的管理,怎么做这种生产KPI的监控,怎么做这种设备本身的异常检测跟预测性维护啊,那另外还有就是怎么去满足这种呃生产制造企业的这种节能检碳的监控,以及啊整个能耗分布监控的这种需求,最后一个呢,就是针对一些SSPC的一些分析,还有一些相关性的,比如说工艺参数啊,设备参数的一些分析调优。回到整一个LT inside的产品能上来看呢,其中第一块呢,就是做资产建模,那这里的资产建模的理解呢,其实就是说我怎么把真实的一个工厂、产线、设备,包括一些业务对应回我们在呃数字。
66:07
平台里面的一个资产的实例化,那这个呢,在整个LT平台里面是提供对应的模板跟对应的一个建模的一套工具,去满足大家做这一部分的能力。第二个呢,就是说我在资产模型的过程中呢,需要对一些资产做一些持续数据的一些分析,那在整个平台l inside的整个产品里面呢,也是提供到整个持续分析的一些能力,包括一些分析指标的一些监控啊,那同时呢,也会有啊很多反馈说我们需需要去做一些异常检测,那包括一些数据,呃,设备的数据的分析,持续数据的处理跟一些检测的算法,那怎么把这些能力融合在一起,那整个平台里面也是做了大量的一个上层的应用的一个整合。第三个呢,就是我们在做整个客户的项目,或者客户的需求的时候呢,我们其实会发现有离线分析这样的需求,特别是针对什么样的数据,我们要去做离线分析,把什么样的数据去整合在一起,那离线分析之后呢,客户更多要的是什么?其实就是无外乎我们总结下来无外乎就是报表,我每天,每月甚至是到每个季度的一个报表,还有一个就是我的生产流程中有哪些故障分析的一些结论。第三个呢,就是我产能,我怎么优化我的生产配置,还有一点呢,就是我对能耗怎么进行监控,那其实我们发现其实在做这些项目下来之后呢,其实离线分析更多用在这四个场景下面去,这一块更多体现是说我怎么去做一些离线数据的分析,那我们在整个LT inside产品里面也是提供这个维度的一个计算的能力。
67:55
那回到刚刚提到说我们有持续数据分析的能力,有离线计算分析的一些能力,那其实也会有一部分客户去反馈说我怎么从真实在生产线上的数据去做数据源的提取,再到数据的过滤、清洗、分类,到最后的数据存储跟呈现,那这个呢,就是在LT inside平台会给大家提供的整一个。
68:21
实时数据的一个工具,那这些工具里面呢,我们会提供大量不同的一些转换的一些函数啊,甚至一些聚合的一些算法,去满足我们的客户的需求,刚刚提到有一个呈现的环节,那我们也是会提供在平台里面对应的大量的这种设备,仪表盘,还有工业的主态的这种能力,甚至是一些驾驶舱的一些模板也在平台里面去提供。最后讲一下就是过去两年的时间呢,我们做的一些典型的案例吧,一个呢,就是针对这种。零碳源这个客户,他本身是做这种能源监控的,这种整个园区的生产管理的一个客户。那在。
69:03
整个项目其实特别大,那其中呃,我们抽取最小单元来看,就很简单的一个现象,就是这个客户他很多这种仪器仪表的数据呢,他可能还需要通过一些手工的录入啊,整合,那怎么跟他现有的管理系统的数据结合在一起,这些其实传统的模式下它都是割裂的,那我们在做inside产品的过程中,帮他把所有的数据提炼,抽取,融合,融合完之后呢,基于。整个业务的能力去做数据建模,去把它整一个企业的it的数据,系统的OT的数据,还有它整个设备维度的数据去做统一的监控跟管理,那这里面呢,我们目前呢,是跟客户一起做了超过100个资产的孪生的模型,那超过有10万的一个设备的一个接入,然后每天的一个推送数据量呢,是达到1300万条,那现在这个客户呢,预计他在。未来两到三年,每年会有数十万的一个碳排放的一个降低,这个就是其中一个针对能源类型客户的一个案例,还有一个就是针对这种工业企业的客户的案例,他整一个客户他自己的集团下有很多的工厂,并且工厂下面不同的产线,产线下有不同的装备设备,那它对我们的需求更多是说去分析它产线的一个生产效率,以及不同产线之间的协同,以及对每条产线的一个能耗的一个损耗,那在这里面其实我们也是经过了整个业务的一个盘点,然后对所有不同的设备以及客户自己的业务进行呃分析,最后去帮客户构建不同的资产模型,在资产模型下面呢,去提炼各种数据出来,给到客户更多的一些指导意见,所以呢,以上两个例子呢,其实更多是我们在LT inside的这个产品在。
70:56
应用过程中的一些实例,然后后续呢,可能需要。
71:01
大家一起来推动整个产品更好的落地在不同的场景里面,好,谢谢大家。各位开发者大家好,我是来自腾讯自动驾驶的孙世天。那在三年前的黑口大会上呢,我们向大家分享了我们在自动驾驶防真系统TSTEM上所做的一些工作,那今天呢,非常高兴有机会跟大家分享一下我们在T教育版上所做的一些最新的工作。那首先呢,我们先回顾一下,在自动驾驶行业里有两个非常巨大的影响自动驾驶落地的难题,以及我们是如何用自动驾驶模拟仿真系统来解决这两个难题的。
72:02
那首先第一个是感知算法训练数据集的问题,大家可能知道自动驾驶的感知算法呢,它是需要非常大量的训练数据来涵盖不同的天气,不同的路况,不同的场景的,那这样的一个数据集,它的采集和标注成本是非常非常高昂的,那每年全球在数据采集和标注成本上就要投入10亿美元这个量级以上的一个投入。那我们在仿真系统内部可以做什么事情呢?我们可以用我们的仿真系统呢?非常轻易而且随机的生成各种各样的场景,不同的城市,不同的道路,不同的天气,不同的路况,那这样的一个数据生成是非常低成本而且非踌速的,而且它还有一个好处是,它可以非常方便的不用标注而生成这样带有一个100%准确预标注结果的一个数据的结果,用于我们自动驾驶感知算法的一个训练。那所以通过自动驾驶模拟仿真系统来生成数据集,来解决自动驾驶感知算法训练数据集采集标注成本高,而且标注可能还出现错误的这样一个问题。
73:10
那第二个自动驾驶的落地的难题呢?是测试验证。那大家可能听过一个数字,想要证明一辆自动驾驶汽车可以达到人类驾驶员的水平呢?是需要通过110亿英里的道路测试啊。110亿英里是个非常长的距离,它有多长呢?那地球到太阳的距离也就不到1亿英里,所以这是100多倍的地热距离。那这样的一个距离啊,很难通过道路策略去完成,那行业里是怎么解决的呢?这里我们举一个,呃,行业里谷歌无人车维某它的一个例子,那vimo呢,它目前为止进行了0.3亿英里的道路测,也就是三千万英的道路测试,但是它已经完成了超过300亿英里的仿真测试。所以其实大家可以看到,在行业内使用大量的模拟仿真测试来完成算法的开发和回归测试已经是一个共识了,那使用自动驾驶模拟仿真系统来进行算法的开发和回归测试,它的优点是哪些呢?这里我们举了三个。
74:13
最显著的优点,首先第一个是安全性,大家可能知道在2018年的时候,自动驾驶行业里其实发生了一个一次事故啊,Uber的无人车测试团队在道路测试的时候呢,发生了行业里的第一个致死事故,当时对于整个行业其实是有非常大的一个负面冲击的。而使用虚拟仿真测试来进行自动驾驶的测试算法测试是可以完全解决道路测试安全性的一个风险的问题的,毕竟在虚拟世界内部,撞坏了任何东西都不用担心有任何的人员损伤或者是损失。那安全性是我们说的第一个使用虚拟仿真测试来解决测试问题的一个优点,那第二个优点是时间和金钱的一个节省,我不知道在座有没有,呃,自动驾驶的开发者同学。那对于我们来说,我们每次开发算法,呃,我们去进行一个算法迭代,我们去做算法的。
75:05
参数调整,呃,迭代开发,单元测试,回归测试,然后车端的部署,再去测试区域进行道路测试,几天可能就过去了,那这样的话对于时间和成本的消耗其实非常高昂的,而且也不利于我们快速迭代来一个目标。所以我们用自动驾驶的模拟仿真系统,可以非踌速的在本地以及云端完成自动驾驶算法的一个回归测试,来帮助我们加速整个自动驾驶算法的研发和迭代的一个效率。那第三个优点呢,是软件OTA的回归测试,那大家可以看到目前的智能驾驶算法,或者说叫高级辅助的一些算法,比如说特斯拉上面所有大概的算法呢,都是通过软件OTA的方式进行推送,一个版本接一个版本来去推送。那这样一个算法的话,每一个版本推送都是需要进行一个回归测试的。刚才我们提到了一次算法的测试,想要证明它能达到人类驾驶员的水平,就需要110亿英里的一个测试。那每次软件OT的回归测试如果都需要这么大量的测试,那肯定是不现实的。所以我们通过虚拟仿真测试来帮助我们进行软件OT的回归测试,然后快速的验证后续算法版本,并降低我们测试的一个成本。
76:17
那所以我们在过去几年所有的工作,我们打造这样一个自动驾驶仿真系统TSIM使用了腾讯我们很擅长的云技术以及游戏技术,那这样的一套TSTEM软件是可以覆盖。整个汽车V字开发流程的,从自动驾驶汽车的呃,模型,再还。步骤到软件在还到硬件在还到车辆在环,我们系统都是可以完整覆盖的,那除了这个汽车的V字开发流程。我们也是可以应用于比如说模拟驾驶舱,比如说驾驶员在环的一些应用的,那同时我们也在更广泛的,比如说智慧交通,智慧出行的领域去提供一些更广泛能力的解决方案,比如说一些交通通行效率的优化,比如说一些泛v to X仿真测试,那都可以基于我们这套系统进行一个场景的落地使用。
77:09
那在我们的这几年的开发过程中,我们也发现学术界其实与工业界还是有比较大的一个使用需求的,这里的话我们举了一些例子啊,就是我们观察到的高校的教师、学生,科研人员他们的需求,呃,目前所碰到的挑战和痛点,首先第一个是说测试成本高,因为我们很清晰的能知道,嗯,科研人员,高校的学生等等,他是不可能去打造一个非常大量的自动驾驶车队来进行实车测试的,这个成本非常非常高昂,因为大家知道自动驾驶汽车是很贵的。就会使用仿真软件来进行自己的一个科研工作或者教学工作,但是工业的商业仿真软件呢,价格又非常的昂贵,也比较难以进行一个大规模的使用,所以呢,学术界的很多的同学会去使用开源的软件,而开源的仿真软件的功能呢,比较简单,而且它的更新会很慢,而且它和工业界的房产证软件差距也是比较大的。
78:06
那所以基于以上这些痛点呢,那面向科研,面向教学等不同需求呢,是无法得到满足的,所以基于这样的现状,我们基于我们TSIM去开发了一个特别的教育版的版本,那TSIM教育版呢,我们的目的是提供这样一个专门面向学术界的专用的软件包,可以来帮助呢学术界来弥补学校的一些理论学习,研发科研,它和实践的一些GAP,能够满足我们学术界各方面的需求,比如说包括价格成本低,那我们会以一个非常低的价格成本给到我们用户,甚至是跟我们有战略合作的这些高校,这些科研机构是以完全免费的方式拿到我们教育版的。那第二个特点是我们功能很强大,因为我们的仿真软件是由工业级的仿真软件打包而来,所以它的能力非常全面和强大,而且更贴近工业级的访谈软件,这样的话,使用我们T教育版的用户,他的一个使用的方式和场景,能够非常好的衔接到他以后使用工业访谈软件的一个流程上面去。
79:07
那第三个就是我们其实是打造了更适合科研,更适合教学使用的这样的一些功能模块以及接口,帮助我们教育版的用户呢,可以呃,门槛更低,更低成本的,更快的上手去使用我们教育版的软件。那这里呢,我们举了一个我们TSTEM教育版的案例,这是我们和清华大学的车辆运载学院合作的一个项目,那这个项目呢,是我们呃,构建一个学习型的驾驶策略的一个训练系统,来帮助我们进行自动驾驶算法的训练以及验证测试,那去构建这样一个学习型的驾驶策略训练系统,我们去构构造几个核心的能力,那首先第一个核心能力是随机的复杂交通流仿真场景的生成的能力,那这里呢,我们包括可自动化的随机生成各种各样的呃交通流的仿真场景,这里包括汽车的元素,包括呃,比如说行人,包括这个机动车,非机动车,外卖小哥等等,那这些元素它会以非常随机的形式生成,而且以非常激进的方式跟自动驾驶汽车产生交互,来进行我们自动驾驶算法的训练和测试,那这是第一个核心的能力。
80:16
那第二个我们打造一个核心能力是可以支持本地的多节点并发,因为我们教育版的用户很有可能他一般没有非常丰富的云资源,可以去进行云端的高节点的一个并发的一个训练和使用,所以如何非常好的利用我们教育版用户手里现有的一些计算资源,比如说可能就是几台电脑。而来实现一个本地的多节点的并发,从而实现本地的算法训练和算法验证就是个非常关键的能力,那我们也是在教育版中量身定制的这个能力,给到我们教育版用户去使用。那第三个是强化学习专用的接口,那我们去打造这些强化学习专用接口的目的是可以让用户呃更好的跟他的训练算法进行一个对接,从而减少用户在工程开发以及算法调试上的一个成本和投入,通过这种方式可以让我们的教育版的用户更加低门槛,更加高效率的将自己的精力呢集中在自己的科研和教学工作上本身。
81:14
所以以上呢,是我们在过去的几年来,在自动驾驶模拟仿真系统本身,以及我们教育版上所做的一些工作啊,谢谢大家。
我来说两句