Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >智能汽车“眼”急“脑”快是如何做到的?

智能汽车“眼”急“脑”快是如何做到的?

作者头像
AI 电堂
发布于 2022-05-18 00:35:49
发布于 2022-05-18 00:35:49
4340
举报
文章被收录于专栏:AI电堂AI电堂

汽车智能化通常是指单一车辆的智能化,主要呈现在感知、决策和控制执行三个层面。在感知层面,车上多传感器融和,通过雷达系统(激光雷达、毫米波雷达和超声波雷达)和视觉系统(摄像头)对周围环境进行数据采集;在决策层面,通过车载计算平台及合适的算法对数据进行处理,作出最优决策,最后执行模块将决策的信号转换为车辆的行为;在控制执行层面, 主要包括车辆的运动控制及人机交互,决定每个执行器如电机、油门、刹车等控制信号。

智能汽车“眼”急“脑”快,芯片功不可没

▲ 图1:智能汽车的“器官”及作用 (来源:德勤)

  • 芯片是智能汽车的“大脑”。GPU、FPGAASIC自动驾驶AI运算领域各有所长:CPU 通常为芯片上的控制中心,优点在于调度管理、协调能力强,但 CPU 计算能力相对有限。而对于 AI 计算 而言,通常采用 GPU/FPGA/ASIC 来加强。
  • 功率半导体是智能汽车的“心脏”。无论是在引擎、驱动系统中的变速箱控制和制动、或者转向控制等都离不开功率半导体。
  • 摄像头CMOS是智能汽车的“眼睛”。 CMOS 图像传感器与 CCD (电荷耦合组件) 有着共同的历史渊源,但 CMOS 比 CCD 的价格降低 15%-25%,同时, CMOS 芯片可与其它硅基元器件集成,利于系统成本的降低。在数量上,倒车后视,环视,前视,转弯盲区等 Level3 以上的辅助驾驶需要 18 颗摄像头。
  • 射频接收器是智能汽车的“耳朵”。射频器件是无线通讯的重要器件。射频是可以辐射到空间的电磁频率, 频率范围从 300KHz~300GHz 之间。射频芯片是指能够将射频信号与数字信号进行转换的芯片,它包括功率放大器 PA、滤波器、低噪声放大器 LNA、天线开关、双工器、调谐器等。未来,射频芯片将像汽车的耳朵一样将助力 C-V2X 技术发展,将“ 人-车-路-云”等交通参与要素有机联系在一起,弥补单车智能的不足,推动协同式应用服务发展。
  • 超声波/毫米波雷达是智能汽车的“手杖”。智能汽车通过传感器获得大量数据, L5 级别的汽车会携带传感器将达到 32个。车载雷达主要包括超声波雷达、毫米波雷达和激光雷达三种。其中,我国超声波雷达已发展的相对成熟,技术壁垒不高;毫米波雷达技术壁垒较高,且是智能汽车的重要传感器,处于快速发展的阶段;激光雷达技术壁垒高,是高级别自动驾驶的重要传感器,但目前成本昂贵、过车规难、落地难。
  • 存储芯片是智能汽车的"记忆"。智能汽车产业对存储器的需求与日俱增,在后移动计算时代,车用存储将成为存储芯片中重要的新兴增长点和决定市场格局的力量。DRAM、FLASH、NAND 未来将被广泛地应用在智能汽车各个领域。此外,随着云和边缘计算将在智能汽车领域大放异彩,以及 L4/L5 级自动驾驶汽车发展出复杂网络数据及应用高级数据压缩技术,未来本地存储量随自动驾驶级别的提升激增后,将趋于稳定。
  • 汽车面板呈多屏化趋势。目前车载显示设备主要包括中控显示屏和仪表显示屏,此外智能驾驶舱仪表显示屏、挡风玻璃复合抬头显示屏、虚拟电子后视镜显示屏、后座娱乐显示屏逐渐成为智能汽车发展的新需求方向。
  • LED是主要的智能汽车用"灯"。LED 在照明的亮度和照射距离上做到了过去卤素灯无法企及的高度,可以做到弯道辅助(随动转向)、随速调节、车距警示等功能。随着 LED 体积、技术的发展其智能化逐步被大力开发,将朝着高亮、智能、酷炫的方向大步迈进。

计算能力:智能汽车之“脑”,算力军备竞赛开启超大量级赛道

从芯片类型上来看,用于中央计算的传统 CPU 已无法满足智能汽车的算力需求,集合 AI 加速器的系统级芯片(SoC)应运而生。在分布式架构时代,ECU 是汽车功能系统的核心,其主控芯片为 CPU,仅用于逻辑控制(是与非、加或减)。随着 E/E 架构由分布式向域控制器/中央计算升级的进程加快,域控制器(DCU)正取代 ECU 成为智能汽车的标配。在此升级过程中,仅依靠 CPU 的算力与功能早已无法满足汽车智能化所需,将 CPU 与 GPU、FPGA、ASIC 等通用/专用芯片异构融合的 SoC 方案被推至台前,成为各大 AI 芯片厂商算力军备竞赛的主赛道。SoC 中各处理器芯片各司其职,其中 CPU 负责逻辑运算和任务调度;GPU 作为通用加速器,可承担 CNN 等神经网络计算与机器学习任务,将在较长时间内承担主要计算工作;FPGA 作为硬件加速器,具备可编程的优点,在 RNN/LSTM/强化学习等顺序类机器学习中表现优异,在部分成熟算法领域发挥着突出作用;ASIC 可实现性能和功耗最优,作为全定制的方案将在自动驾驶算法中凸显其价值。

▲ 图2:各类型处理器芯片对比

(来源:CSDN、赛迪顾问)

从应用场景来看,计算芯片可以划分为智能座舱芯片和自动驾驶芯片、车身控制芯片。

1、智能座舱芯片的结构通常以“CPU+功能模块”的 SoC 异构融合方案为主。以高通智能座舱主控计算芯片 820A 系列为例:高通 820A 芯片采用 14 纳米工艺,从整体性能 上来看,可以实现 hypervisor 和 QNX 系统启动时间小于 3 秒,Android 系统启 动时间小于 18 秒,倒车影像启动小于 3 秒,性能非常强悍。

瑞萨、英伟达、高通、英特尔、三星等厂商凭借优越的芯片性能和供应链在中高端座舱芯片领域脱颖而出。目前,高通在国内新兴旗舰车型上近乎实现垄断,其座舱产品迭代速度几乎与手机产品同时更新。国产厂商方面,华为和地平线分别凭借麒麟 990A 和征程 2 快速出圈,华为凭借强大的研发、万物互联的鸿蒙生态,迭代能力不逊于高通。地平线也因其开放的开发平台和完备的工具链受到主机厂青睐。

▲ 图3:主流智能座舱 SoC 方案对比

(来源:佐思汽研、各公司官网)

2、自动驾驶芯片的结构以 “CPU+GPU+NPU” 的 SoC 异构方案为主。以英伟达自动驾驶主控计算芯片 Xavier 系列为例,该 SoC 芯片主要包含控制单元、计算单元、AI 加速单元三大模块。

自动驾驶芯片厂商可分为软硬一体式解决方案开放式解决方案两大阵营。英特尔(Mobileye)和华为是国内外自动驾驶软硬一体式解决方案提供商的代表,即将传感器、芯片、算法绑定销售的全家桶式方案。软硬一体式解决方案的优势在于能够帮助自研能力不足的主机厂快速上车量产。英伟达和地平线是国内外自动驾驶开放式解决方案供应商的代表,二者均拥有完全开放的生态和完备易用的工具链,OEM 厂商可以在芯片、算法中的任意层次购买服务。在智能汽车行业发展初期,部分 OEM 厂商会综合考虑成本、开发周期、系统稳定性等因素而选择软硬件一体式解决方案;当行业迈向成熟阶段,头部 OEM 厂商已具备相当程度算法开发能力,将会倾向于选择更为开放的计算平台,在完善的开发工具链之上结合场景自研算法,以满足差异化需求。

▲ 图4:主流玩家计算芯片解决方案对比

(来源:佐思汽研、各公司官网)

3、车身控制芯片对算力要求较低,通常以 8 位或 32 位的 MCU 芯片为主。车身控制域的本质是在传统车身控制器(BCM)的基础上,集成了无钥匙启动系统(PEPS)、纹波防夹、空调控制系统等功能。因而其中的主要芯片仍以车规级 MCU 为主。车规级 MCU 主要可分为 8 位、16 位以及 32 位,其中8位和32位市场应用范围最广。8 位MCU工作频率在 16-50MHz 之间,具有简单耐用、性价比高的优势,主要应用于车窗、车门、雨刮等车身控制领域;32 位 MCU 工作频率最高,处理能力、执行效能更好,应用也更广泛,主要应用于动力域、座舱域等。根据 IHS 数据预计,2025 年全球车规级 MCU 市场规模将达到 73.5 亿美元,其中 32 位 MCU 占比将达到 76.6%。

▲图5:全球车规级 MCU 市场被外资厂商高度垄断

(来源:IHS)

以恩智浦(14%)、英飞凌(11%)、瑞萨电子(10%)等为代表的外资厂商凭借先发优势高度垄断全球车规级 MCU 市场,但行业“缺芯”事件背景下国内厂商正加速崛起,国内成熟的车规级 MCU 供应商包括比亚迪电子、杰发科技、芯旺微等。

感知能力:智能汽车感知先行,传感器为智能汽车之“眼”

车载传感器作为智能汽车之“眼”,是智能汽车时代最重要的增量汽车零部件之一。其细分品类众多,主要包括车载摄像头、毫米波雷达、超声波雷达、激光雷达等 4 类主流产品。其中,车载摄像头作为智能汽车内应用领域最为广泛的传感器,不但可以协助实现视觉方案下的自动驾驶技术,同时亦广泛应用于疲劳监控、面部视觉等多个座舱功能之中。可以预见,新上市智能汽车车型中,平均摄像头配置数量已经超过 8 个。而在摄像头之中,最为核心的芯片包括 CMOS 图像传感器(CIS)和图像信号处理芯片(ISP)。

▲ 图6:车载摄像头系统构成,CIS 和 ISP 是重要组成部分 (来源:索尼)

整体工作原理可总结为当镜头采集到光影后,经 CIS 通过光电效应将光信号转换成每个像素的数字信号, 输出拜尔阵列(bayer pattern),随之进入 ISP 进行图像处理(包括镜头阴影校正、 黑电平校正、自动白平衡等),最终输出 YUV/RGB 格式的图像,再通过 I/O 接口传 输到中央计算平台处理。

CIS 芯片(CMOS 传感器)是车载摄像头中价值量最高环节,主要功能是将光信号转换成电信号,兼具模拟电路与数字电路。根据 IC Insights 预测,2021-2025 年车用 CIS 复合年增长率高达 33.8%,2025 年全球市场规模将达 51 亿美元。

ISP 芯片即图像信号处理器(ISP,Image Signal Processor),将 CIS 输出的 Raw 数据进行处理,使之成为符合人眼真实生理感受的信号并加以输出。ISP 芯片根据摄像头传感器进行融合计算方式、放置位置可区分为前融合计算方式和后融合计算方式。根据 Yole 预测,2024 年图像处理芯片(ISP)市场规模将达到 186 亿美元,2018-2024 年 CAGR 约为 14%。

激光雷达芯片化趋势加速。激光雷达集合光学、电子、机械等多种技术,其内部有数百个分立器件,因而在生产工艺方面,物料成本和设备调试成本高起,导致量产困难。芯片化可降本提效解决行业痛点,可采用成熟的半导体工艺(如 CMOS 工艺),兼具体积小、集成度高等优势,VCSEL 和 SPAD 芯片被推至台前。

发射端的 VCSEL(垂直腔面发射激光器),其发光面与半导体晶圆平行,可由半导体加工设备保障精度,在一定程度上解决激 光雷达量产问题,成为目前芯片厂商主推的激光器类型。接收端(探测器)的 SPAD 阵列则将探测器和电路功能模块在 CMOS 工艺下集成,可以测量单个光子的信号强度,直接输出原始的、更精确的 3D 数字信号(省略数模转换过程),与摄像头输出 的 2D 数据相对应,节省数据标注的时间,提高机器学习的效率。

存储能力:受益于汽车智能化浪潮,存储 IC 有望量价齐升

存储芯片在智能汽车中应用广泛,DRAM 和 NAND FLASH 占据存储市场绝大部分份额。智能化及电动化趋势驱动带宽及存储芯片容量持续升级,如智能座舱、车联网、自动驾驶等功能均需要一定的存储空间来支持其正常运行。智能化方面,自动驾驶显著提振存储芯片市场,随着自动驾驶等级提高,AI 功能逐渐增加,车辆需要对传感器所捕获的大量资料进行实时处理,即具备整合信息并立刻做出判断的能力,这对于带宽和空间需求提出更高要求;电动化也对汽车存储有升级需求,如电动汽车的核心部件 BMS(电池管理系统)需要实时记录和存储数据,涵盖汽车电压电流、电压、温度、电机转速等,这些数据需要以较高的频率进行实时且连续的擦写,因此随着电动车续航能力、充电速度等不断提升,存储芯片的循环寿命、擦写速度以及功耗等存在较大升级需求。

下周文章:网联化是自动驾驶的必经之路,将着重介绍智能驾驶的通信能力。


END

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-04-12,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI电堂 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
分布式学习和联邦学习简介​
来源:DeepHub IMBA本文约2200字,建议阅读5分钟本文讨论分布式学习和联邦学习的主要原理以及它们是如何工作的。 在这篇文章中,我们将讨论分布式学习和联邦学习的主要原理以及它们是如何工作的。首先,我们从一个简单的单机示例开始,然后将其发展为分布式随机梯度下降(D-SGD),最后是联邦学习(FL)。 集中学习(单机) 一个最简单的例子,我们想学习人的身高和体重之间的线性关系,并且我们拥有100人的体重和身高数据,想训练一种线性模型,该模型使用身高预测人们的体重,线性回归W = [a,b]如下:
数据派THU
2022/08/29
8720
分布式学习和联邦学习简介​
模型攻击:鲁棒性联邦学习研究的最新进展
现代机器学习算法在实际应用场景中可能会受到各种对抗性攻击,包括数据和模型更新过程中中毒( Data and Model Update Poisoning)、模型规避(Model Evasion)、模型窃取(Model Stealing)和对用户的私人训练数据的数据推理性攻击(Data Inference Attacks)等等。在联邦学习的应用场景中,训练数据集被分散在多个客户端设备(如桌面、手机、IoT 设备)之间,这些设备可能属于不同的用户 / 组织。这些用户 / 组织虽然不想分享他们的本地训练数据集,但希望共同学习得到一个全局最优的机器学习模型。由于联邦学习框架的这种分布式性质,在使用安全聚合协议(Secure Aggregation)的情况下,针对机器学习算法的故障和攻击的检测纠正更加困难。
机器之心
2020/06/05
1.9K0
【大数据分析 | 机器学习】分布式机器学习
  机器学习方法是计算机利用已有的数据生成某种模型,并利用此模型预测的一种方法。在确定模型结构之后,根据已知模型寻找模型参数的过程就是训练,训练过程中不断依据训练数据来迭代调整模型的参数值,从而使模型的预测结果更为准确。在现实应用中,要达到好的效果,训练数据集可能很大,模型参数量剧增,会带来很多性能和算法设计问题,单台机器难以胜任,需要分布式的机器学习架构。本文主要介绍分布式机器学习基础知识,并介绍主流的分布式机器学习框架,结合实例介绍一些机器学习算法。
Francek Chen
2025/01/22
1440
【大数据分析 | 机器学习】分布式机器学习
ANGEL:一个新型的分布式机器学习系统
引自:http://www.ccf.org.cn/c/2017-08-16/603621.shtml
用户7886150
2021/04/21
1K0
ICML 2018 | 腾讯AI Lab提出误差补偿式量化SGD:显著降低分布式机器学习的通信成本
作者:Jiaxiang Wu、Weidong Huang、Junzhou Huang、Tong Zhang
机器之心
2018/07/26
6480
ICML 2018 | 腾讯AI Lab提出误差补偿式量化SGD:显著降低分布式机器学习的通信成本
终于有人把分布式机器学习讲明白了
分布式机器学习也称分布式学习,是指利用多个计算节点(也称工作节点,Worker)进行机器学习或者深度学习的算法和系统,旨在提高性能、保护隐私,并可扩展至更大规模的训练数据和更大的模型。
IT阅读排行榜
2023/02/13
4.3K0
终于有人把分布式机器学习讲明白了
送书了!分布式人工智能算法详解
在分布式算法改进后,算法因为分布式情况,存在通信、等待、同步、异步等问题,导致算法的空间复杂度、时间复杂度,没有达到预想的情况,针对机器学习的单体算法和分布式算法的优化方法,本节就来介绍相关原理和实现方法
计算机视觉
2021/01/28
7300
【机器学习基础】在机器学习项目中该如何选择优化器
本文概述了计算机视觉、自然语言处理和机器学习中常用的优化器。此外,你会找到一个基于三个问题的指导方针,以帮助你的下一个机器学习项目选择正确的优化器。
黄博的机器学习圈子
2020/08/20
5160
【机器学习基础】在机器学习项目中该如何选择优化器
零基础入门分布式系统 (Martin Kleppmann) 2. Models of distributed systems
system model 系统模型用于描述我们对节点和网络行为方式的假设。它是对其属性的抽象描述,在实践中可以通过各种技术来实现。为了说明常见的系统模型,我们将从分布式系统中的两个经典思维实验开始:两将军问题和拜占庭将军问题。
s09g
2022/07/06
4780
零基础入门分布式系统 (Martin Kleppmann) 2. Models of distributed systems
学界 | 杜克大学NIPS 2017 Oral论文:分布式深度学习训练算法TernGrad
机器之心报道 作者:吴欣 为了提高分布式深度学习的速度和效率,杜克大学「进化智能研究中心」陈怡然和李海教授的博士生温伟提出了 TernGrad 分布式训练算法,并与 Hewlett Packard Labs(慧与研究院)徐聪和内华达大学的颜枫教授合作,在大规模分布式深度学习中进行了有效的验证。该工作可以将浮点型的学习梯度(gradients)随机量化到三元值(0 和±1)。理论上,可以把梯度通信量至少减少为原来的 1/20。 日前 NIPS 2017 放出了接收论文,杜克大学的此项工作(TernGrad:
机器之心
2018/05/08
1.2K0
学界 | 杜克大学NIPS 2017 Oral论文:分布式深度学习训练算法TernGrad
分布式深度学习原理、算法详细介绍
介绍 无监督的特征学习和深度学习已经证明,通过海量的数据来训练大型的模型可以大大提高模型的性能。但是,考虑需要训练的深度网络模型有数百万甚至数十亿个参数需要训练,这其实是一个非常复杂的问题。我们可以很快完成复杂模型的训练,而不用等待几天甚至几个星期的时间呢? Dean等人提出了一个可行的训练方式,使我们能够在多台物理机器上训练和serving一个模型。作者提出了两种新的方法来完成这个任务,即模型并行和数据并行。在下面的博客文章中,我们将简单地提到模型并行,因为我们主要关注数据并行的方法。 注:文章由“深度学
机器人网
2018/04/24
7970
分布式深度学习原理、算法详细介绍
分布式深度学习(I):分布式训练神经网络模型的概述
原文: Distributed Deep Learning, Part 1: An Introduction to Distributed Training of Neural Networks 作者: Alex Black、Vyacheslav Kokorin 翻译: KK4SBB 责编:何永灿,关注人工智能,投稿请联系heyc@csdn.net或微信号289416419 本文是分布式训练神经网络模型三篇系列文章的第一篇。 在第一篇文章,我们首先了解一下如何使用GPU分布式计算来显著提高深度学习模型
用户1737318
2018/06/06
3.3K0
《驾驭MXNet:深度剖析分布式深度学习训练的高效之道》
在深度学习的迅猛发展进程中,模型的规模和复杂性持续攀升,对计算资源的需求也愈发苛刻。单机训练在面对大规模数据集和复杂模型结构时,常常显得力不从心。分布式深度学习训练成为解决这一困境的关键途径,而MXNet作为一款强大的开源深度学习框架,在分布式训练领域展现出卓越的性能和独特的优势。深入探究如何在MXNet中高效地进行分布式深度学习训练,不仅能为深度学习从业者提供更强大的技术支持,还能推动整个深度学习领域的发展。
程序员阿伟
2025/03/18
750
《驾驭MXNet:深度剖析分布式深度学习训练的高效之道》
理解分布式一致性:拜占庭容错与PBFT
之前的几篇文章我们讲了分布式协议里面的Paxos协议和Raft协议。这两个协议主要适用于可信节点的情况,所谓可信节点就是节点只会出现因为系统或者网络问题的宕机情况,不会有恶意节点。
程序那些事
2020/07/08
1.3K0
分布式系统–拜占庭将军问题(The Byzantine Generals Problem)
本文档作为分布式系统的学习基础,通过拜占庭问题取尝试先了解分布式系统里面可能存在的基础问题。拜占庭将军问题,主要为了解决在已知有成员不可靠的情况下,其余忠诚的将军需要在不受叛徒或间谍的影响下达成一致的协议的问题。
凯哥Java
2022/12/16
7880
分布式系统–拜占庭将军问题(The Byzantine Generals Problem)
学界 | 深度神经网络的分布式训练概述:常用方法和技巧全面总结
深度学习已经为人工智能领域带来了巨大的发展进步。但是,必须说明训练深度学习模型需要显著大量的计算。在一台具有一个现代 GPU 的单台机器上完成一次基于 ImageNet 等基准数据集的训练可能要耗费多达一周的时间,研究者已经观察到在多台机器上的分布式训练能极大减少训练时间。近期的研究已经通过使用 2048 个 GPU 的集群将 ImageNet 训练时间降低至了 4 分钟。这篇论文总结了各种用于分布式训练的算法和技术,并给出了用于现代分布式训练框架的当前最佳方法。更具体而言,我们探索了分布式随机梯度下降的同步和异步变体、各种 All Reduce 梯度聚合策略以及用于在集群上实现更高吞吐量和更低延迟的最佳实践,比如混合精度训练、大批量训练和梯度压缩。
机器之心
2018/12/06
1.7K0
学界 | 深度神经网络的分布式训练概述:常用方法和技巧全面总结
学界 | ICLR 2018接收论文公布:接收率高达42.7%
选自openreview 机器之心编译 参与:蒋思源 ICLR 作为深度学习顶级会议,今年共接收到了 981 篇有效论文。去年 11 月,ICLR 2018 论文评审结果出炉,今天主办方正式放出接收论文结果:2.3% 的 oral 论文、31.4% 的 poster 论文、9% 被接收为 workshop track,51% 的论文被拒收、6.2% 的撤回率。而备受关注的论文《Matrix capsules with EM routing》作者也得以揭晓:Geoffrey Hinton 为一作,其他两位作者
机器之心
2018/05/10
1.1K0
深度学习中,面对不可知攻击,如何才能做到防御「有的放矢」?
近年来,深度学习(Deep Learning,DL)技术取得了突飞猛进的发展,在一些人工智能任务(如图像分类、语音识别等)中取得了突破。互联网巨头,如谷歌、Facebook 和亚马逊,都在提供由 DL 驱动的服务和产品方面进行了大量投资[1]。然而,高度非线性、非凸函数建模的深度神经网络(Deep neural networks,DNNs)本质上非常容易受到对抗性输入(Adversarial inputs)的影响。对抗性输入是由对手(攻击者)设计的恶意样本,目的是触发 DNNs 的不当行为。
机器之心
2022/01/20
9290
深度学习中,面对不可知攻击,如何才能做到防御「有的放矢」?
《解密并行和分布式深度学习:深度并发分析》摘要记录
在单个处理器上处理图所需的时间是T_1 = W,在无限多个进程上处理图所需的时间是。计算中的平均并行度是,在个处理器上的执行时间受限于:
小锋学长生活大爆炸
2022/09/02
5120
《解密并行和分布式深度学习:深度并发分析》摘要记录
漫谈分布式共识问题
来源 | 多颗糖 责编 | 李雪敬 封图 | CSDN付费下载自视觉中国 混乱的“一致性”问题 Consensus != Consistency 受翻译影响,网上很多讨论 paxos 或 raft 的博客使用“分布式一致性协议”或者“分布式一致性算法”这样的字眼,虽然在汉语中“达成共识”和“达成一致”是一个意思,但是必须要说明在这里讨论的是 consensus 问题,使用“共识”来表达更清晰一些。而 CAP 定理中的 C 和数据库 ACID 的 C 才是真正的“一致性”—— consistency
区块链大本营
2023/03/31
3900
漫谈分布式共识问题
推荐阅读
相关推荐
分布式学习和联邦学习简介​
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档