前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >未来10年车用芯片需求将倍增,将更依賴于晶圆代工厂

未来10年车用芯片需求将倍增,将更依賴于晶圆代工厂

作者头像
芯智讯
发布于 2023-04-11 09:32:06
发布于 2023-04-11 09:32:06
2020
举报
文章被收录于专栏:芯智讯芯智讯

3月27日消息,日本新闻网站Newswitch于3月25日报导称,英国调查公司IDTechEx公布预测报告指出,未来10年间(2023-2033年)车用芯片需求预估将成倍增长,且将更加依赖晶圆代工厂进行生产。

IDTechEx表示,随著“CASE(Connected联网、Autonomous自动驾驶、Shared&Services共享&服务和Electric电动化)”普及,预估自2023年起的10年间车载MCU需求将以年平均成长率9.4%的速度呈现增长,特别是先进驾驶辅助系统(ADAS)和自动驾驶用芯片的年平均成长率预估将高达29%。

IDTechEx指出,在“激光雷达(LiDAR)”领域上,砷化铟镓(InGaAs)、氮化镓(GaN)等非硅系芯片需求将加速,另一方面,随著高性能需求,车用芯片也将进一步无晶圆厂(Fabless)化、对晶圆代工厂的依赖度将攀高。

IDTechEx表示,就像美国特斯拉(Tesla)自行设计ADAS控制芯片并委外生产那样,今后车厂将开始自行设计芯片、半导体供应链将因此发生改变。

EV需求增,日晶圆代工厂JS Foundry拟扩产至2.5倍

据日经新闻2022年12月19日报导显示,日本晶圆代工厂JS Foundry社长冈田宪明接受专访表示,为了因应来自电动车(EV)、再生能源的需求扩大,计划在2027年度结束前将功率半导体/模拟芯片产能扩增至现行的2.5倍水准。冈田宪明指出,“客户要求我们加快供应速度”,已和6家日企和2家陆企展开具体的洽谈。

JS Foundry为日本基金Mercuria Investment及并购(M&A)谘询公司产业创成咨询(Sangyo Sosei Advisory)等收购美国半导体大厂安森美半导体(On Semiconductor)的新泻工厂,于2022年12月1日设立的晶圆代工企业,目前其新泻工厂产线主要采用6吋晶圆,之后藉由设备投资、计划新设生产效率更高的8吋晶圆产线。

台积电日本第二座晶圆厂传落脚熊本县

目前台积电正在日本熊本县菊阳町打造半导体工厂(以下称日本一厂),且不久前已表明考虑在日本兴建第二座晶圆代工厂。据日本媒体“工业新闻”2月24日报导,台积电考虑兴建的“日本二厂”也将位于熊本县菊阳町附近,总投资额预估超过1万亿日元,规模最少将同于预计2024年底启用生产的“日本一厂”,且“日本二厂”可能导入5-10nm先进制程,预估将在2020年代后半开始进行生产。台积电将在2023年内决定“日本二厂”相关细节。

台积电兴建中的熊本工厂(日本一厂)预计2024年12月启用生产,目前规划将生产22/28nm以及12/16nm制程芯片,月产能为5.5万片。台积电熊本工厂由设立于熊本县的晶圆代工服务子公司“Japan Advanced Semiconductor Manufacturing(JASM)”负责营运,而Sony旗下完全子公司“索尼半导体解决方案公司”以及日本汽车业龙头丰田汽车(Toyota)集团企业、日本汽车零组件大厂Denso皆有对JASM进行出资。

编辑:芯智讯-林子 来源:MoneyDJ

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-03-27,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 芯智讯 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
机器学习:无监督学习
Tips:如果出现某个聚类中心没有分配到点的情况,一般是直接将这个中心去掉,如果规定必须要刚好
Here_SDUT
2022/09/19
7010
机器学习:无监督学习
机器学习(27)【降维】之主成分分析(PCA)详解
关键字全网搜索最新排名 【机器学习算法】:排名第一 【机器学习】:排名第一 【Python】:排名第三 【算法】:排名第四 前言 主成分分析(Principal components analysis,以下简称PCA)是最重要的降维方法之一。在数据压缩消除冗余和数据噪音消除等领域都有广泛的应用。一般我们提到降维最容易想到的算法就是PCA,下面我们就对PCA的原理做一个总结。 PCA基本思想 PCA顾名思义,就是找出数据里最主要的方面,用数据里最主要的方面来代替原始数据。具体的,假如我们的数据集是n维的,共有
昱良
2018/04/04
2.5K0
机器学习(27)【降维】之主成分分析(PCA)详解
[机器学习|理论&实践] 机器学习中的数学基础
机器学习作为一门复杂而强大的技术,其核心在于对数据的理解、建模和预测。理解机器学习的数学基础对于深入掌握其原理和应用至关重要。本文将深入介绍机器学习中的数学基础,包括概率统计、线性代数、微积分等内容,并结合实例演示,使读者更好地理解这些概念的实际应用。
数字扫地僧
2023/12/13
5620
数据科学基础(十) 降维
📚 文档目录 随机事件及其概率 随机变量及其分布 期望和方差 大数定律与中心极限定理 数理统计的基本概念 参数估计 假设检验 多维 回归分析和方差分析 降维 10.1 主成分分析(PCA) 不懂线性代数, 下面这些参考了一些 PCA 的说明, 但我总觉得某些解释的不是很严谨. 目标 PCA 常用于高维数据的降维,可用于提取数据的主要特征分量. 对于原始数据矩阵 其中, 列向量 为 n 个样本中的一个. r 行表示 r 个维度. 对该矩阵进行中心化,得到中心化矩阵 X image.png X
Rikka
2022/01/19
5010
数据科学基础(十) 降维
图解机器学习 | 降维算法详解
教程地址:http://www.showmeai.tech/tutorials/34
ShowMeAI
2022/03/11
1.3K0
图解机器学习 | 降维算法详解
【1024特辑 | 机器学习-无监督学习】EM算法
  本文我们继续介绍概率相关模型的算法。在前面的文章中,我们已经讲解了贝叶斯网络与最大似然估计(MLE)。设数据集的样本为
Francek Chen
2025/01/22
950
【1024特辑 | 机器学习-无监督学习】EM算法
【机器学习-无监督学习】自编码器
  在前面的文章中,我们介绍了各种类型的无监督学习算法,如聚类算法、降维算法等。归根结底,无监督学习的目的是从复杂数据中提取出可以代表数据的特征,例如数据的分布、数据的主要成分等等,再用这些信息帮助后续的其他任务。随着机器学习向深度学习发展和神经网络的广泛应用,用神经网络提取数据特征的方法也越来越重要。本文介绍的自编码器(autoencoder,AE)就是其中最基础的一种无监督特征提取方法,也是一种深度学习模型。
Francek Chen
2025/01/22
2740
【机器学习-无监督学习】自编码器
主成分分析(PCA)原理总结
    主成分分析(Principal components analysis,以下简称PCA)是最重要的降维方法之一。在数据压缩消除冗余和数据噪音消除等领域都有广泛的应用。一般我们提到降维最容易想到的算法就是PCA,下面我们就对PCA的原理做一个总结。
刘建平Pinard
2018/08/14
1.1K0
主成分分析(PCA)原理总结
【机器学习-监督学习】集成学习与梯度提升决策树
  本文将会首先介绍集成学习的思路以及一些常用的集成学习方法,然后介绍梯度提升决策树模型。在前面的文章中,我们讲解了许多不同的机器学习算法,每个算法都有其独特的优缺点。同时,对于同一个任务,往往有多种算法可以将其解决。例如我们要将平面上的一些点分类,假设算法一和算法二的正确率是75%,算法三是50%。3种算法都已经通过调参达到了其最优表现,已经无法再进一步了。那么,我们是否能通过组合这些算法,得到比75%更高的正确率呢?看上去组合之后,算法三会拖算法一和二的后腿,反而会拉低整体表现,更别说提升了。然而,我们考虑表1中的例子。
Francek Chen
2025/01/22
1820
【机器学习-监督学习】集成学习与梯度提升决策树
第十五章 降维
第二种类型的无监督学习问题,叫做降维。 这里有一些,你想要使用降维的原因: ① 数据压缩 数据压缩不仅能对数据进行压缩,使得数据占用较小的内存或硬盘空间。它还能对学习算法进行加速 ② 可视化数据
tomas家的小拨浪鼓
2019/03/19
5940
第十五章 降维
【机器学习-监督学习】逻辑斯谛回归
  在介绍了机器学习中相关的基本概念和技巧后,本章我们继续讲解参数化模型中的线性模型。有了前文的基础,我们可以先来对KNN算法和线性回归进行比较,进一步回答“什么是参数化模型”这一问题。对于机器学习算法来说,其目标通常可以抽象为得到某个从输入空间到输出空间的映射
Francek Chen
2025/01/22
1760
【机器学习-监督学习】逻辑斯谛回归
【机器学习】--主成分分析PCA降维从初识到应用
主成分分析(Principal Component Analysis,PCA), 是一种统计方法。通过正交变换将一组可能存在相关性的变量转换为一组线性不相关的变量,转换后的这组变量叫主成分。
LhWorld哥陪你聊算法
2018/09/13
1.7K0
【机器学习】--主成分分析PCA降维从初识到应用
机器学习十大经典算法之PCA主成分分析
主成分分析算法(PCA)是最常用的线性降维方法,它的目标是通过某种线性投影,将高维的数据映射到低维的空间中,并期望在所投影的维度上数据的信息量最大(方差最大),以此使用较少的数据维度,同时保留住较多的原数据点的特性。
墨明棋妙27
2022/09/23
8800
特征工程-主成分分析PCA
主成分分析(Principle Component Analysis,PCA)是常用的降维方法,用较少的互不相关的新变量来反映原变量所表示的大部分信息,有效解决维度灾难问题。
唔仄lo咚锵
2022/11/30
8470
特征工程-主成分分析PCA
理解主成分分析
在现实世界的数据分析任务中,我们面对的数据通常较为复杂,例如多维数据。我们绘制数据并希望从中找到各种模式,或者使用数据来训练机器学习模型。一种看待维度(dimensions)的方法是假设你有一个数据点 xxx,如果我们把这个数据点想象成一个物理对象,那么维度就是仅仅是一个视图(译者注:这里的视图应该是和三视图中的视图是一个概念)的基础(basis of view),就像从横轴或者纵轴观察数据时的位置。
Alan Lee
2019/05/28
7310
奇异值分解(SVD)原理与在降维中的应用
    奇异值分解(Singular Value Decomposition,以下简称SVD)是在机器学习领域广泛应用的算法,它不光可以用于降维算法中的特征分解,还可以用于推荐系统,以及自然语言处理等领域。是很多机器学习算法的基石。本文就对SVD的原理做一个总结,并讨论在在PCA降维算法中是如何运用运用SVD的。
刘建平Pinard
2018/08/14
7060
奇异值分解(SVD)原理与在降维中的应用
主成分分析(Principal Component Analysis,PCA)
)个主成分(线性无关变量)来代替m个原有变量(线性相关变量),使问题得以简化,并能保留原有变量的大部分信息(原有变量的方差)。
Michael阿明
2020/07/13
9380
主成分分析(Principal Component Analysis,PCA)
机器学习基础与实践(三)----数据降维之PCA
写在前面:本来这篇应该是上周四更新,但是上周四写了一篇深度学习的反向传播法的过程,就推迟更新了。本来想参考PRML来写,但是发现里面涉及到比较多的数学知识,写出来可能不好理解,我决定还是用最通俗的方法解释PCA,并举一个实例一步步计算,然后再进行数学推导,最后再介绍一些变种以及相应的程序。(数学推导及变种下次再写好了) 正文:   在数据处理中,经常会遇到特征维度比样本数量多得多的情况,如果拿到实际工程中去跑,效果不一定好。一是因为冗余的特征会带来一些噪音,影响计算的结果;二是因为无关的特征会加大计算量,耗
Charlotte77
2018/01/09
9230
机器学习基础与实践(三)----数据降维之PCA
PCA详解
对于数组和Series而言,维度就是shape返回的数值shape中 返回了几个数字,就是几维。
皮大大
2021/03/02
1.7K0
PCA模型
主成分分析是指将数据中相关性很高的属性 / 变量转化成彼此相互独立或不相关的新属性 / 变量,利用较少的新属性 / 变量(主成分)去解释原来数据中的大部分属性 / 变量的一种降维方法。
hotarugali
2022/03/16
9000
相关推荐
机器学习:无监督学习
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档