腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
视频
沙龙
3
回答
在机器学习库中,梯度下降在哪里出现(例如,科学学习)
、
我理解梯度下降是如何工作的,用户可以手动定义梯度下降函数,以最小化一些成本函数。我的问题很普遍,当我们训练和测试机器学习模型,如线性回归或随机森林时,GD在科学学习代码中会出现在哪里?GD只是嵌入到.fit()函数中吗?还是我们需要将它作为模型的一个参数?
浏览 5
提问于2020-09-23
得票数 1
回答已采纳
2
回答
在没有监督的训练中也使用梯度下降法吗?
、
、
梯度下降算法是否曾用于任何非监督训练,如聚类、协同过滤等?
浏览 2
提问于2020-02-21
得票数 1
1
回答
针对ML初学者的MNIST教程错误
在教程中,我认为存在一个错误。我认为这部分不准确: 使用小批随机数据称为随机训练--在这种情况下,随机梯度下降。 随机梯度下降用于更新每个训练示例()的参数,并且在教程中使用了大小为100的批次,我认为这将是小批量梯度下降。 我可能错了,但这不应该改变吗?
浏览 4
提问于2016-08-15
得票数 0
1
回答
梯度的大小是梯度下降的弱点吗?
梯度下降公式如下: \mathbf{w} := \mathbf{w} - \alpha\; \triangledown C 梯度本身指向最陡峭的上升方向,因此,通过减去梯度向相反的方向前进是合乎逻辑的。但是,除了方向,梯度也有一个幅度,实际上没有任何关于最优路径的信息。 我的问题是,这是否被认为是梯度下降的弱点和学习率的原因?
浏览 0
提问于2018-12-26
得票数 4
回答已采纳
1
回答
在神经网络的前馈传播中,梯度下降也是使用的吗?
、
据我所知,权值在反向传播过程中只使用梯度下降,而在前向传播过程中不使用梯度下降。是对的吗?
浏览 0
提问于2019-08-22
得票数 0
回答已采纳
2
回答
线性回归中OLS与梯度下降的差异
、
我理解普通的最小二乘和梯度下降所做的事情,但我只是对它们之间的区别感到困惑。 我唯一能想到的区别是- 梯度下降是迭代的,而OLS则不是。 梯度下降是利用学习速率来达到最小值,而OLS则是用偏微分法求方程的极小值。 这两种方法在线性回归中都非常有用,但它们都给出了相同的结果:截距和系数的最佳可能值。 它们之间有什么区别,为什么有两种线性回归方法?
浏览 0
提问于2022-04-14
得票数 2
1
回答
为什么我的梯度下降算法不收敛?(用于Logistic回归)
、
、
、
我的任务是使用梯度下降在c++中实现逻辑回归。任务的一部分是当梯度的大小低于10e-07时停止梯度下降。 我必须最小化: //chart.googleapis.com/chart?cht=tx&chl=L(w)%20%3D%20%5Cfrac%7B1%7D%7BN%7D%5Csum%20log(1%20%2B%20exp(-y_%7Bi%7Dw%5E%7BT%7Dx_%7Bi%7D)) 然而,由于超过了最大迭代次数,我的梯度下降一直在停止。我尝试了不同的最大迭代阈值,它们都是最大的。我认为我的代码有问题,因为logistic回归由于其成本函数的凹性而被认为是梯度下降的一项容易的任务,梯
浏览 0
提问于2019-08-09
得票数 0
2
回答
在梯度下降中,为什么不需要将成本函数的梯度归一化为单位向量?
、
、
从我的背景来看,我理解有一个学习速率(α)的目的是将梯度的大小(▽J)标准化,这样步长就可以适当地收敛到局部极小值。 由于α是任意的,所以我们必须找到最佳的超参数学习速率(α)。 也许,当我们将梯度归一化为一个单位向量时,我们不必对其进行超参数调整,在这个单位向量中,梯度的大小总是1。 传统的梯度下降: w:=w −α▽J 我的梯度下降: w:=w −▽J/||▽J|| 再次,回到我的问题,我不明白为什么梯度下降的变体没有我的想法。将梯度归一化为单位向量 ps。我推测,当梯度的幅度极低时,我的梯度下降可能不能很好地工作,并且可能会发散到inf。
浏览 0
提问于2022-07-05
得票数 1
6
回答
梯度下降和随机梯度下降有什么区别?
、
、
、
梯度下降和随机梯度下降有什么区别? 我对这些不太熟悉,你能用一个简短的例子来描述这种差异吗?
浏览 0
提问于2018-08-04
得票数 75
1
回答
小批处理梯度下降能优于批处理梯度下降吗?
、
、
、
、
当我阅读和复习吴家富深造课程的第二节课时,我偶然发现一句话: 随着一个良好的小批大小,它通常优于梯度下降或随机梯度下降(特别是当训练集是大的)。 但这怎么可能?小批处理梯度下降真的能给我们一组更好的权重和偏差,即使它没有根据整个数据集更新它们吗?我只能认为,这可能不是过分适合,这样,它可以提供更好的结果。
浏览 0
提问于2020-07-30
得票数 1
2
回答
下降梯度如何知道该调整哪些权重?
、
我在读关于下降梯度的文章。下降梯度如何知道该调整哪些权重?它是否同时适应所有的网络权重? 每个权重是否有关联的错误?
浏览 0
提问于2020-11-08
得票数 3
1
回答
Logistic回归的随机梯度下降总是返回Inf的成本,而权向量永远不会接近
、
、
、
我试图在MATLAB中实现一个logistic回归求解器,并通过随机梯度下降来求权值。我遇到了一个问题,我的数据似乎产生了无限的成本,无论发生什么,它永远不会下降…这两种情况看起来都很好,我无法想象为什么我的成本函数总是会无限地返回。 在中,第一列是类(1或0),接下来的七列是我试图返回的特性。
浏览 2
提问于2014-10-17
得票数 0
回答已采纳
1
回答
非凸函数如$-x^2$的梯度下降
我知道如何计算只有一个整体极小值的凸函数的梯度下降。另外,我知道处理函数是非凸函数的情况的方法。真正困扰我的是,对于像y = -x^2这样的非凸函数,梯度下降是如何计算的,在这里下降会变成负无穷大,而不是直接收敛到全局极大值。因此,对于像(x^2 - y^2)这样的函数来说,它与卡在鞍点上的观点是矛盾的。
浏览 0
提问于2019-10-27
得票数 0
1
回答
是否有一个Python库可以导入梯度下降函数/方法?
、
、
、
、
在Python中进行梯度下降的一种方法是自己编写代码。然而,考虑到它在机器学习中有多么流行,我想知道是否有一个Python库可以导入,给我一个梯度下降方法(最好是小批处理梯度下降,因为它通常比批处理和随机梯度下降更好,但是如果我错了,请纠正我)。 我检查了NumPy和SciPy,但什么也找不到。我没有使用TensorFlow的经验,但是浏览了他们的在线API。我找到了tf.train.GradientDescentOptimizer,但是没有参数可以让我选择批处理大小,所以我对它的实际情况非常模糊。 抱歉,如果我听起来天真的话。我学了很多这些东西。
浏览 0
提问于2018-05-08
得票数 3
回答已采纳
1
回答
小批处理与批处理梯度下降
、
、
在批处理梯度下降中,说梯度下降更新的一次迭代需要对整个数据集进行处理,我认为这是一个epoch.On,而在小批处理算法中,每个小批处理后进行更新,每一个小批处理完成一个时代。因此,在这两种情况下,在处理完所有数据之后,就完成了一个时代,我不太明白是什么使小批处理算法更有效。 谢谢,
浏览 0
提问于2020-05-06
得票数 2
回答已采纳
2
回答
梯度下降和梯度增强有什么区别?它们之间有任何相互依存的吗?
、
、
梯度下降和梯度增强有什么区别?它们在任何方面都相互依存吗?
浏览 0
提问于2019-10-09
得票数 7
2
回答
梯度下降:我们是否在GD中的每一步迭代所有的训练集?或者我们是否为每一套培训更改GD?
、
我用一些在线资源自学了机器学习,但我有一个关于梯度下降的问题,我无法弄清楚。 梯度下降的公式是通过以下物流回归得出的: Repeat { θj = θj−α/m∑(hθ(x)−y)xj } 其中θj是变量j的系数,α是学习率,hθ(x)是假设,y是实数,xj是变量j的值,m是训练集的个数。hθ(x),y是针对每个训练集的(也就是说,这就是求和符号的意思)。 这就是我困惑的地方。 我不清楚求和是否代表了我的整个训练集,或者到目前为止我做了多少次迭代。 例如,想象一下我有10个训练例子。如果我在每个训练示例之后执行梯度下降,那么我的系数将非常不同,如果我在所有10个训练示例之后执行梯度下降
浏览 8
提问于2013-06-24
得票数 7
回答已采纳
3
回答
我的随机梯度下降的实现正确吗?
、
、
、
我试图发展随机梯度下降,但我不知道它是否是100%正确的。 我的随机梯度下降算法所产生的代价有时与F对联C算法或批处理梯度下降算法产生的代价相差甚远。 当我设置学习速率α为0.2时,批梯度下降成本会收敛,但为了不发散,我不得不为随机实现设置一个学习速率α为0.0001。这是正常的吗? 以下是我在10,000个元素和num_iter = 100或500的训练集中获得的一些结果 FMINUC : Iteration #100 | Cost: 5.147056e-001 BACTH GRADIENT DESCENT 500 ITER Itera
浏览 1
提问于2014-01-25
得票数 9
回答已采纳
6
回答
梯度下降和梯度上升的区别是什么?
、
、
我找不到任何关于梯度上升的东西。任何关于梯度上升的好链接,展示它与梯度下降的不同之处都会有所帮助。
浏览 1
提问于2014-03-24
得票数 23
2
回答
随机梯度下降的批量大小是训练数据的长度,而不是1?
、
、
、
、
当使用批处理梯度下降、随机梯度下降和小批随机梯度下降时,我试图绘制不同的学习结果。 无论我看什么地方,我都读到batch_size=1和普通SGD一样,而batch_size=len(train_data)和批处理梯度下降是一样的。 我知道随机梯度下降是指每次更新只使用一个数据样本,而批处理梯度下降使用整个训练数据集来计算目标函数/更新的梯度。 然而,当使用keras实现batch_size时,情况似乎正好相反。以我的代码为例,我将batch_size设置为training_data的长度 input_size = len(train_dataset.keys()) output_size =
浏览 3
提问于2020-07-28
得票数 2
回答已采纳
1
回答
为什么Relu比Sigmoid激活函数表现出更好的收敛性?
、
与sigmoid激活函数相比,Relu在梯度下降优化中具有更好的收敛性能。据我所知,当Z接近小于0时,梯度下降的升升太慢,但当z小于0时,relu也有梯度0,那么差别是什么?
浏览 0
提问于2021-08-16
得票数 0
2
回答
是否总是保证损失函数的收敛性?
、
给定最佳学习率,下列哪一项是正确的? (i)对于凸损失函数(即碗形),保证批梯度下降最终收敛到全局最优,而不保证随机梯度下降。 (ii)对于凸损失函数(即具有碗形),随机梯度下降保证最终收敛到全局最优,而批处理梯度则最终收敛到全局最优。 世系不是。 (3)对于凸损失函数(即碗形),随机梯度下降和分批梯度下降最终收敛到全局最优。 (4)对于凸损失函数(即碗形),既不保证随机梯度下降,也不保证分批梯度下降收敛到全局最优。 哪种选择是正确的,为什么?
浏览 0
提问于2020-08-13
得票数 4
回答已采纳
1
回答
梯度下降和网格搜索在机器学习中的区别是什么?
、
、
超参数优化使用两种技术,如网格搜索、或随机搜索。梯度下降主要用于将损失函数降到最小。 这里查询是在什么时候我们将使用网格搜索和梯度下降。
浏览 1
提问于2019-02-10
得票数 2
1
回答
数学:梯度下降的导数的结果是否只包含一个值?
、
我有一个使用梯度下降公式的任务的问题: 📷 使用two大小为0.1和initial值,对下面给出的函数执行梯度下降到局部最小的步骤 📷 我只得到导数0.4x1的结果,因为x2不存在。这是正确的,还是导数的结果应该是(0.4,0)? 注:对不起,如果我的导数方程是坏的。我不是数学家。如果我的方程式完全错了,请纠正我。
浏览 0
提问于2020-07-19
得票数 1
回答已采纳
2
回答
GD、批GD、SGD和小型批处理SGD有什么不同?
、
、
这四种梯度下降函数之间有何不同? GD 批GD SGD 小批量SGD
浏览 0
提问于2019-06-15
得票数 3
回答已采纳
2
回答
牛顿的方法会被归类为梯度下降法吗?
、
可能是一个很小的问题,但我只想更清楚。根据现有的文献和中的讨论,这两种方法都涉及到计算一个导数,然后向最小方向移动。在简单梯度下降法的情况下,我们只计算一阶导数;在牛顿法中,我们计算二阶导数和恒心导数,并应用于向量。此外,牛顿/s方法中向量的更新可能并不总是沿(-ive)梯度方向进行。 此外,对于给定的函数f(x),这两种方法都试图寻找满足f'(x) = 0的最小值;在梯度下降法中,目标是argmin f(x),而在牛顿法中,目标是f‘(X)=0。另一个区别是停止准则,在梯度下降法中,f'(x) = 0,而在牛顿法中,它是f(x)=0。 基于上述论点,是否有理由说牛顿方法是基于
浏览 7
提问于2020-01-18
得票数 0
回答已采纳
2
回答
优化凹函数
、
我想解决以下问题: $min_C \sum_i \phi(c_i)$ s.t $\sum_i c_i=1 $和$c_i\geq 0$,其中$i=1 \cdots k$和$C = c_i$。 这里$\phi(x)$是凹函数。例如$\phi(x) = 2x - x^2$。 给定任何有效的初始点,我知道解决方案将是$0\ 0\ 0 \cdots 1$。谁能指导我推导出一个基于梯度下降的算法来实现这个解决方案。
浏览 2
提问于2011-12-15
得票数 3
4
回答
在C++库中实现快速梯度下降?
、
、
、
、
我正在寻求运行梯度下降优化,以最小化变量实例化的成本。我的程序在计算上非常昂贵,所以我正在寻找一个流行的库,它可以快速实现GD。推荐的库/参考资料是什么?
浏览 0
提问于2012-07-17
得票数 9
回答已采纳
2
回答
交叉熵损失和梯度下降的组合如何惩罚和奖励
、
、
对于使用softmax分类器进行分类的一个简单问题(C类),大多数人使用交叉熵损失函数来量化目标。交叉熵损失是: $$L = -\sum_{i=1}^C y_ilog(p_i)$$ 其中$p_i$是分类器的预测分数,$y_i$是地面真值标签.为了更新参数,采用梯度下降的方法使$p_i$的分布尽可能接近$y_i$的分布。假设对于空间中的任意点( $x_i$ ),我们有基本真理标签$y_i =$,这意味着对于$C=3$类问题,$x_i$属于0类。假设softmax分类器在第一次迭代中预测为$p_i =$。在优化具有梯度下降的$L$时,预测会发生如下变化: .$p_i =$ .$p_i =$ .$p
浏览 0
提问于2018-07-10
得票数 2
回答已采纳
1
回答
在R的神经网络包中使用哪种类型的梯度下降?
、
、
据我所知,有不同类型的梯度下降方法来更新神经网络的权重。 例如,在each梯度下降中,在评估训练数据集的每个示例的误差之后更新权重。 另一方面,批量梯度下降评估一批训练样本(多于一个)的误差,以更新权重。 有人知道R的neuralnet包中实现了哪种方法吗?如果是批量梯度,那么批量大小是多少?我怎么能控制它呢? 谢谢
浏览 3
提问于2018-11-26
得票数 1
4
回答
梯度下降方程和正规方程给出了多元线性regression.Why的不同θ值?
、
、
、
梯度下降的矢量化实现 for iter = 1:num_iters theta = theta - (alpha / m) * X' * (X * theta - y); J_history(iter) = computeCostMulti(X, y, theta); end computeCostMulti()的实现 function J = computeCostMulti(X, y, theta) m = length(y); J = 0; J = 1 / (2 * m) * (X * theta - y)' * (X * theta - y); 正规
浏览 2
提问于2017-06-03
得票数 0
4
回答
SGD和反向传播有什么区别?
、
、
、
、
你能告诉我随机梯度下降(SGD)和反向传播的区别吗?
浏览 2
提问于2016-06-21
得票数 49
回答已采纳
1
回答
如果成本函数有交互作用,梯度下降是否相同?
、
、
我们知道如何用梯度下降来确定回归参数。如果 📷 成本函数为C=|Y-Y(X)|^2,我们将b更新为 📷 哪里 📷 是学习率和 📷 是成本函数C相对于b的偏微分。 如果在多元回归中存在一种相互作用,并且我们希望坚持线性模型公式(不使用树或其他非线性回归器),那么 📷 成本函数仍然是一样的,我们是否只是用相同的方式更新b呢?即相互作用项的存在对梯度下降没有影响。我没有看到有或没有相互作用的梯度下降的任何差异。
浏览 0
提问于2018-02-16
得票数 3
回答已采纳
1
回答
增量规则还是梯度下降?
梯度下降和增量规则有什么不同?
浏览 1
提问于2011-02-04
得票数 5
1
回答
如果我不为tensorflow中的op提供梯度,梯度下降是如何工作的?
、
、
在添加新op时,文档()说: 可选地,编写一个函数来计算Op.的梯度 既然这是可选的,如果我不写,梯度下降是如何计算梯度的?它用数值方法吗?如果是,什么?这会慢点吗?
浏览 0
提问于2016-08-30
得票数 0
回答已采纳
1
回答
牛顿法与消失梯度
、
、
我阅读了关于消失梯度问题的文章,其中指出可以使用基于ReLu的激活函数来纠正这个问题。 现在我无法理解,如果使用基于ReLu的激活函数来解决这个问题,那么为什么会有这么多的研究论文建议将牛顿方法作为深度学习的优化算法而不是梯度下降?在阅读研究论文时,我有强烈的印像,认为消失梯度问题是提出这些建议的核心原因,但现在我感到困惑的是,如果能修改梯度下降法来纠正机器学习过程中面临的所有问题,是否真的需要牛顿法。
浏览 0
提问于2019-03-20
得票数 3
回答已采纳
1
回答
Sklearn中的线性回归梯度下降
、
、
sklearn的线性回归模型使用闭合或法线方程来查找参数。然而,对于大数据集,梯度下降被认为是更有效的。有没有办法通过渐变下降来使用sklearn中的LinearRegression?
浏览 0
提问于2021-03-29
得票数 0
3
回答
在tensorflow估计类中,训练一步是什么意思?
、
、
、
、
具体来说,在一步之内,它如何训练模型?梯度下降和反向传播的退出条件是什么? 这里的文档: 例如: mnist_classifier = tf.estimator.Estimator(model_fn=cnn_model_fn) train_input_fn = tf.estimator.inputs.numpy_input_fn( x={"x": X_train}, y=y_train, batch_size=50, num_epochs=None, shuffle=True) mnist_classi
浏览 0
提问于2018-04-11
得票数 2
回答已采纳
2
回答
N维梯度下降
、
n维数的梯度下降。 我正在学习向下的坡度,youtube的视频和书籍只显示了一个2d的曲线,当斜率降到曲线的最小时。 我的问题是,当数据集的特性>3时,斜率是否沿着多维曲线下降? 如何在具有多种特征的数据集中看到坡度下降?
浏览 0
提问于2020-04-09
得票数 0
4
回答
梯度下降是每个优化器的核心吗?
、
、
、
、
我想知道梯度下降是否是Adam、Adagrad、RMSProp和其他几个优化器中使用的主要算法。
浏览 0
提问于2019-03-12
得票数 13
回答已采纳
1
回答
PyTorch中的SGD优化器实际上是梯度下降算法吗?
、
、
我正在尝试比较神经网络中SGD算法和GD算法的收敛速度。在PyTorch中,我们经常使用SGD优化器,如下所示。 train_dataloader = torch.utils.data.DataLoader(train_dataset, batch_size=64, shuffle=True) optimizer = torch.optim.SGD(model.parameters(), lr=0.001) for epoch in range(epochs): running_loss = 0 for input_batch, labels_batch in train_d
浏览 3
提问于2022-06-04
得票数 3
回答已采纳
2
回答
为什么我们在线性回归中使用梯度下降?
、
、
在我最近参加的一些机器学习课程中,我讨论了梯度下降,以找到最适合线性回归的直线。 在一些统计类中,我了解到我们可以使用统计分析,使用均值和标准差来计算这一行-- ,为什么这一看似更简单的技术不用于机器学习? 我的问题是,梯度下降是拟合线性模型的首选方法吗?如果是,为什么?还是教授只是在一个简单的设置中使用梯度下降来介绍这门技术呢?
浏览 6
提问于2014-11-07
得票数 7
回答已采纳
1
回答
如果无法获得梯度,是否有类似于梯度下降的方法?
函数f的输入是一组参数,输出是精度。f的梯度不能得到,有没有类似梯度下降的方法,比如有限差分法?
浏览 0
提问于2017-10-03
得票数 0
1
回答
在TensorFlow上创建优化器的步骤
、
、
、
、
我正在尝试实现一个新的优化器,它包含在梯度下降方法的很大一部分中(这意味着我希望执行几个梯度下降步骤,然后对输出执行不同的操作,然后再执行一次)。不幸的是,我发现了2条信息; 不能使用优化器执行给定数量的步骤。我是不是弄错了?因为这似乎是一个合乎逻辑的选择。 考虑到1是真的,您需要使用C++作为内核编写优化器,从而失去TensorFlow的强大可能性(比如计算梯度)。 如果这两种方法都是正确的,那么2对我来说就没有任何意义了,我正试图找出构建一个新优化器的正确方法(算法和其他一切都非常清楚)。 非常感谢
浏览 0
提问于2016-11-17
得票数 1
1
回答
批处理梯度下降的Sklearn实现
、
、
采用滑雪板进行分类是如何实现批处理梯度下降的?本文给出了随机GD的SGDClassifier (一次单实例)和线性/Logistic回归(采用正规方程)。
浏览 0
提问于2019-04-06
得票数 2
回答已采纳
1
回答
线性回归优化
、
、
、
我现在正在学习线性回归。在我发现的大多数实现该方法的例子中,都使用了梯度下降。 有比梯度下降更好的线性回归优化方法吗?
浏览 0
提问于2018-07-08
得票数 1
回答已采纳
1
回答
如果我使用adam优化,当模型的权重更新时?
、
、
、
我知道模型的权重何时更新,同时使用梯度下降(在所有三种类型的GD中),但在我的情况下,我使用的是带有自定义损失(三元组损失)的adam优化,在这种情况下,模型中的权重何时更新?它是在每个样本、每个批次还是每个时期之后? 提前谢谢。
浏览 0
提问于2019-07-27
得票数 1
1
回答
反向传播与随机梯度下降
、
、
、
反向传播是一种学习方法还是一种优化方法? 反向传播和随机梯度下降是如何相互关联的?
浏览 0
提问于2019-10-28
得票数 0
回答已采纳
2
回答
梯度下降与随机梯度下降算法
、
、
、
我尝试在MNIST手写体数字数据集(包括60K训练样本)上训练一个FeedForward神经网络。 我每次都在上迭代所有的训练样本(),在每个时期对每个这样的样本执行。运行时当然太长了。 是我运行的名为梯度下降的算法。 我读到,对于大型数据集,使用随机梯度下降可以显着地改善运行时。 为了使用随机梯度下降,我应该做什么?我是否应该随机选择训练样本,对每个随机抽取的样本执行Backpropagation,而不是我目前使用的历次?
浏览 6
提问于2016-02-29
得票数 6
回答已采纳
1
回答
最优损失面附近的梯度下降
、
、
算例中所用的所有损失面都有一些碗形,其形状远低于最优,在最优平面点附近逐渐减小。 我的问题是: 是否所有损失面积平面周围的最优,从而导致小梯度更新? 当我训练某一模型时,大部分损失曲线显示损失急剧下降,表现为下降缓慢,损失图变平坦。为什么损失更新(梯度的数量)变得很小?
浏览 0
提问于2021-03-03
得票数 0
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
梯度算法之批量梯度下降,随机梯度下降和小批量梯度下降
梯度下降算法之随机梯度下降
下降方法:坐标下降、梯度下降、次梯度下降
批量梯度下降与随机梯度下降的区别
梯度下降
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券