首页
学习
活动
专区
圈层
工具
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

矩阵- JuMP目标函数中的向量乘积,其中矩阵是变量

矩阵是一个由数个数按照矩形排列成的矩形阵列。在数学和计算机科学中,矩阵是一种常见的数据结构,用于表示线性关系和进行线性变换。

JuMP(Julia Mathematical Programming)是一个用于数学规划建模和求解的开源软件包。它提供了一个高级的建模语言,使用户能够以简洁的方式描述数学规划问题,并通过与各种求解器的接口实现求解。

在JuMP的目标函数中,向量乘积是指将一个向量与另一个向量进行点乘或内积运算。点乘是指将两个向量的对应元素相乘,并将结果相加得到一个标量值。内积是指将两个向量的对应元素相乘,并将结果相加得到一个标量值。

矩阵- JuMP目标函数中的向量乘积可以用来表示线性规划问题中的约束条件或目标函数。通过将矩阵与向量相乘,可以将线性规划问题转化为矩阵乘法运算,从而实现高效的求解。

矩阵- JuMP目标函数中的向量乘积在实际应用中具有广泛的应用场景。例如,在供应链管理中,可以使用矩阵乘法来计算不同产品的需求量和供应量之间的关系;在金融领域,可以使用矩阵乘法来计算投资组合的收益率和风险之间的关系。

腾讯云提供了一系列与云计算相关的产品和服务,包括云服务器、云数据库、云存储、人工智能等。其中,推荐的与矩阵- JuMP目标函数中的向量乘积相关的产品是腾讯云的弹性MapReduce(EMR)服务。EMR是一种大数据处理服务,可以通过使用分布式计算框架,如Hadoop和Spark,来处理大规模的数据集。在EMR中,可以使用矩阵乘法来进行数据分析和机器学习任务。

腾讯云的EMR产品介绍链接地址:https://cloud.tencent.com/product/emr

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

【运筹学】线性规划 单纯形法 ( 原理 | 约定符号 | 目标系数矩阵 C | 目标函数变量矩阵 X | 约束方程常数矩阵 b | 系数矩阵 A | 向量 | 向量符号 | 向量 Pj )

目标函数的趋势 , 使目标函数增大 还是 减小 ; ③ 找到更优可行解 : 根据该趋势选择下一个单纯形 , 不断迭代 , 直到找到一个单纯形 , 使目标函数达到最大值或最小值 ; 单纯形法 执行方案...线性规划 标准形式 ---- 线性规划标准形式 : 使用单纯形法 求解 线性规划问题 , 这里要求线性规划数学模型必须是标准形式 , 有如下要求 : ① 目标函数 : 变量组成的目标函数 , 求解极大值...矩阵 C : 该矩阵是行向量 , 代表了目标函数中的系数 ; C = \begin{bmatrix} &c_1 , &c_2 , & \cdots , & c_m & \end{bmatrix}...矩阵 X : 该矩阵是列向量 , 表示目标函数中的变量 ; X=\begin{bmatrix}\\\\ x_1\\\\ x_2\\\\ \vdots\\\\ x_m\\\\ \end{bmatrix...向量 P_j 表示 : 该向量是 m 行 1 列的矩阵 , 表示 约束方程 A 中的第 j 行的列向量 , 其中 j = 1 , 2, \cdots , n ; P_j=\begin

1.3K20

学习笔记DL001 : 数学符号、深度学习的概念

,向量。,矩阵。,张量。,行列单位矩阵。,维度蕴含上下文单位矩阵。⁽ⁿ⁾,标准基向量0,…,0,10,…,0,其中索引n处值为1。diag(),对象方阵,其中对象元素由给定。a,标量随机变量。...(),图中的父节点。 索引。,向量的第个元素,其中索引从1开始。₋,除了第个元素,的所有元素。,,矩阵的,元素。,:,矩阵的第行。:,,矩阵的第列。,,k,3维张量的(,,)元素。...:,:,,3维张量的2维切片。a,随机向量的第个元素。 线性代数操作。⫟,矩阵的转置。⁺,的Moore-Penrose伪造。⨀,和的逐元素乘积(Hadamard乘积)。(),的行列式。 微积分。...用函数,参数是一个标量,应用到一个向量、矩阵或张量:()、()或()。表示逐元素将应用于数组。=σ(),对于所有合法的i、j和k,i,j,k=σ(i,j,k)。 数据集和分布。...train,由训练集定义的经验分布。,训练样本的集合。⁽⁾,数据集的第个样本(输入)。⁽⁾或⁽⁾,监督学习中与⁽⁾关联的目标。, x 的矩阵,行,:为输入样本⁽⁾。

2.7K00
  • 深度 | BP表达式与硬件架构:相似性构建更高效的计算单元

    我们将预测函数 Y 放入到损失函数 l 中以进行最优化。为了表示这种结构,我们使用圆圈表示复合函数算子(Ring 算子),因此目标函数 L 可以写为: ?...根据链式法则,目标函数的导数可以根据矩阵乘法的形式写为: ? 其中,链式乘法中的每一项都是雅可比矩阵(Jacobian matrix)。...为了更形象地说明这一过程,假设我们的损失函数 l 有以下形式: ? 层级函数 f 仅仅只是简单地求输入向量中每一个元素的平方: ? 它们的雅可比矩阵就可以写为以下形式: ?...这种寻找最优乘法序列的任务称为矩阵链式排序问题。在本案例中,因为向量左乘矩阵还是得到一个向量,所以我们只需要从左往右进行矩阵乘积就能进行高效的计算。 ?...在本案例中,雅可比矩阵是一个对角矩阵,那么向量和雅可比矩阵的乘积就等价于向量对应元素间的乘积,因此我们就能避免构建一个 m-x-m 的雅可比矩阵。 ?

    1.1K70

    机器之心最干的文章:机器学习中的矩阵、向量求导

    机器之心专栏 作者:七月 本文的目标读者是想快速掌握矩阵、向量求导法则的学习者,主要面向矩阵、向量求导在机器学习中的应用。...劈形算子和偏导数两种记号大体上可以认为是相同的,只不过在涉及到变量分量的推导过程 (例如用链式法则推神经网络 的 BP 算法) 中,偏导数那一套符号更加常用;而劈形算子的优势是书写简单,在对传统的机器学习模型的目标函数求导...对于一个实函数 ? ,其梯度记为 ? ,也可记作gradf,是一个m 维向量。Hessian 矩阵记为 ? ,其中 ? ,是一个m×m的矩阵。...但是这种方法非常复杂,因为把 W 抻成向量以后目标函数关于 W 的表达式就变了,很难推导 ? 这个雅克比矩阵。...注:此式很有用,在神经网络中,经常有形如 ? 的依赖关系。其中 x 是神经网络某一层的输入数据(不是训练神经网络时要求导的变量!

    3.4K120

    【生物信息学】奇异值分解(SVD)

    SVD分解的目标是找到三个矩阵U、Σ和V^T,使得:A = UΣV^T 其中,U是一个m×m的正交矩阵,Σ是一个m×n的对角矩阵,V^T是一个n×n的正交矩阵。...正交矩阵满足U^TU = I和V^TV = I,其中I是单位矩阵。 对角矩阵Σ的对角线上的元素称为奇异值,通常用σ表示。...奇异值按照从大到小的顺序排列,因此可以将它们写成σ₁ ≥ σ₂ ≥ ⋯ ≥ σᵣ,其中r是矩阵A的秩。...根据特征值和特征向量,构造正交矩阵U。U的列向量是对应于AA^T的特征向量,按照特征值从大到小排列。 计算矩阵A的乘积A^TA,得到一个n×n的对称矩阵。...其中,U是一个正交矩阵,s是包含矩阵A的奇异值的一维数组,Vt是V的转置矩阵。 2.

    18510

    深度学习-数学基础

    联结主义的中心思想是,当网络将大量简单的计算单元连接在一起时可以实现智能行为 联结主义中的几个关键概念在今天的深度学习中仍然是非常重要的 其中一个概念是分布式表示(distributed representation...)可看作是矩阵乘积 \(x^{T}y\) 两个向量的点积满足交换律 \[ x^{T}y=y^{T}x \] 矩阵乘积的转置 \[ (AB)^{T} = B^{T}A^{T} \] 由两个向量点积的结果是标量...但是不能使用矩阵逆去求解 对于方阵而言,它的左逆和右逆是相等的 在机器学习中,经常使用被称为 范数(norm)的函数衡量向量大小。...Q^{T} \] 其中, \(Q\) 是 \(A\) 的特征向量组成的正交矩阵,\(Λ\) 是对角矩阵。...当该数很大时,矩阵求逆对输入的误差特别敏感 我们把要最小化或最大化的函数称为 目标函数(objective function)或 准则(criterion)。

    82410

    首发:吴恩达的 CS229的数学基础(线性代数),有人把它做成了在线翻译版本!

    2.矩阵乘法 两个矩阵相乘,其中 and ,则: 其中: 请注意,为了使矩阵乘积存在,中的列数必须等于中的行数。有很多方法可以查看矩阵乘法,我们将从检查一些特殊情况开始。...它直接从偏导数的等价性质得出: 对于 , 原则上,梯度是偏导数对多变量函数的自然延伸。然而,在实践中,由于符号的原因,使用梯度有时是很困难的。例如,假设是一个固定系数矩阵,假设是一个固定系数向量。...对于, 设 的某些已知向量 ,则: 所以: 由此我们可以很容易地看出。 这应该与单变量微积分中的类似情况进行比较,其中。 现在考虑的二次函数。...同样,这应该提醒你单变量微积分中的类似事实,即。 最后,让我们来看看二次函数黑塞矩阵(显然,线性函数的黑塞矩阵为零)。...求解等式约束优化问题的标准方法是采用拉格朗日形式,一种包含等式约束的目标函数,在这种情况下,拉格朗日函数可由以下公式给出: 其中,被称为与等式约束关联的拉格朗日乘子。

    1.4K20

    反向传播算法推导-卷积神经网络

    SIGAI-AI学习交流群的目标是为学习者提供一个AI技术交流与分享的平台。 导言 在SIGAI之前的公众号文章“反向传播算法推导-全连接神经网络”中,我们推导了全连接神经网络的反向传播算法。...根据第l层的误差项计算第l-1层的误差项的递推公式为: ? 其中W为权重矩阵,u为临时变量,f为激活函数。根据误差项计算权重梯度的公式为: ? 其中x为本层的输入向量。...偏置项的偏导数更简单: ? 这和全连接层的计算方式类似。同样的定义误差项为: ? 这是损失函数对临时变量的偏导数。和全连接型不同的是这是一个矩阵: ?...是损失函数对本层输入数据的梯度: ? 在之前的文章“反向传播算法推导-全连接神经网络”中已经介绍过,激活函数实现的是向量到向量的逐元素映射,对输入向量的每个分量进行激活函数变换。...拆出激活函数之后,全连接层的输入数据是一个向量,计算该向量与权重矩阵的乘积,如果需要还要加上偏置,最后产生输出。正向传播的计算公式为: ? 反向传播时计算本层权重与偏置的导数: ?

    89530

    通俗易懂的讲解奇异值分解(SVD)和主成分分析(PCA)

    1.特征分解 首先,我们简单回顾下特征值和特征向量的定义。在几何学中,矩阵A的特征向量是指一个经过与矩阵A变换后方向保持不变的向量(其中,假设特征值均为实数)。...需要说明的是,V和U中的列向量分别作为矩阵A的行空间和列空间中的基向量。 接下来,我们将对其细节进行深入介绍。...其实SVD的主要目标就是为了找到三个参数:矩阵v,矩阵u和奇异值σ,其中矩阵v和u都是正交向量且满足下面等式: ? 一个n维的列向量v经过矩阵A的变换等于一个m维的行向量u经过奇异值σ的缩放。...其中值得注意的是,按照习惯奇异值σ在矩阵Σ中总是按递减的顺序进行排列——即第一行放最大的奇异值,最小的奇异值放在最后一行。...4.主成分分析法(PCA)——特征提取 PCA在机器学习中是一种常用的无监督学习算法,它通过构建一种被称为主成分的变量,并将所用到的所有向量映射到由主成分变量构建的空间上去,从而能够减少数据的维度。

    2.4K20

    反向传播算法推导-全连接神经网络

    优化目标函数的自变量是各层的权重矩阵和梯度向量,一般情况下无法保证目标函数是凸函数,因此这不是一个凸优化问题,有陷入局部极小值和鞍点的风险(对于这些概念和问题,SIGAI之前的公众号文章“理解梯度下降法...W(1)和b(1)要被代入到网络的后一层中,是复合函数的内层变量,我们先考虑外层的W(2)和b(2)。权重矩阵W(2)是一个2x4的矩阵,它的两个行分别为向量 ?...到目前为止还有一个关键问题没有解决:目标函数是一个多层的复合函数,因为神经网络中每一层都有权重矩阵和偏置向量,且每一层的输出将会作为下一层的输入。...要计算某一层的权重矩阵和偏置向量的梯度,只能依赖于它紧贴着的外面那一层变量的梯度值,通过一次复合函数求导得到。 根据定义,w(l)和b(l)是目标函数的自变量,u(l)和x(l)可以看成是它们的函数。...等号右边第一个乘法是向量对应元素乘;第二个乘法是矩阵乘,在这里是列向量与行向量的乘积,结果是一个矩阵,尺寸刚好和权重矩阵相同。损失函数对偏置项的梯度为: ? 下面考虑第二种情况。

    1.4K20

    机器学习与深度学习习题集答案-2

    是矩阵 ? 的特征值,w为对应的特征向量。假设 ? 和w是上面特征值问题的解,代入目标函数可以得到 ? 这里的目标是要让该比值最大化,因此最大的特征值 ? 及其对应的特征向量是最优解。...其中x是本层的输入向量, ? 是概率估计向量,y是样本的真实标签值。交叉熵损失函数定义为 ? 样本的类别标签中只有一个分量为1,其他都是0,这在第11.4节中已经介绍过。...6.证明线性不可分时SVM的对偶问题是凸优化问题: ? 为了简化表述,定义矩阵Q,其元素为 ? 对偶问题可以写成矩阵和向量形式 ? 其中e是分量全为1的向量,y是样本的类别标签向量。...Q可以写成一个矩阵和其自身转置的乘积 ? 矩阵X为所有样本的特征向量分别乘以该样本的标签值组成的矩阵: ? 对于任意非0向量x有: ?...两个变量的目标函数的Hessian为 ? 如果是线性核,这个矩阵也可以写成一个矩阵和它的转置的乘积形式 ? 矩阵A为训练样本特征向量乘上类别标签形成的矩阵。

    1.6K10

    反向传播算法推导-卷积神经网络

    根据第l层的误差项计算第l-1层的误差项的递推公式为: image.png 其中W为权重矩阵,u为临时变量,f为激活函数。根据误差项计算权重梯度的公式为: image.png 其中x为本层的输入向量。...整个过程分为以下3步: 1.将待卷积图像、卷积核转换成矩阵 2.调用通用矩阵乘法GEMM函数对两个矩阵进行乘积 3.将结果矩阵转换回图像 在反卷积的原理介绍中,我们也介绍了这种用矩阵乘法实现卷积运算的思路...由于卷积层有多个卷积核,因此这样的行向量有多个,将这些行向量合并在一起,形成一个矩阵: image.png 有了上面这些矩阵,最后就将卷积操作转换成如下的矩阵乘积: image.png 乘积结果矩阵的每一行是一个卷积结果图像...image.png image.png 在之前的文章“反向传播算法推导-全连接神经网络”中已经介绍过,激活函数实现的是向量到向量的逐元素映射,对输入向量的每个分量进行激活函数变换。...拆出激活函数之后,全连接层的输入数据是一个向量,计算该向量与权重矩阵的乘积,如果需要还要加上偏置,最后产生输出。

    1.4K10

    深入了解深度学习-线性代数原理(一)

    向量(vector):表示列数,有序排列,通常用粗体小写变量名称表示。 在索引向量中的元素时,用符号“-”表示集合中补集的索引, ? 为x中除 ? 外的所有元素, ? 表示除 ?...矩阵(matrix):表示一个二维数组,其中每个元素由两个索引决定,通常用粗体大写变量名称表示,通常用“:”表示水平坐标,表示垂直坐标中的所有元素,“Ai,:”表示A中垂直坐标i上的一竖排元素,简单来说...两个元素标准乘积不是指两个矩阵中对应元素的乘积,当两个相同位数的向量x和y相乘可看作点积。...---- 范数 机器学习中,通常使用范数表示向量的大小,是将向量映射到非负值的函数,简单来说,向量x的范数衡量从原点到x的距离。 矩阵范数:描述矩阵引起变化的大小, ?...---- 行列式 行列式(determinant):det(A),是一个将方阵A映射到实数的函数,行列式等于矩阵特征值的乘积。

    1.5K20

    微积分、线性代数、概率论,这里有份超详细的ML数学路线图

    如果你之前了解神经网络,就应该知道其基本的构建基块是以下形式的层: ? 其中,A 为矩阵,b 和 x 为向量,σ为 sigmoid 函数(或是其他激活函数)。Ax 是线性变换的一部分,则函数: ?...是向量空间 V 和 W 之间的线性变换 ? 对于 V 中的所有 x、y 值都成立,而且都是实数。 矩阵及其运算 矩阵最重要的运算是矩阵乘积。通常,矩阵 A、B 以及乘积 AB 表示为: ? ?...大多数特殊形式的目的是将矩阵 A 分解为矩阵乘积,矩阵分解后最好有一个是对角矩阵。奇异值分解(SVD),是指有一个特殊的矩阵 U 和一个对角矩阵Σ,使得: ?...其中 A 是矩阵,b 和 x 是矢量,σ是 sigmoid 函数(当然还有其他激活函数)。如何计算梯度? ? 写成如下的矢量 - 标量函数: ?...g 的梯度由矩阵定义,该矩阵的第 k 行是第 k 个分量的梯度 ? 该矩阵被称为 g 的总导数。在该例中 ? 包含两个函数 ? 和 ? 定义中用到了单变量 sigmoid 分量。

    1.5K30

    学习笔记DL004:标量、向量、矩阵、张量,矩阵、向量相乘,单位矩阵、逆矩阵

    标量、向量、矩阵、张量。 标量(scalar)。一个标量,一个单独的数。其他大部分对象是多个数的数组。斜体表示标量。小写变量名称。明确标量数类型。实数标量,令s∊ℝ表示一条线斜率。...向量(vector)。一个向量,一列数。有序排列。次序索引,确定每个单独的数。粗体小写变量名称。向量元素带脚标斜体表示。注明存储在向量中元素类型。...如果每个元素都属于R,向量有n个元素,向量属于实数集R的n次笛卡儿乘积构成集合,记ℝⁿ。明确表示向量元素,元素排列成一个方括号包围纵列。向量看作空间中点。每个元素是不同坐标轴上的坐标。...矩阵值表达式索引,表达式后接下标,f(A)i,j表示函数f作用在A上输出矩阵第i行第j列元素。 张量(tensor)。超过两维的数组。一个数组中元素分布在若干维坐标规则网络中。A表示张量“A”。...两个矩阵A、B矩阵乘积(matrix product)是第三个矩阵C。矩阵A列数必须和矩阵B行数相等。如果矩阵A的形状mn,矩阵B的形状是np,矩阵C的形状是mp。两个或多个矩阵并列放置书写矩阵乘法。

    2.8K00

    数据同化概念和方法(1)

    同化预报系统框架 上图是常规的同化预报系统框架。其中主要涉及到三个过程:前处理阶段,同化预报阶段和后处理。...明白上述的计算流程后,我们对上述过程涉及到的定义/术语进行简单的解释: 观测向量:由一些列观测数据构成的向量 背景向量:模式预报的大气状态向量 观测算子:可以理解为将模式变量从模式空间转换到观测空间的函数...,简单点可以理解为插值函数,负责将模式格点变量插值到观测格点 观测增量(innovation):观测向量和经过观测算子计算后的背景向量之差,就是将背景向量插值到观测格点后的结果和观测向量的差 代表性误差...:由于模式物理过程等简化所导致的误差,等于背景向量与真实向量之差 背景误差协方差:模式变量之间的总体误差矩阵 观测误差协方差:观测变量之间的总体误差矩阵 权重矩阵:根据观测误差协方差矩阵和背景误差协方差矩阵通过代数计算得到的权重系数矩阵...分析增量:观测增量和权重系数矩阵的乘积 弄明白了上述的系统框架和分析过程之后,就能对大气科学领域的数据同化有了基本的认识。

    8.1K42

    微积分、线性代数、概率论,这里有份超详细的ML数学路线图

    如果你之前了解神经网络,就应该知道其基本的构建基块是以下形式的层: 其中,A 为矩阵,b 和 x 为向量,σ为 sigmoid 函数(或是其他激活函数)。...Ax 是线性变换的一部分,则函数: 是向量空间 V 和 W 之间的线性变换 对于 V 中的所有 x、y 值都成立,而且都是实数。 矩阵及其运算 矩阵最重要的运算是矩阵乘积。...通常,矩阵 A、B 以及乘积 AB 表示为: 下图演示了计算过程: 矩阵乘法是线性变换的组合。...大多数特殊形式的目的是将矩阵 A 分解为矩阵乘积,矩阵分解后最好有一个是对角矩阵。奇异值分解(SVD),是指有一个特殊的矩阵 U 和一个对角矩阵Σ,使得: U 和 V 是酉矩阵,是一个特殊的矩阵族。...在二维(即 n=2)的情况下,可以将其图象想象为一个曲面(由于人类生活在三维世界,因此很难将具有两个以上变量的函数可视化)。 两变量的函数图像。 多变量微分 在单变量中,导数是切线的斜率。

    41910

    按部就班的吴恩达机器学习网课用于讨论(14)

    协同过滤 之前的系统中是已知了每个电影的向量x,通过构建目标函数,使用梯度下降的方法求得theta。但是在实际的系统中,x是未知的。...下图中第一行为求theta的目标函数,第二行为求x的目标函数,第三行将由前两行求和得到,其中的i和j需要遍历。 ?...在计算过程中,第二行为使用梯度下降法,针对目标函数使用不同的量作为变量,求得梯度,进行迭代。 ?...向量化:低秩矩阵分解 地址矩阵分解实质上是协同过滤算法,在表示形式上,使用梯度下降求得theta和x以后,使用Y矩阵表示最终的预测结果,使用theta和x的乘积,表示出Y的每一个值。 ?...在计算过程中,首先将目标预测矩阵Y中,所有已知值求得平均数,将Y归一化处理如下图。通过该矩阵的已知值作为目标y,求得theta和x。将求得的结果再加上均值mu,作为最后的输出。

    43820

    【机器学习】谱聚类

    首先介绍谱聚类其实是保持图上节点之间的相似性对节点进行向量表示。然后介绍了谱聚类的目标函数-最小化原始相似性矩阵与样本向量表示,相似性的乘积,由此导出谱聚类与拉普拉斯矩阵的关系。...图聚类-谱聚类 谱聚类是一种定义在图上的聚类算法,与其说是聚类算法,更像是一种图的向量表示。基于向量表示之后,一般可以采用其他的聚类方法完成最后聚类结果。...上式经过如下变换,也就得到了谱聚类与拉普拉斯矩阵的关系: 其中是按行求和(按列求和),因此矩阵为的按行求和(按列求和)的对角矩阵。 其中其中,我们称为拉普拉斯矩阵。...因此,当我们约束时,我们的目标函数为: 其中表示所有样本在维构成的向量,由.所以目标函数右乘有,因此,最小化目标函数等价的前个最小特征值相加,对应的为前个最下特征值对应的特征向量构成。...就此目标函数求解问题转变为特征向量求解问题。 得到图节点的向量表示之后,后面就可以采用常用的聚类算法进行聚类,比如Kmeans。

    82530

    机器学习中7种常用的线性降维技术总结

    计算特征值和特征向量:对协方差矩阵进行特征值分解,得到特征值和对应的特征向量。 选择主成分:按照特征值的大小选择前 k 个特征向量作为主成分,其中 k 是降维后的维度。...FA 和 PCA 有些相似,但也有一些重要的区别: 目标:PCA 旨在找到最大方差的方向,而 FA 旨在找到潜在的变量(因素),这些变量能够解释观察到的变量之间的共同变异。...计算特征值和特征向量:对于矩阵的逆矩阵乘以类间散布矩阵,得到的矩阵进行特征值分解,得到特征值和特征向量。 选择投影方向:选择特征值最大的前 k 个特征向量作为投影方向,其中 k 是降维后的维度。...给定一个 m × n 的矩阵 AA,其奇异值分解表示为: 其中,U 是一个 m × m 的正交矩阵,称为左奇异向量矩阵;Σ 是一个 m × n 的对角矩阵,其对角线上的元素称为奇异值;VT 是一个 n...给定一个非负矩阵 VV,NMF 将其分解为两个非负矩阵 WW 和 HH 的乘积形式: 其中,W 是一个 m × k 的非负矩阵,称为基矩阵(basis matrix)或者特征矩阵(feature matrix

    82010
    领券