腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Tensorflow
vs
PyTorch
中
的
梯度
计算
、
、
、
我正在尝试
计算
一个简单线性模型损失
的
梯度
。然而,我面临着一个问题,当使用
TensorFlow
时,
梯度
被
计算
为'none‘。为什么会发生这种情况,以及如何使用
TensorFlow
计算
梯度
?import numpy as np [91,as tape:
浏览 32
提问于2021-06-29
得票数 0
回答已采纳
1
回答
投影
梯度
下降
、
、
、
、
我想知道目前
的
深度学习框架是否能够执行项目
梯度
下降。
浏览 3
提问于2020-03-26
得票数 0
1
回答
什么是以磁带为基础
的
自修课程?
、
、
、
、
我知道autograd是用来暗示自动区分
的
。但是,究竟什么是tape-based autograd in
Pytorch
,以及为什么会有这么多
的
讨论来肯定或否认它。例如: 为进一步参考,请将其与GradientTape在
Tensorflow
浏览 0
提问于2020-11-16
得票数 12
回答已采纳
1
回答
计算
三阶张量
的
cp分解
的
梯度
下降法
、
、
我试着做
梯度
下降来
计算
三阶张量
的
CP分解。我正在使用tensorly,而且我还是个初学者。我不知道如何
计算
梯度
。到目前为止,我们所掌握
的
是: def CP_GD(T, rank, epsilon=1e-5,max_iters=100,lr=1e-2,verbose=True,errors_at_iterations
浏览 22
提问于2020-03-28
得票数 0
1
回答
在
TensorFlow
2.0
中
,`Tensor.grad`
的
等效语法是什么
、
、
、
在
Pytorch
中
,我们可以通过以下方式访问变量x
的
梯度
z.grad 在
Tensorflow
2
中
相同
的
语法是什么?我
的
目标是减少
梯度
。以下是
Pytorch
代码 if z.grad > 1000: z.grad = 10
tensorflow
2可以应用相同
的
功能吗? 谢谢
浏览 23
提问于2020-12-25
得票数 1
回答已采纳
1
回答
是否有一个
PyTorch
等价于tf.custom_gradient()?
、
、
我是
PyTorch
的
新手,但对
TensorFlow
有丰富
的
经验。 我想修改图中
的
一小部分
的
梯度
:仅仅是单层激活函数
的
导数。使用tf.custom_gradient可以轻松地在
Tensorflow
中
实现这一点,它允许您为任何函数提供定制
的
梯度
。我想在
PyTorch
中
做同样
的
事情,我知道您可以修改反向()方法,但这需要重写forwa
浏览 3
提问于2022-03-03
得票数 2
回答已采纳
2
回答
PyTorch
:损失保持不变
、
、
、
我已经用自己实现
的
损失函数focal_loss_fixed用
PyTorch
编写了一段代码。但我
的
损失价值在每个时代之后都是固定
的
。看起来权重没有更新。下面是我
的
代码片段: lr=lr,Loss: {}'.format(epoch_loss))def focal_loss_fix
浏览 2
提问于2018-10-16
得票数 1
1
回答
TensorFlow
/
PyTorch
:外部测量
的
损耗
梯度
、
、
、
、
其思想是将神经网络训练为未知非线性函数F
的
逆F^(-1),这意味着损失L是在F
的
输出处
计算
的
,但是由于F
的
梯度
不知道,反传播不能直接用于
计算
梯度
和更新NN权值。在
计算
TensorFlow
或
PyTorch
中
的
梯度
时,是否可以使用没有直接连接到神经网络
的
损失函数L?或承担任何其他软件(Matlab、C等)所获得
的
损
浏览 2
提问于2020-01-16
得票数 1
1
回答
如何将
TensorFlow
张量转换为
PyTorch
张量而不转换成Numpy数组?
、
、
、
我想在
Tensorflow
中使用一个预先训练过
的
Pytorch
模型,并且我需要将
tensorflow
张量转换为
pytorch
张量。但是,我不想将Py手电筒张量转换为numpy数组,并将其转换为
tensorflow
张量,因为我得到
的
错误是“您必须为占位符张量提供一个值”。当我制作图形时,我需要这个转换,这样
tensorflow
张量就没有价值了,并且不能转换为numpy!有什么解决办法吗?
浏览 5
提问于2021-01-24
得票数 2
回答已采纳
1
回答
tf.nn.ctc_loss和
pytorch
.nn.CTCLoss有什么区别?
、
、
、
、
对于相同
的
输入和标签: 在例2、例3和例4
中
,
计算
结果与
pytorch
.nn.CTCLoss不
浏览 1
提问于2019-08-05
得票数 2
1
回答
keras神经网络
中
的
分层传播(LRP)
、
、
、
我一直在跟踪使用实现
的
pyTorch
,并希望使用
Tensorflow
和Keras进行测试。我在Keras中使用了相同
的
加权模型(VGG16),并且能够成功地执行向前通过和元素
的
分区。# keras-
tensorflow
implementations = (R[l+在使用
的
原始代码(
pyTorch
)
中
,向后传递将使
浏览 7
提问于2020-06-24
得票数 2
2
回答
如何在
Tensorflow
2/keras自定义层中使用基于numpy
的
外部库函数?
、
、
、
、
我正在尝试使用keras实现
tensorflow
2
中
的
自定义层(它是从类层派生
的
层)。在编写调用函数时,我需要从只接受numpy数组
的
外部库调用方法。这是一个相当复杂
的
函数,当然它不使用
tensorflow
函数。我
的
调用函数输入一个张量,将其转换为numpy (通过.numpy()函数),从另一个库调用外部方法,然后将numpy数组转换回张量。如果我正确理解,这是由于我收到
的
类型
的
张
浏览 2
提问于2020-10-23
得票数 0
回答已采纳
1
回答
在
pytorch
https://www.d2l.ai/chapter_linear-networks/linear-regression-scratch.html
中
复制
、
、
我正在尝试用
pytorch
复制代码。然而,我在自动评分功能上遇到了一些问题。我遇到了以下运行时错误。b -= b.grad * 1e-5/batch_size b.grad.zero_() 有人能解释一下python
中
的
autograd是如何工作
的
吗?如果有人能给我推荐一个学习
pytorch
的
好资源,那就太好了。
浏览 19
提问于2019-10-02
得票数 0
1
回答
A2C
中
的
梯度
计算
、
、
在A2C
中
,参与者和评论家算法通过方程更新权重:θ=θ+α*δ*Grad(log(PI(a_s,θ))和所以我
的
问题是,当使用神经网络实现这一点时,谢谢,乔恩
浏览 2
提问于2020-01-27
得票数 0
回答已采纳
2
回答
PyTorch
线性代数
梯度
、
、
为了正则化
的
目的,我希望通过奇异值分解来反向传播
梯度
。
PyTorch
目前不支持通过奇异值分解进行反向传播。我知道我可以编写自己
的
自定义函数来操作变量;获取它
的
.data张量,对其应用torch.svd,将变量包装在它
的
奇异值周围,并在向前传递
中
返回它,然后在向后传递中将适当
的
雅可比矩阵应用于传入
的
梯度
。然而,我想知道是否有一个更优雅(也可能更快)
的
解决方案,我可以直接重写"Type Var
浏览 5
提问于2017-06-29
得票数 10
1
回答
在
PyTorch
中
实现一种简单
的
优化算法
、
、
、
、
我目前正在学习
PyTorch
,以便利用它
的
开源自动评分功能,作为我自己
的
练习,我想实现一个简单
的
优化算法,我已经在MATLAB
中
实现了这个算法。具体地说,我想做一个相同
的
优化循环,用Torch
的
自动
梯度
功能替换我自己
的
梯度
计算
。换句话说,我想在
PyTorch
中
执行与上面完全相同
的
算法,只是简单地使用
PyTorch
的</e
浏览 7
提问于2020-12-01
得票数 0
2
回答
我
的
用于MNIST数据集
的
python代码显示了巨大
的
错误值,我遗漏了什么?
、
、
下面你可以找到我
的
代码,这是我自学机器学习和Python
的
第一个认真的代码。我试图从头开始编写代码,而不是使用像NumPy这样
的
库。对于单个输入和输出,代码可以工作,但当涉及实际数据集(在本例
中
为784个输入对10个输出)时,它返回无穷大作为错误。我检查了我认为可能是问题
的
任何东西,但都没有成功。 代码可能是一个肮脏
的
解决方案。我从研究Trask Github
的
代码和他
的
多输入/输出代码开始,但当我将其修改为使用MNIST时,一切都变得疯狂。
浏览 12
提问于2019-05-02
得票数 0
回答已采纳
1
回答
pytorch
仅调整丢失数据
的
某些权重
、
、
我正在为一个经常遇到丢失数据
的
模型编写代码。
pytorch
(或
tensorflow
,因为我还没有写代码,所以也没问题)中有没有一个选项可以只
计算
/更新现有数据
的
梯度
和权重?实际上,这是从一个最大
的
神经网络中提取一个较小
的
神经网络。
浏览 0
提问于2018-04-10
得票数 0
1
回答
什么是
TensorFlow
/Keras等价于
PyTorch
的
`no_grad`函数?
、
、
、
在编写机器学习模型时,我发现自己需要
计算
度量,或者为了可视化目的在回调
中
运行额外
的
前传。在
PyTorch
中
,我使用进行此操作,这样可以防止
计算
梯度
,因此这些操作不会影响优化。如何在
TensorFlow
/KerasKeras模型
中
工作
的
是可调用
的
。所以,像model(x)这样
的
东西是可能
的
。但是,也可以说是model.predict(x),它似乎也调用了c
浏览 1
提问于2021-05-04
得票数 3
1
回答
缺少L1正则化
的
割炬稀疏解
、
、
、
我试图在一个简单
的
神经网络(一个隐藏层)
的
第一层上实现L1正则化。我查看了一些关于StackOverflow
的
其他文章,这些文章使用
Pytorch
应用l1正则化来确定应该如何做(参考文献:、)。无论我增加多高
的
lambda ( l1正则化强度参数),我都不会在第一个权重矩阵
中
得到真零。为什么会这样?-1) corr+=(pred==y).sum()注意:数据有10个特性(2个类和800个训练样本),并且只有前2
浏览 0
提问于2018-04-27
得票数 6
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
PyTorch VS TensorFlow谁最强?这是标星15000+Transformers库的运行结果
对比PyTorch和TensorFlow的自动差异和动态子类化模型
对比PyTorch和TensorFlow的自动差异和动态模型
PyTorch称霸顶会:CVPR论文占比是TensorFlow 4 倍
在 PyTorch 中使用梯度检查点在GPU 上训练更大的模型
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券