腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Pytorch
变量
更改
numpy
变量
,
即使
内存地址
不同
、
、
我有以下几段代码: a = torch.ones(10); b = a.
numpy
()print(a, b) 尽管我只修改了a,但这两个
变量
基本上保持相同的值。但是,我使用hex(id(a))检查了a和b的
内存地址
,发现它们是
不同
的。那么,在这种情况下,b是指向a的指针吗?到底怎么回事?
浏览 25
提问于2019-10-06
得票数 0
回答已采纳
2
回答
将
PyTorch
变量
复制到
Numpy
数组
、
、
、
假设我在GPU中有一个
PyTorch
变量
:将(而不是桥)这个
变量
复制到
NumPy
数组的最佳方法是什么?var.clone().data.cpu().
numpy
()var.data.cpu().
numpy
().copy() 通过运行快速基准测试,.clone()略快于.copy()。然而,.clone() + .
numpy
()将创建一个
PyTorch
浏览 1
提问于2018-03-08
得票数 4
回答已采纳
1
回答
焦火炬中张量加法与赋值的区别
、
我发现
pytorch
对张量分配和加法分配的处理是
不同
的。,而添加则会
更改
地址。例如,在
pytorch
教程“torch.nn到底是什么?”如果我们将减号赋值
更改
为下面所示的常规赋值,则代码不起作用。但是,在python中,+=和=没有区别,两者都会
更改
变量
地址。
浏览 5
提问于2021-07-31
得票数 1
1
回答
C#澄清堆和堆栈是如何工作的,包括通过引用和值传递参数
、
、
、
、
;时,"obj"
变量
将有一个
内存地址
存储在其中(它是一个指针),指向堆内存中存储对象的位置。我在Python中知道,当我将"obj“
变量
更改
为整数对象时,该对象将被垃圾收集(假设不再有引用),因为整数对象实际上将存储在内存中具有
不同
内存地址
的另一个地方,这意味着"obj”
变量
将知道包含一个完全
不同
的引用在C#中,这似乎有点
不同
。 当我将值类型存储在
变量
内存空间的堆栈中并将<em
浏览 6
提问于2022-08-07
得票数 1
回答已采纳
3
回答
叉()和全局
变量
、
我知道,当两个
变量
具有相同的地址时,它们将具有相同的值,但在我的例子中,var“a”在子进程和父进程中有相同的地址。但当我在子进程中设置a=1时,父进程中的a值停留在5.为什么?
浏览 4
提问于2018-01-05
得票数 0
回答已采纳
4
回答
避免将未
更改
的
变量
传递到库中
、
、
问题是,要调用函数,每次都要传递很多
变量
,
即使
它们的值没有改变。例如,ReadProcessMemory要求我传递: 每次读取时唯一要
更改
的是
内存地址
,所以每次调用该函数时,我都不需要传递其余的
变量
(实际上有3个函数可以用这种方式减少,而且可能很快就会有更多的
变量
)。这些
变量
是否在运行时存在,所以我只需调用函数并直接从DLL文件中使用它们?
浏览 1
提问于2013-01-18
得票数 0
回答已采纳
1
回答
Tensorflow to
PyTorch
- model.predict等效
、
、
在基于TensorFlow的原始代码中,我将此代码转移到
PyTorch
(出于研究原因)。
浏览 3
提问于2020-07-09
得票数 0
1
回答
如何防止
PyTorch
对已赋值的值进行小
更改
、
、
、
、
PyTorch
对我指定的值做了很小的修改,这在我的神经网络中造成了非常
不同
的结果。例如:b = torch.tensor(a)产出如下:
PyTorch
对我的
变量
a所做的小小改变在我的神经网络中造成了一个完全
不同
的结果如何防止
PyTorch
对赋值进行小的
更改
?
浏览 5
提问于2021-02-20
得票数 0
回答已采纳
2
回答
在运行Linux或Windows的桌面计算机上,有没有办法在C中“测试”"volatile“关键字的使用?
、
、
、
、
我知道C中的“volatile”关键字是用来告诉编译器不要将
变量
从RAM内存加载到寄存器或缓存中,而总是从计算机工作内存中读取
变量
。然而,我也读到了这样的用例:当另一个设备修改存储在
变量
中的
内存地址
的值时。当程序在Linux或Windows机器上运行时,有没有可能修改
内存地址
值?是否可以从另一个程序
更改
程序的
变量
(在
不同
的进程中运行,而不仅仅是在
不同
的线程中运行)?
浏览 1
提问于2017-10-12
得票数 3
1
回答
如何调用np.array的值而不是
内存地址
?
、
、
在下面的代码中,我打算通过附加(随机)
numpy
数组从一个空的列表开始创建一个列表。对于临时
变量
,我初始化了一个
numpy
数组
变量
'sample_pt‘,它作为一个临时
变量
保存(随机)
numpy
数组。虽然我希望有一个随机的
numpy
数组列表,但输出的是一个由相同的(最终)
numpy
数组填充的列表。我怀疑通过“
变量
名”调用
numpy
数组会返回它的
内存地址
。我是在正确的方向上,还是有什么
浏览 1
提问于2018-06-19
得票数 0
1
回答
当两个
变量
的值相同时,它们的
内存地址
是相同的?
、
、
我在Python中保留了两个
不同
变量
的值,以知道它们的
内存地址
通过使用id()函数也是相同的,当然,这两个
变量
的
内存地址
是相同的,但是我在C++中执行了相同的过程,所以我使用(&)操作符得到了两个
不同
的
内存地址
,所以我必须知道在C++内部还是在Python内部的
内存地址
。
浏览 5
提问于2022-06-21
得票数 -3
0
回答
pytorch
中的张量除法。断言错误
、
、
这是一个
pytorch
初学者的问题。在
pytorch
中,我尝试用两个大小为5,5,3的张量进行元素除法。在
numpy
中,使用np.divide()可以很好地工作,但不知何故,我在这里得到了一个错误。我使用的是Python3.5的
PyTorch
版本0.1.12。C= 5x5x3大小的torch.DoubleTensorinput_patch是torch.autograd
变量
的片段,c是通过执行c= torch.from_<em
浏览 11
提问于2017-06-13
得票数 0
回答已采纳
3
回答
确定分叉后的内存是否为“复制即写”。
、
、
、
对于给定的
变量
,使用&运算符访问的虚拟
内存地址
对于分叉进程来说似乎是相同的,
即使
这些进程在该
变量
中存储
不同
的值。是否有方法确定独立进程中的
变量
是否存储在相同的物理地址中?是否有办法确定他们是否没有?
浏览 1
提问于2014-08-30
得票数 3
回答已采纳
2
回答
在
PyTorch
中,如何将与cuda()相关的代码转换为CPU版本?
、
、
、
、
我有一些现有的
PyTorch
代码,cuda()如下所示,而net是一个MainModel.KitModel对象:net.cuda()im= cv2.imread(image_path)我想在没有任何GPU的机器上测试代码我试着查看一些关于
PyTorch
的CPU/GPU切换的相关帖子,但它们与device的使用有关,因此不适用于我的情况。
浏览 26
提问于2020-05-27
得票数 3
回答已采纳
1
回答
自动微分:数值还是精确?
、
、
我有一个关于自动微分的问题,特别是在
Pytorch
中,因为我正在使用这个库,例如,我见过自动微分给出表达式对
变量
的偏导数。然而,就我所见,结果总是在一个特定点给出,这意味着它是一个具有数值values.My的张量,问题如下:假设我们定义一个两个
变量
的函数: f(x,y)= x²+ y²。
Pytorch
是否能够返回一个函数,该函数对应于f对x或y的偏导数?即返回以下定义: return
浏览 13
提问于2021-02-23
得票数 0
回答已采纳
2
回答
PyTorch
就地操作符在
NumPy
转换中的问题
、
我将
PyTorch
Tensor转换为
NumPy
ndarray,如下所示,'a‘和'b’都有
不同
的I,因此它们指向
不同
的内存位置。我知道在
PyTorch
中下划线表示就地操作,这样a.add_(1)就不会改变a的内存位置,但是为什么它会
更改
数组b的内容(由于id的
不同
)?import torchb = a.
numpy
()print(
浏览 4
提问于2021-06-21
得票数 1
回答已采纳
2
回答
TypeError: add():参数“”other“”(位置1)必须是张量,而不是
numpy
.ndarray
、
、
、
、
我正在使用
Pytorch
和fastai在安装了最新anaconda3的linux系统上测试ResNet-34 trained_model。为了将其作为批处理作业运行,我注释掉了与gui相关的行。preds*targs).float().sum(dim=0)
numpy
.ndarray
浏览 2
提问于2018-12-27
得票数 4
1
回答
两个具有相同字符串值的
不同
变量
被引用到相同的
内存地址
。
、
、
StringTest { String s2 = "Joe";} ==检查两者是否被引用到相同的
内存地址
如果是这样的话,
即使
是两个字符串也被分配给两个
不同
的
变量
,为什么输出说两者都被引用到相同的
内存地址
。
浏览 0
提问于2015-03-09
得票数 0
1
回答
为什么局部
变量
的地址在同一二进制映像的每次执行过程中都会不断变化?
、
、
printf("%p\n", &p);}为局部
变量
分配的虚拟地址在运行时
不同</e
浏览 0
提问于2018-01-20
得票数 3
回答已采纳
3
回答
如何在Java中创建指向引用
变量
的指针
变量
?
我想创建一个指向
不同
引用
变量
所指向的
变量
的
变量
,这样,如果我
更改
引用
变量
的指向位置,指针
变量
也会自动指向那个新位置。 例如,假设我认为我最喜欢的书就是我当地图书馆最喜欢的书。在上面的代码中,
更改
libraryFavourite所指向的内容不会自动
更改
myFavourite所指向的内容。它仍然指向littleWomen。我知道引用
变量
保存
内存地址
,因此myFavourite = libraryFavo
浏览 2
提问于2014-10-28
得票数 2
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
变量的基础知识梳理
python里面什么是身份运算符
借问变量何处存,牧童笑称用指针,Go lang1.18入门精炼教程,Go lang类型指针(Pointer)的使用EP05
从头开始了解PyTorch的简单实现
Keras 3.0正式发布:可用于TensorFlow、JAX和PyTorch
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券