腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Tensorflow
加载
保存
的
模型
会
产生
非常
高
的
成本
值
、
我正在尝试
保存
Tensorflow
模型
并重用它。 为了清楚地理解这个问题,我创建了一个包含10个元素
的
二进制数据集,并在这10个元素上重复运行训练,而我每100次迭代
保存
一次
模型
。然后在相同
的
集合上运行测试。理想情况下,我希望测试在
保存
模型
时
产生
相同
的
成本
。然而,可能我遗漏了一些东西,
加载
一个经过训练
的
模型
并不能给出预期
浏览 6
提问于2017-08-07
得票数 0
1
回答
基于线性回归
的
潮流图像分割
、
、
、
、
假设在图像视图中有一个三维曲面,我想用线性
值
10来分割这个曲面的中间部分。这个曲面的边缘将是,比如说,5。当然,中间
的
所有体素都在5-10之间。然后,当体素从表面移开时,
值
迅速下降到零。通过二
值
分类,我得到了前景位置为1
的
图像和背景位置为1
的
图像--换句话说,就是分类:)现在我只想要一幅具有如下
值
的
地面真实图像. 通过这个线性回归例子,我假设我可以简单地将
成本
函数更改为最小二乘函数-- cost = tf.square(y -
浏览 3
提问于2016-07-28
得票数 1
回答已采纳
1
回答
在同一会话中测试时,
Tensorflow
使用
的
是最佳权重还是最新权重?
、
这可能是一个愚蠢
的
问题,但希望有人告诉我是或不是。假设我在
Tensorflow
中有一个LSTM网络,并且正在使用Adam Optimizer训练它,通过在训练期间为X和Y变量提供一组X和Y dict来最小化
成本
函数,然后在同一会话中,为变量提供新
的
X和Y dict以进行测试,
Tensorflow
是自动使用在训练期间找到
的
最佳
模型
(即使用在训练期间带来最低
成本
值
的
权重),还是仅使用其运行中
的
最新<em
浏览 19
提问于2019-11-05
得票数 1
回答已采纳
5
回答
当人们说
成本
函数是你想要最小化
的
东西时,这意味着什么?
、
、
这是否意味着你不应该经常使用
成本
函数?
浏览 0
提问于2016-06-26
得票数 8
回答已采纳
1
回答
“
模型
是空
的
!在包e1071中使用svm方法
的
调优错误
、
、
、
我正在尝试使用e1071中
的
trying函数来调优超参数epsilon和
成本
,但是每当我试图扩展想要测试
的
值
的
范围时,我都会得到这个错误: “predict.svm中
的
错误(ret,xhold,decision.values= TRUE):
模型
是空
的
!”我正在处理
的
是回归应用程序,而不是分类应用程序,我使用
的
数据用于密度配置文件,其中"x“表示面板旁边
的
位置,"y”对应于所测密度
浏览 5
提问于2022-05-10
得票数 0
1
回答
因为最好
的
(最低
的
)
成本
,什么时候停止训练?
、
我使用
TensorFlow
对图像进行LeNet网络分类。我使用AdamOptimizer来最小化
成本
函数。当我开始训练
模型
时,我可以观察到训练
的
准确性和验证
的
准确性以及
成本
都在变化,有时会减少,有时会增加。我
的
解决方案是定义一个全局变量( m
浏览 1
提问于2017-06-19
得票数 1
4
回答
如何在Python
Tensorflow
-Keras中筛选弱引用?
、
、
我写了一个语音识别python,我使用了tenserflow keras
模型
。 pickle.dump([regressor] ,mf)下面是我尝试过
的
完整代码
浏览 0
提问于2021-05-23
得票数 3
2
回答
tensorflow
模型
权
值
的
加载
--预测类
的
流变化顺序
、
、
、
、
在训练
模型
之后,我就可以成功地使用它来生成预测,但是,在
保存
并重新
加载
它之后,我
的
类
的
顺序就满了。原始
的
predict方法给出了N维数组(类
的
N=number ),但是每次重新
加载
模型
时,生成概率
的
顺序都会发生变化。我追踪到了
的
警告。编辑:我也尝试用joblib和keras.savel_model
保存
模型
对象,使用自定义预处理函
浏览 9
提问于2022-07-15
得票数 1
回答已采纳
1
回答
tf.softmax_cross_entroy_with_logits
的
输出不归一化?
、
、
我实现了一个简单
的
cnn网络
的
图像分类(二进制分类)。我在Python中使用
tensorflow
。我使用tf.softmax_cross_entropy_with逻辑作为
成本
函数。我从我
的
模型
的
输出层用未规范化
的
逻辑输入
成本
函数。函数应该输出规范化概率,还是我错了? 在培训我
的
模型
,我是印刷
成本
的
每一个例子。如果
模型
正确地预测了输出,则
成
浏览 0
提问于2017-06-09
得票数 0
回答已采纳
1
回答
加载
保存
的
tensorflow
模型
是否可以节省时间
问题是,我不能让我
的
电脑在ubuntu系统上运行我
的
tensorflow
-gpu。因为NVIDIA驱动不能安装在ubuntu.So上,所以我在Windows10上运行
tensorflow
-gpu,但它不支持
tensorflow
服务。我知道Docker可以帮助我做到这一点,而且我真的安装了它,但是只安装了
tensorflow
-cpu.如果我只运行
tensorflow
-cpu版本,速度
会
非常
慢。在这种情况下,我提出了一个想法,我安装了两个
浏览 1
提问于2017-09-08
得票数 0
1
回答
噪声不可微损失函数
的
自定义
Tensorflow
优化器
、
、
、
我使用低级别的
tensorflow
API构建了一个
模型
,它只有几个变量(大约10个),我想要优化这些变量。因此,我想实现一个自定义
的
损失函数,它
产生
噪声损失
值
(类似于一种基于仿真的优化方法)。有没有一种方法可以实现不可区分
的
损失函数,以及像SPSA这样
的
带有低级别
tensorflow
API
的
优化器? 有人可能
会
问,为什么要用
tensorflow
来做这个呢?这是因为我想使用
tensorfl
浏览 0
提问于2018-01-31
得票数 3
回答已采纳
1
回答
保存
整个
模型
后
的
Django信号
、
、
我有一个有2个ManyToMany字段
的
Django
模型
。我希望每次
保存
模型
中
的
数据时都对其进行处理。 post_save信号是在
保存
ManyToMany关系之前发送
的
,所以我不能使用它。是否有一个信号是在
保存
所有ManyToMany字段后触发
的
?
浏览 2
提问于2013-04-12
得票数 7
回答已采纳
1
回答
如何在
TensorFlow
中使用预训练
模型
、
和咖啡馆一样,互联网上也有一些经过预先训练
的
TensorFlow
模型
。然而,与
TensorFlow
不同
的
是,Caffe
的
模型
总是伴随着一个指示网络结构和层名
的
.prototxt文件,而Caffe依赖Python代码来定义神经网络。同时,由于variable_scope
的
存在,对于
TensorFlow
中
的
变量,它
的
名称可能
会
很长。这使得通过名称查找特定变量变得<em
浏览 2
提问于2017-07-19
得票数 2
1
回答
Tensorflow
:从Java中
保存
SavedModelBundle
模型
、
、
、
可以从Java中
保存
SavedModelBundle吗?我
的
用例是我想 (我想用Java而不是Python来做这件事,因为我
的
整个应用程序都是用Java (Scala)实现
的
,因此,跳转到Python
会
增加很多复杂
的
问题。)
浏览 0
提问于2018-10-05
得票数 0
1
回答
如何从没有会话
的
keras .h5文件中获取
Tensorflow
会话
、
、
、
这个问题背后
的
动机是,我使用Matterport
的
MaskRCNN
保存
了一个Keras
模型
,并且在tf.keras.callbacks.ModelCheckpoint()中
非常
明确地将save_weights_only原来在ModelCheckpoint()回调中有一个bug,它有时不能
保存
完整
的
模型
。当您在关闭TF会话后
加载
模型
时,这显然是一个问题,因为Graph、体系结构和优化器状态已经消失,使得重新
加载
浏览 1
提问于2019-10-24
得票数 1
2
回答
在张量流中
保存
和
加载
模型
、
、
我训练了一个LSTM
模型
,并将该
模型
保存
为:model.save_weights('Model')但是当我使用时:对于所有的
保存
选项,model.predict()为不同
的
输入提供相同
的
输出。有没有办法
保存
模型
以给出正确<e
浏览 0
提问于2021-01-15
得票数 0
1
回答
如何在没有
tensorflow
的
情况下
保存
keras
模型
、
、
Tensorflow
是一个
非常
重
的
库,有没有办法在不使用
Tensorflow
库
的
情况下
保存
和
加载
keras
模型
(.h5)?
浏览 10
提问于2021-11-02
得票数 0
1
回答
清除变量以释放Lua / Torch中
的
内存(GPU或CPU)
、
有时我需要
加载
一个
非常
大
的
模型
,这会导致内存
成本
非常
高
,例如: net = torch.load('.
浏览 6
提问于2016-06-17
得票数 3
1
回答
运行时错误:是否有一种在CPU上实现torch.load(model.pt)
的
方法?
、
为了使用我
的
GPU训练
的
模型
,我想在我
的
CPU上运行。如果我正确理解它,已经有了一个解决方案,即
保存
和
加载
模型
参数(或state_dict)。不过,我想知道是否也可以通过
保存
/
加载
整个
模型
而不是其参数来实现同样
的
目标。为了在CPU上
加载
经过GPU训练
的
模型
,我做了以下工作: def __init__(self, entire_m
浏览 4
提问于2021-11-12
得票数 1
2
回答
紧急
加载
整个
模型
以估计
Tensorflow
服务
的
内存消耗
、
、
、
、
Tensorflow
Serving lazy在执行预测时初始化
模型
DAG中
的
节点。这使得很难估计容纳整个
模型
所需
的
内存(RAM)。有没有一种标准
的
方法来强制
Tensorflow
服务完全初始化
模型
/将
模型
加载
到内存中?
浏览 4
提问于2019-05-07
得票数 4
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
还在用原生Tensorflow吗?试试TF-Slim吧
Tensorflow入门教程(四)——向Tensorflow提供数据
Tensorflow学习笔记-模型、图的存储与加载
用TensorFlow实现ML模型并调优:每秒可做3亿次预测
如何转化模型文件
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券