腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
输入
装载
器
中
的
Tensorflow
批处理
大小
、
、
、
我是
Tensorflow
的
新手,我不明白为什么
输入
占位符经常与用于训练
的
批次
的
大小
一起标注。在本例
中
,我找到了,而在官方
的
Mnist教程
中
没有mnist = read_data_sets("MNIST_data/", one_hot=True)se
浏览 3
提问于2017-01-22
得票数 4
回答已采纳
1
回答
更快
的
RCNN +初始v2
输入
大小
、
、
、
更快
的
RCNN RPN
的
输入
大小
是多少?我使用了
Tensorflow
的
对象检测API,它使用更快
的
RCNN作为区域建议网络( RPN )和Inception作为特征提取
器
(根据配置文件)。API在预测阶段采用在线方法,对每一
输入
图像进行单点检测。但是,我现在正尝试使用
Tensorflow
dataset API,以
批处理
的
方式向网络提供图像。正如您所知道
的
,为了使
浏览 0
提问于2018-11-20
得票数 0
回答已采纳
1
回答
keras.Model
中
输入
的
额外维度从何而来?
、
当我像这样定义一个模型时: import
tensorflow
as tfimport numpy as np prediction =
浏览 10
提问于2021-04-29
得票数 0
回答已采纳
1
回答
Trigger.Once火花结构化流卡夫卡抵消和写作卡夫卡继续
、
、
、
在使用Trigger.Once结构化流和处理卡夫卡
输入
时 - and KAFKA is being
浏览 4
提问于2022-02-25
得票数 1
1
回答
在
Tensorflow
中指定模型时,我们为什么需要担心
批处理
维度?
、
考虑到神经网络
中
每个层
的
批处理
维度似乎有点麻烦。为什么我们在
Tensorflow
中
没有一些可以为整个模型设置
批处理
大小
的
功能?
浏览 3
提问于2016-07-08
得票数 3
1
回答
为可变
大小
和固定
大小
的
输入
创建
TensorFlow
占位符有什么缺点吗?
我想知道是否有任何实质性
的
缺点(例如,关于计算效率,内存.)在为可变
大小
的
输入
(相对于固定
大小
的
输入
)创建
TensorFlow
占位符时?比方说,我正在进行小型
批处理
学习,并使用占位符初始化图形,在该占位符
中
,我预先假定了一个固定
的
batch_size: tf.placeholder(..., shape=[batch_size, ...或者,我可以初始化占位符变量,以便它接受可变
大小</em
浏览 4
提问于2017-03-02
得票数 9
回答已采纳
1
回答
对2d数据使用卷积自动编码
器
的
问题
、
、
、
、
我想训练一个用于gpr调查
的
自动编码
器
。
输入
数据维度是149x8。但是,当我尝试深度自动编码
器
时,它工作得很好 input_img = Input(shape=(8,)) x = layers.Conv2D(16, (3, 3), activation='relu', padding='
浏览 24
提问于2021-11-06
得票数 1
1
回答
在
tensorflow
元图形
中
重置
输入
占位符
的
形状
、
、
、
、
我用
tensorflow
训练了一个神经网络。在训练时,我显式地定义了
批处理
大小
为20
的
输入
占位符
的
形状,如下面的[20,224,224,3]。我显式地定义了
批处理
大小
,因为它是网络
中
的
一个split层,将None作为
批处理
大小
传递会抛出错误。有没有办法可以在推断时更改
输入
占位符
的
形状,以便我可以在单个图像上进行推断?
浏览 4
提问于2017-08-10
得票数 2
回答已采纳
1
回答
不同序列长度批次
的
多头自关注输出尺寸
、
我有一个关于变压
器
自我注意层
的
问题。在处理小批
中
不同长度
的
序列时,我们使用pad序列,使
批处理
中
的
所有序列都具有相同
的
长度。假设数据集中
的
大多数序列都是<500个元素长,但是有一些非常长
的
序列可以是1000s
的
元素长。如果我想在不截断
的
情况下处理那些非常长
的
序列,那么即使
输入
批次不包含任何长序列,多头自我关注层
的
大
浏览 0
提问于2022-09-08
得票数 0
回答已采纳
1
回答
"max_batch_size“在
tensorflow
batching_config.txt
中
是什么意思?
、
我使用
的
是带有--enable-batching=true
的
GPU上
的
tensorflow
。 gRPC调用返回代码:3:任务
大小
158大于最大<em
浏览 1
提问于2018-11-02
得票数 1
2
回答
禁用Keras
批处理
标准化/标准化
、
、
、
、
我使用一个简单
的
Keras模型来进行序列预测。在训练过程
中
,模型
的
预测精度似乎是正确
的
。但是,当我绘制model.predict()函数
的
输出时,我可以看到输出已经以某种方式被缩放了。它似乎是某种规范化/标准化
的
缩放类型。 在培训
中
更改
批处理
大小
会影响结果。我尝试将
批处理
大小
设置为
输入
集
的</
浏览 3
提问于2017-05-21
得票数 1
回答已采纳
2
回答
具有可变
输入
大小
的
自动编码
器
、
、
我正在尝试开发一个自动编码
器
的
声音,有一个在0.05秒和30秒之间
的
可变长度。我想知道是否有可能创建一个简单
的
自动编码
器
,考虑到这个可变长度作为
输入
,或者我应该做一些
输入
之前
的
预处理。
浏览 2
提问于2021-04-18
得票数 1
1
回答
Tensorflow
:将批量
大小
设置为None有什么缺点吗?
、
有时建议在网络创建期间将
批处理
大小
设置为无,这样它就不会绑定到任何特定
的
批处理
大小
。我
的
问题是,在
tensorflow
中
是否有任何惩罚,让一个维度(批量
大小
,但也可以是一些特殊网络
的
输入
宽度或高度)在评估之前未知?让网络提前知道批量
大小
有什么好处吗?
浏览 2
提问于2017-04-22
得票数 2
2
回答
为什么在Keras层
的
方法调用
中
批处理
大小
为None?
、
我正在Keras
中
实现一个自定义层。如果打印传递给call方法
的
输入
的
形状,将None作为第一个元素。为什么会这样呢?第一个元素不应该是
批处理
大小
吗?当我调用model.fit时,我传递
的
是批
大小
model.fit(x_train, y_train, ..., batch_size=batch_size) 那么,call在call方法
中
获得
批处理
大小
的</e
浏览 0
提问于2019-04-28
得票数 9
回答已采纳
1
回答
是否有一种方法可以自动获取特征地图
的
形状,并使用它在
Tensorflow
中
构建图形?
、
、
我正在建造我自己
的
CNN number_neuron_output
的
卷积层,number_neuron_1st完全连接层。我想要做
的
是自动获取width_feature映射、height_feature映射、map*number_feature映射,这样就可
浏览 5
提问于2017-04-11
得票数 0
1
回答
只使用model.fit和只使用steps_per_epoch
的
Keras batch_size
的
区别
、
、
、
每个梯度更新
的
样本数。如果未指定,batch_size将默认为32。steps_per_epoch:整数还是零。在声明一个时代完成并开始下一个阶段之前,步骤总数(批样本)。当使用
输入
张量(如
TensorFlow
数据张量)进行训练时,默认值不等于数据集中
的
样本数除以
批处理
大小
,如果无法确定,则为1。 我知道这两个参数在某种程度上是等价
的
。但是,在我
的
膝上型计算机上(使用带有2GB VRAM
的
GeForce 940 M显卡并训练ci
浏览 1
提问于2018-05-10
得票数 2
回答已采纳
1
回答
convnet InvalidArgumentError:
输入
整形是一个张量,值为28800000,但所请求
的
形状有57600
、
、
、
、
我试着从孩子们
的
挑战中分割出图像。我在这两个存储库
的
组合中使用U-net: 然后, 这是形状test_x:(500,240,240这是形状批
浏览 0
提问于2018-05-27
得票数 0
回答已采纳
1
回答
卷积神经网络(CNN)
输入
形状
、
、
、
我是CNN
的
新手,我有一个关于CNN
的
问题。我对CNN
的
输入
形状(特别是Keras)有点困惑。我
的
数据是不同时隙
的
2D数据(比方说10X10)。因此,我有3D数据。我将把这些数据
输入
到我
的
模型
中
,以预测即将到来
的
时间段。因此,我将有一定数量
的
时隙用于预测(假设10个时隙,到目前为止,我可能有10X10X10数据)。现在,我
的
问题是,我必须将这些数据作为具有10个通道
的</e
浏览 10
提问于2020-02-11
得票数 4
回答已采纳
1
回答
tensorflow
convnet是否只在多个GPU之间重复模型?
、
、
我目前正在运行一个用于图像识别的
Tensorflow
convnet,并且我正在考虑购买新
的
GPU来支持更复杂
的
图形、
批处理
大小
和
输入
尺寸。我读过像这样
的
帖子,它们不建议使用AWS实例来训练凸网,但是更多
的
意见总是受到欢迎
的
。 我已经阅读了
Tensorflow
的
指南,而且图形似乎是在GPU上复制
的
。我想知道这是在
Tensorflow
convnet中使用并行GPU
浏览 4
提问于2017-06-22
得票数 0
回答已采纳
1
回答
tensorflow
在多个图像上
的
预测
、
我已经使用重新训练图像-再训练示例训练了一个
tensorflow
模型:import numpy as npimport globmodelFullPath = 'output_graph.pb' "if i % 100 == 0: print(str(i) +' of a total of
浏览 0
提问于2016-11-29
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
动态神经网络工具包Dynet
TensorFlow深度自动编码器入门实践
基于tensorflow.js在浏览器中设计训练神经网络模型的18条建议
用TensorFlow实现ML模型并调优:每秒可做3亿次预测
大数据分析使用torchlayers构建PyTorch模型
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券