腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如
何在
keras
层
中
实现
GlobalMinPool2D
函数
?
、
、
、
、
keras
层
提供
keras
.layers.GlobalAvgPool2D和
keras
.layers.GlobalAvgPool2D api来
实现
全局平均2d池化和最大池化。但是,最小池也可能是有用的,现在我想使用
GlobalMinPool2D
,
keras
layers没有implement.So如何编写代码来
实现
keras
layers
GlobalMinPool2D
?
浏览 24
提问于2021-11-05
得票数 1
1
回答
Keras
2:在“合并”
层
中使用lambda
函数
、
、
、
我正在尝试
实现
这个合并
层
: policy = merge([out1, out2], mode = lambda x: x[0]-K.mean(x[0])+x[1], output_shape = (out_node,)) 然而,"merge“在
Keras
2
中
不再存在。你只能访问公共标准化的"Merge”
层
,
如
Add,Multiply,Dot。 如
何在
Keras
2
中
实现
此功能?我想过做两个合并
浏览 19
提问于2019-04-20
得票数 5
回答已采纳
1
回答
MNIST数据集上的i-RevNet on
keras
、
我想在
keras
上的MNIST数据集上
实现
i-RevNet,并从i-RevNet的输出生成原始的28*28输入图像,但我没有线索。我能找到的在线资源都是基于tensorflow的。
浏览 2
提问于2018-08-08
得票数 0
0
回答
Keras
中
的自定义损失
、
我想在
Keras
中
实现
一个自定义损失,将最后一个仿射
层
作为输入。这是
中
描述的SGM损失。 这意味着损失
函数
不仅将y_true和y_predict作为参数,还将最后一个仿射
层
作为参数。如
何在
keras
中
实现
这一点?
浏览 2
提问于2017-12-06
得票数 0
1
回答
使用
keras
的注意力卷积
、
、
、
、
我已经在
keras
中
实现
了一个细心的卷积
层
,
如
本所述。我刚开始
实现
自定义
层
,它仍然很慢。如果有人有一些关于如何改进
层
的技巧或
实现
自定义
层
的一般技巧,比如如何避免后端(tensorflow)
函数
,那就更好了。谢谢
浏览 0
提问于2018-02-05
得票数 1
2
回答
如
何在
Keras
中
连接两个模型?
、
、
、
我正在尝试在
keras
中
创建一个模型。我读了一篇论文,我想从这篇论文中创建一个模型。下面是我想要的:ArchitectureInPaper 我试着创建一个这样的模型,但我不知道如
何在
Keras
中
连接两个模型。以及如
何在
本文中创建这样的体系结构模型。
浏览 29
提问于2019-06-18
得票数 0
2
回答
如
何在
PyTorch
中
实现
时间分布密集
层
、
在一些分析时态数据(
如
音频或视频)的深度学习模型
中
,我们使用了一个“时间分布密集”
层
(TDD)。这所创造的是一个完全连接(密集)
层
,它分别应用于每一个时间步骤。如
何在
中
手动
实现
的时间分布密集性?
浏览 13
提问于2020-04-22
得票数 3
回答已采纳
1
回答
如
何在
iOS (或Android)应用程序中使用
keras
h5模型
、
/
keras
-env/local/lib/python2.7/site-packages/coremltools/converters/
keras
/_
keras
_converter.pyc in convert/
keras
-env/local/lib/python2.7/site-packages/coremltools/converters/
ke
浏览 0
提问于2018-02-14
得票数 0
2
回答
如何使用线性激活
函数
、
在
Keras
中
,我可以创建任何具有线性激活
函数
的网络
层
,如下所示(例如,采用完全连接的
层
):但我在PyTorch文档
中
找不到线性激活
函数
。如
何在
PyTorch
中
创建具有线性激活
函数
的
层
?
浏览 3
提问于2021-02-20
得票数 0
1
回答
角化文本矢量化
层
的反向?
、
、
、
tf.
keras
.layers.TextVectorization
层
将文本特性映射为整数序列,由于它可以作为
keras
模型
层
添加,因此可以方便地将模型部署为单个文件,该文件以字符串作为输入并对其进行处理我正在使用一个LSTM模型来预测前面单词
中
的下一个单词。例如,我的模型需要接受一个字符串“我爱”,并且应该输出可能的下一个单词,
如
“猫”、“狗”等等。我可以使用这样的tf.
keras
.preprocessing.text.Tokenizer手动执行这个整数之间的映射字符串
浏览 4
提问于2022-04-09
得票数 0
1
回答
Tensorflow 2:如
何在
keras
函数
API中使用密集
层
堆栈?
、
、
、
、
我正在构建一个模型,在这个模型
中
,我希望将no_of_dense_layers作为参数,并期望from
函数
在循环中创建密集的
层
。在循环中创建密集
层
不是问题,我的问题是如
何在
Keras
中
传递密集
层
堆栈
中
的值?假设我想要3个密集
层
: def get_layers(no_of_dense_layers , dense_size): return [tf.
keras
.layers.Dense(de
浏览 3
提问于2020-07-24
得票数 1
回答已采纳
1
回答
"tensorflow.math.multiply“和"tensorflow.
keras
.layers.multiply”有什么区别?
、
、
、
、
tensorflow.math.multiply和tensorflow.
keras
.layers.multiply有什么区别?同样,tensorflow.math.add和tensorflow.
keras
.layers.add的区别是什么?我之所以有这个问题,是因为当我构建自己的自定义损失
函数
和度量标准product = multiply([y_true_f, y_pred_f])时,如果我使用from tensorflow.
keras
.layers我根据其他人的代码编写自定义度量
函数
的以下代码。(从te
浏览 9
提问于2020-01-01
得票数 2
2
回答
在
keras
中使用backprop优化输入特性
、
、
我试图在
Keras
中
实现
鉴别条件码,
如
其主要思想是将每个条件编码为输入参数,让网络学习条件与特征标签映射之间的依赖关系。数学看起来很简单,但我不知道如
何在
没有访问后台支持的情况下在
keras
中
实现
这一点。例如,我是否可以添加一个trainable=True的输入()
层
,并将所有其他
层
设置为trainable= False。
keras</e
浏览 2
提问于2017-04-11
得票数 5
1
回答
Keras
合并
层
警告
、
、
我一直收到这样的警告: lstm.py:119: UserWarning:merge
函数
被取消,并将在08/2017之后被删除。使用来自
keras
.layers.merge的
层
,例如add、concatenate等。merged_vector = merge(l1、l2、mode=lambda x:(X-x1)**2、output_shape=lambda x: x) concatenate UserWarning:Merge
层
已被废弃使用来自
keras
.layers.merge的
层<
浏览 0
提问于2017-04-01
得票数 6
回答已采纳
1
回答
如
何在
keras
.backend和
keras
.layers之间进行选择?
、
、
、
、
我发现在
keras
.backend或
keras
.layers中有许多相同的名称,例如
keras
.backend.concatenate和
keras
.layers.Concatenate。我模糊地知道,一个是张量,另一个是
层
。但是当代码这么大的时候,这么多的
函数
让我混淆了张量或者
层
。有人有解决这个问题的好主意吗?我发现的一种方法是首先在一个
函数
中
定义所有占位符,但
函数
将其作为变量在结束时返回
层
,而另一
浏览 0
提问于2018-12-20
得票数 0
回答已采纳
1
回答
火枪
中
的CrossMapLRN2d
、
、
我必须将用py手电筒编写的代码转换为
keras
(带有tensorflow后端)。但是有一个叫做CrossMapLRN2d的
层
,它在
Keras
中
没有直接的对应。所以想知道这个
层
是做什么的,以及如
何在
keras
中
实现
它。确切的代码行是 nn.CrossMapLRN2d(size=5, alpha=0.0001, beta=0.75, k=1.0)
浏览 0
提问于2019-12-19
得票数 0
回答已采纳
2
回答
如
何在
Keras
中
向CuDNNGRU或CuDNNLSTM添加递归辍学
、
、
、
通过传递作为
层
参数的值,可以在
Keras
中
的基本LSTM或GRU
层
上应用递归下拉列表。 CuDNNLSTM和CuDNNGRU是与CUDA兼容的LSTM和GRU
层
。主要的优点是他们在训练
中
的速度是原来的10倍。然而,它们缺乏
Keras
中
LSTM或GRU
层
的一些优点,即传递辍学或反复辍学的可能性。虽然我们可以直接在模型
中
添加Dropout
层
,但是我们似乎不能通过递归Dropout来
实现
浏览 0
提问于2018-12-06
得票数 5
回答已采纳
2
回答
VGG19网的
Keras
实现
有26
层
。多么?
、
VGG-19网络有25个
层
,
如
所示.但是,如果我检查
Keras
实现
中
的层数,它将显示26个
层
。多么?len(model.layers)26
浏览 0
提问于2019-02-01
得票数 0
回答已采纳
1
回答
在训练过程
中
,如何处理分类
层
后的大输出值?
、
、
、
在诸如Tensorflow、
Keras
等人工智能库
中
,如
何在
训练过程
中
处理大的输出数字?例如,对于分类
层
,它将有一些输出,
如
[23.4, -21254.3, 32123.4]。在接下来的步骤
中
,这些数字将进入softmax
函数
,该
函数
将以每个输出数作为基e的功率。然而,如果正数非常大或负数极小,这可能会导致极大的数字。那么,在培训过程
中
,如何处理极端的案例呢?
浏览 0
提问于2021-02-09
得票数 0
2
回答
当我在BinaryCrossentropy(from_logits=True)中使用tensorflow.
keras
时,应该使用什么作为目标向量?
、
、
、
、
我到目前为止的理解是: 另外,我知道tf.
keras
.losses.BinaryCrossentropy()是tensorflow的sigmoid_cross_entropy_with_logits的包装器当网络
实现
最后一
层
的乙状结肠激活时,tf.
keras
.losses.BinaryCrossentropy()必须与from_logits=False一起使用。为了提高数值稳定性,我们可以避免最后的乙状结肠
层
,并使用tf
浏览 8
提问于2020-04-15
得票数 4
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用Keras进行深度学习:(一)Keras 入门
Keras还是TensorFlow?程序员该如何选择深度学习框架?
Keras和TensorFlow之争何时休?
Keras官方中文版文档正式发布了
基于 Keras 对深度学习模型进行微调的全面指南 Part 2
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
云直播
活动推荐
运营活动
广告
关闭
领券