腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
如何在MultiRNNCell和dynamic_decode中使用AttentionMechanism?
、
、
我想创建一个使用
注意力
机制
的基于RNN的多层动态解码器。为此,我首先创建了一个
注意力
机制
: normalize=True) 然后我使用AttentionWrapper来包装一个带有
注意力
机制
的
atten
浏览 16
提问于2017-07-06
得票数 2
回答已采纳
1
回答
如何为非文本分类建模具有
注意力
机制
的RNN?
、
、
具有
注意力
机制
的递归神经网络(RNN)通常用于机器翻译和自然语言处理。在Python中,具有
注意力
机制
的RNN的实现在机器翻译中非常丰富(例如,https://talbaumel.github.io/blog/
attention
/,但是我想要做的是在时态数据文件(不是任何基于文本/句子的数据)上使用带
注意力
机制
的https://talbaumel.github.io/blog
浏览 28
提问于2019-01-17
得票数 1
1
回答
attention
_size of tf.contrib.seq2seq.AttentionWrapper的论点是什么意思?
、
:“基本的注意包装器是tf.contrib.seq2seq.AttentionWrapper,这个包装器接受一个RNNCell实例,一个AttentionMechanism实例,以及一个注意深度参数(
attention
_size在Bahdanau和Luong的论文中,我发现根本没有注意深度,并且我不清楚注意
机制
的源代码。谁能告诉我'
attention
_size‘的意思和原则,谢谢!
浏览 0
提问于2018-02-12
得票数 1
回答已采纳
1
回答
Keras中的
注意力
:如何在keras密集层中添加不同的
注意力
机制
?
、
、
、
、
他们已经实现了各种类型的注意
机制
,但它是针对顺序模型的。我如何才能在我的模型中添加这些
注意力
?我试着用非常简单的
注意力
: encoded = Dense(256, activation='relu',
attention
_mul = multiply([encoded,
attention</e
浏览 36
提问于2019-04-10
得票数 0
1
回答
如何将
注意力
操作向量化并避免for循环
、
、
、
我是个新手,我在我的模型中的forward()函数的以下代码中使用python for循环实现了一种这样的
机制
。为了获得
注意力
权重,我使用子网络(nn.Sequencial(...))它接受一对两项嵌入作为输入,并输出一个分数,就像在回归中一样。然后,所有的分数都被软化并用作
注意力
权重。.): """ B = batch size, I = number of items for
attention
, E = embedding size ""&qu
浏览 19
提问于2021-11-03
得票数 0
1
回答
tensorflow r1.0中
注意力
解码器的实现
、
我被tensorflow r1.0中的
注意力
解码器实现搞糊涂了。可以在这里找到原始代码:。
attention
= _init_
attention
(encoder_state) # construct
attention
浏览 2
提问于2017-04-06
得票数 0
2
回答
注意力
机制
真的是
注意力
,还是只是再一次回顾记忆?
、
在阅读
注意力
机制
时,我对
注意力
这个术语感到困惑。我们的
注意力
是否和通常的定义中描述的一样?
浏览 22
提问于2019-03-03
得票数 1
回答已采纳
1
回答
Keras的双LSTM注意模型
、
、
、
、
我试图用Bi建立一个使用word嵌入的
注意力
模型。我偶然遇到了,和。然而,我对
Attention
-Based Bidirectional Long Short-Term Memory Networks for Relation Classification的实现感到困惑
attention
= Flatten()(
attention
)RepeatVector会怎么做?
at
浏览 0
提问于2018-10-18
得票数 3
1
回答
在推理过程中从自定义Tensorflow/Keras层提取中间变量(TF 2.0)
、
、
、
注意力
层来自 (从51行开始)。a = tf.keras.backend.exp(eij)
浏览 2
提问于2019-11-21
得票数 5
1
回答
如何可视化
注意力
权重?
、
、
、
、
Embedding(vocab_size,100)(visible)
attention
= Flatten()(
attention
)
attention
= Activation('softmax')(
at
浏览 17
提问于2018-12-20
得票数 7
回答已采纳
1
回答
为什么注意解码器的输出需要与注意相结合?
、
、
linear([inp] + attns, input_size, True)cell_output, state = cell(x, state)if i == 0 and initial_state_
attention
: attns =
attention
(stat
浏览 2
提问于2017-08-11
得票数 0
回答已采纳
1
回答
Tensorflow:如何提取用于绘图的
attention
_scores?
、
、
、
、
如果您在Keras中有一个MultiHeadAttention层,那么它可以返回如下所示的
注意力
分数:如何从网络图中提取
注意力
分数?
浏览 12
提问于2022-01-04
得票数 3
回答已采纳
1
回答
Seq2seq-注意进入编码器状态绕过最后一个编码器隐藏状态
、
、
但是,如果seq2seq-解码器使用注意
机制
,它基本上会窥视编码器侧,有效地绕过编码结束时的隐藏状态。因此,并不是seq2seq-网络所依赖的所有信息都在编码结束时处于隐藏状态。从理论上讲,这是否意味着我不需要使用
注意力
机制
,而是使用普通的-香草-seq2seq,以便在编码结束时最大限度地摆脱隐藏状态?这显然会在seq2seq-任务上牺牲很大一部分的有效性。另外,您是否同意这些可能的解决方案:-为新子网创建一个额外的注意
机制
?或者,或者,使用对编码器侧所有隐藏状态的卷积作为新子网的附加输入?T
浏览 1
提问于2016-05-18
得票数 0
1
回答
如何在tensforflow 2.0中替换OutputProjectionWrapper
、
、
我有以下代码片段的seq2seq解码器与
注意力
机制
。它可以在tensorflow 1.13中工作。
attention
_mechanism = tf.contrib.seq2seq.BahdanauAttention(out_cell = tf.contrib.rnn.OutputProjectionWrapper( attn_cell,
attention
浏览 43
提问于2019-08-14
得票数 2
1
回答
如何将tf.keras.layers.AdditiveAttention添加到我的模型中?
、
、
、
、
我正在研究一个机器语言翻译问题。我使用的模型是: Embedding(english_vocab_size, 256, input_length=english_max_len, mask_zero=True), RepeatVector(german_max_len), LSTM(256, activation='relu', return_sequences=True),
浏览 1
提问于2020-10-11
得票数 5
1
回答
Tensorflow:
注意力
解码器
、
、
特别是,我发现
注意力
解码器的构建相当具有挑战性:旧的
attention
_decoder函数已被移除,取而代之的是,新的API期望用户在训练和预测期间为dynamic_rnn_decoder提供几个不同的
注意力
函数,而这些函数又依赖于prepare_
attention
函数。有没有人知道如何构建
注意力
解码器,只提供输入和最终的编码器状态?
浏览 3
提问于2017-02-20
得票数 0
1
回答
语音变压器纸中的注意惩罚是什么?(更新)
、
、
、
、
我的理解是,这意味着增加更小的负值更远离对角线上的注意逻辑(在掩蔽之前),除了在解码器中的第一个多头
注意力
。
att
浏览 1
提问于2020-01-08
得票数 0
回答已采纳
1
回答
tfjs-examples/date-conversion
attention
中使用的
注意力
模型是什么?
、
这是一个很好的例子,但是在这个例子中使用了哪种
注意力
机制
呢?Readme文件中没有信息。有没有人能告诉我,这篇论文描述了这里所使用的
注意力
? 注意部分链接:
浏览 13
提问于2020-02-04
得票数 0
1
回答
如何在序列化期间控制xml输出
如果任何属性为空或null,则为该属性生成类似于</
Attention
>的xml标记,但我希望像<
Attention
></
Attention
>那样生成它。因此,请告诉我,如果我的
注意力
属性为空或空,我需要做些什么才能生成像<
Attention
></
Attention
>这样的xml标记。基本上,我想要定制的xml输出。请给我引路。
浏览 1
提问于2011-05-09
得票数 1
回答已采纳
1
回答
注意层是如何在keras中实现的?
、
、
、
、
我正在学习
注意力
模型及其在keras中的实现。= Dense(1, activation='tanh')(activations)
attention
= Activation('softmax')(
attention
)
attention
= Permute([
浏览 1
提问于2019-07-11
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
go-attention 是一个使用纯 Go 语言开发的注意力机制和 Transformer 实现。
注意力机制
Seq2seq模型(一)——attention机制
每日认识一个币:Basic Attention Token 注意力币
什么是自注意力机制?
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券