腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(4670)
视频
沙龙
1
回答
为什么
我
的
LSTM
自动
编码器
模型
无法
检测
异
常值
?
deep-learning
、
lstm
、
autoencoder
、
anomaly-detection
我
正在尝试构建一个用于异常
检测
的
LSTM
自动
登录器。这是
我
用来训练
的
正常数据。这是
我
用来验证
的
异常数据。不幸
的
是,以下是
我
将有效数据放入
模型
的
结果:在异
浏览 23
提问于2019-11-23
得票数 0
1
回答
LSTM
自动
编码器
的
可变长度输入- Keras
python
、
tensorflow
、
keras
、
lstm
、
autoencoder
我
尝试在Keras中使用带有
LSTM
层
的
自动
编码器
模型
来
检测
文本异
常值
。
我
已经将每个句子编码成一个数字序列,每个数字代表一个字母。现在
我
想知道如何使用这样
的
自动
编码器
模型
,而不是将零填充到每个序列(句子),从而使用每个句子(序列)
的
实际大小进行训练和预测。
我
的
模型
看起来像这样
浏览 17
提问于2019-09-20
得票数 2
回答已采纳
1
回答
时间序列异常
检测
的
预测与非预测预测
time-series
、
anomaly-detection
、
online-learning
我
的
目标是实现一个统一/多元在线异常
检测
系统。 经过几天
的
研究,
我
可以收集很多方法来达到这个目的。移动平均解如ARIMA,空间状态解如Kalman滤波器、Holt双/三重指数平滑、CUSUM、一类支持向量机、深度学习滑动窗口
自动
编码方法、基于自回归神经网络
的
深度学习等)。一般来说,时间序列上
的
异常
检测
是以原始时间序列
的
预测点或一组点与预测时间序列之间
的
差异产生
的
浏览 0
提问于2019-01-23
得票数 2
1
回答
为什么
自动
编码器
能很好地
检测
异
常值
?
autoencoder
除了它们是神经网络,通常是优于其他算法
的
一个原因之外,还有其他原因帮助
自动
编码器
在异常点
检测
方面表现良好吗?
我
知道
自动
编码器
的
工作方式是将样本编码成更低维
的
表示,然后解码表示来重构样本。由于孤立点通常具有较高
的
重构能力,因此可以对其进行
检测
。然而,这并不能说服
我
为什么
自动
编码器
可以击败其他方法。是不是因为离群点
的</e
浏览 0
提问于2020-07-20
得票数 1
2
回答
试图理解Keras中
的
编译码器顺序
模型
?
neural-network
、
keras
、
time-series
、
lstm
、
rnn
我
的
理解是,对于某些类型
的
seq2seq
模型
,您需要训练
编码器
和解码器,然后将
编码器
放在一边,只使用解码器进行预测。例如,优步
的
seq2seq时间序列预测
模型
:现在,
我
正试图在Keras中实现这个to版本。
模型
的
Keras代码:model = Sequential() model.add(
LSTM
(50, activation='re
浏览 0
提问于2019-07-27
得票数 4
1
回答
无监督学习中
的
特征选择或降维
nlp
、
clustering
、
feature-selection
、
unsupervised-learning
、
dimensionality-reduction
我
正在尝试使用kmeans进行嵌入式集群。但是在嵌入特征之前,
我
应该做一个特征选择或降维。
我
想知道在无监督学习中是否有一种方法可以进行特征选择或降维。这可能非常有用,因为到目前为止,集群给出了一个混合
的
结果,
我
强烈地感觉这可能是由于数据中不想要
的
属性。
我
阅读了所有的资源,这些资源只提供了关于监督学习
的
选择。 任何帮助都是非常感谢
的</
浏览 0
提问于2019-06-19
得票数 2
2
回答
异常
检测
-使用什么
machine-learning
、
data-mining
、
outliers
什么系统用于异常
检测
?任何建议以及教程和代码示例都将是很棒
的
,因为
我
以前没有这样做过。
浏览 3
提问于2014-08-06
得票数 2
回答已采纳
1
回答
ValueError:输入0与repeat_vector_58层不兼容:预期
的
ndim=2,找到ndim=3
python
、
keras
、
deep-learning
、
lstm
、
autoencoder
我
试图建立入侵
检测
,
LSTM
和
自动
编码器
。然而,
我
无法
理解
为什么
repeat_vector_58需要ndim=3,
我
无法
理解这一点。下面是
我
的
代码:x_test.shape:(2000,1,82) x_train = np.reshape(trainX, (trainX.shapenp.reshape(testT, (testT
浏览 0
提问于2019-03-28
得票数 1
回答已采纳
1
回答
时序异常
检测
方法
的
比较
deep-learning
、
time-series
、
anomaly-detection
、
online-learning
、
kalman-filter
经过几天
的
研究,
我
可以对现有的对时间序列进行异常
检测
的
方法进行一次全面的了解,即:没有深度学习
的
预测。例如:季节ARIMA + 卡尔曼滤波器去噪不需要深入学习。例
浏览 0
提问于2019-01-24
得票数 2
1
回答
用于异常
检测
的
LSTM
自动
编码器
python
、
tensorflow
、
lstm
、
autoencoder
、
anomaly-detection
我
正在测试
LSTM
自动
编码器
在2D输入异常
检测
上
的
不同实现。
我
的
问题不是关于代码本身,而是关于理解每个网络
的
底层行为。 这两种实现都有相同数量
的
单元(16)。
模型
2是一个“典型
的
”seq到seq
自动
编码器
与
编码器
的
最后序列重复"n“时间来匹配解码器
的
输入。
我
想了解<
浏览 1
提问于2020-12-21
得票数 1
回答已采纳
1
回答
基于
LSTM
自动
编码器
的
异常
检测
训练数据
lstm
、
rnn
、
training
、
anomaly-detection
、
autoencoder
我
正在建立一个时间序列异常
检测
引擎使用
LSTM
自动
编码器
.
我
读到了这篇文章,作者建议,只有在回应评论
的
情况下,才对清洁数据进行培训。。然而,在大多数情况下,是不可能找到和流出异常手动。
我
一直认为,由于异常是非常罕见
的
,如果我们对所有数据进行
模型
训练,那么该
模型
将学习时间序列
的
正常行为,并准备好
检测
异常。
我
在其他许多文章中也读过同样
的</e
浏览 0
提问于2022-04-23
得票数 1
回答已采纳
2
回答
为什么
seq2seq
模型
优于简单
的
LSTM
?
machine-learning
、
deep-learning
、
transformer
在深度学习领域,众所周知,最强大
的
递归体系结构是序列到序列,或seq2seq,用于几乎任何任务(对时间序列
的
预测、机器翻译、文本生成)。
为什么
?
LSTM
编解码结构
的
性能优于更规范
的
RNN
的
基本数学原因是什么?它是在产生密集
的
潜在表征吗?是关于相对较高
的
参数数吗?任何暗示都是感激
的
。
浏览 0
提问于2019-11-29
得票数 1
2
回答
用于时间序列异常
检测
的
LSTM
自动
编码器
,拟合
模型
的
正确方法
keras
、
time-series
、
lstm
、
anomaly-detection
我
试图找到正确
的
例子,使用
LSTM
自动
编码器
来定义时间序列数据中
的
异常,并看到了很多例子,其中
LSTM
自动
编码器
模型
中有标签,这是特征序列未来
的
时间步骤(对于通常使用
LSTM
的
时间序列预测),但我认为这种
模型
应该使用与特征序列相同
的
标签例如,搜索google中
的
第一个链接- 1.这个函数定义了获取标签(y特性
浏览 7
提问于2020-11-23
得票数 1
2
回答
推荐
的
序列补全深度学习
模型
keras
、
deep-learning
我
正在尝试解决序列补全
的
问题。假设我们有基本事实序列(1,2,4,7,6,8,10,12,18,20) 我们
模型
的
输入是一个不完整
的
序列。即(1,2,4,_,10,12,18,20)。从这个不完整
的
序列中,我们想要预测原始序列(地面真实序列)。可以使用哪些深度学习
模型
来解决此问题? 这是
编码器
-解码器
LSTM
架构
的
问题吗? 注意:我们有数千个完整
的
序列来训练和测试
模型
。任何帮助都是
浏览 20
提问于2019-10-16
得票数 0
1
回答
如何在
LSTM
RNN中传递分类信息和数值特征
keras
、
lstm
、
recurrent-neural-network
、
autoencoder
、
lstm-stateful
我
有一个包含1000个用户
的
活动数据
的
数据集。由于一个用户
的
活动与另一个用户
的
活动不同,
我
希望将用户属性也发送到
LSTM
RNN
模型
,以便该
模型
能够更好地了解每个用户
的
行为。
我
的
数据集
的
代码片段如下:
我
尝试了分类信息
的
one-hot编码和二进制编码,但
模型
没有产生良好
的
结果。但是,将<em
浏览 4
提问于2019-11-25
得票数 2
1
回答
使用
自动
编码器
抑制异常
检测
中
的
误报(错误分类为异常/异常)
python
、
machine-learning
、
text-classification
、
autoencoder
、
anomaly-detection
如何在异常
检测
中抑制某些异
常值
? 我们使用
自动
编码器
构建了一个
模型
,它
检测
到了异常。一些被标记为异常(在正态分布之外)
的
数据点实际上并不是异常。 我们如何训练
模型
,使其不将这些识别为异常?我们是否将这些数据点
的
多个副本添加到数据集中,然后再次训练,或者是否有任何其他我们可以应用
的
技术。 在这里,正态分布具有余弦相似性(距离),因为数据点是文本数据(日志条目)
的
矢量化表示。因此,如果输入和重构向量之间
浏览 25
提问于2020-10-26
得票数 0
回答已采纳
4
回答
初始化
LSTM
隐藏状态Tensorflow/Keras
tensorflow
、
neural-network
、
deep-learning
、
keras
、
lstm
有人能解释
我
如何在tensorflow中初始化
LSTM
的
隐藏状态吗?
我
正在尝试构建
LSTM
递归
自动
编码器
,因此在对该
模型
进行训练之后,
我
希望将无监督
模型
的
学习隐藏状态转换为监督
模型
的
隐藏状态。对于当前
的
API来说,这是可能
的
吗?这是
我
想要重现
的
一篇论文:
浏览 3
提问于2017-02-23
得票数 17
回答已采纳
1
回答
了解
LSTM
自动
编码器
的
输出,并使用它
检测
序列中
的
异
常值
。
machine-learning
、
keras
、
lstm
、
autoencoder
、
anomaly-detection
我
试图建立
LSTM
模型
,作为输入接收整数序列,并输出每一个整数
的
概率。如果此概率较低,则应将整数视为异常。
我
试着遵循这个教程- ,尤其是
我
的
模型
来自这里。
我
的
输入如下: [1] [0]] [1] [0]] [1] [0]] 然而,
我
无法
理解
我
作为一个输出得到了什么还
浏览 1
提问于2020-05-11
得票数 1
回答已采纳
1
回答
在对时间序列应用
LSTM
之前,是否有必要丢弃异
常值
python
、
pandas
、
jupyter-notebook
、
statistics
、
outliers
我
正在尝试
检测
控制电池电压输出
的
时间序列上
的
异常。
我
发现
我
的
原始数据集有一些异
常值
。在这种情况下,
我
是否需要使用InterQuartile Range (IQR)或Zscore来删除这些点?当然,在使用
LSTM
keras
模型
之前
浏览 14
提问于2021-03-04
得票数 0
回答已采纳
1
回答
如何在Keras、RepeatVector或return_sequence=True中连接
LSTM
层?
tensorflow
、
keras
、
deep-learning
、
lstm
、
autoencoder
我
正在尝试在keras中为timeseries开发一个
编码器
模型
。数据
的
形状是(5039,28,1),这意味着
我
的
seq_len是28,
我
有一个特征。对于
编码器
的
第一层,
我
使用112个hunits,第二层将有56个,为了能够回到解码器
的
输入形状,
我
必须添加具有28个hunits
的
第三层(这个
自动
编码器
应该重建它
的</em
浏览 27
提问于2018-08-08
得票数 17
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
即时通信 IM
活动推荐
运营活动
广告
关闭
领券