腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
增加
mongodb
聚合
作业
的
内存
限制
、
、
根据
聚合
管道文档,“任何单个
聚合
操作都会消耗超过10%
的
系统RAM,该操作将产生错误。”- http://docs.
mongodb
.org/manual/core/aggregation-pipeline-limits/ 有没有办法提高这个
限制
?我还设置了allowDiskUse: true (因此错误不再是问题),但希望使用更多
的
内存
来提高性能。 背景:我在
mongodb
上运行了一个大约1亿
浏览 62
提问于2014-03-29
得票数 10
回答已采纳
1
回答
(实时)小数据
聚合
MongoDB
:触发器?
、
、
、
在
MongoDB
中
聚合
小数据
的
可靠且高效
的
方法是什么? 目前,我需要
聚合
的
数据不到1 GB,但可以高达10 GB。我正在寻找一种实时或接近实时
的
策略(每15分钟
聚合
一次)。看起来像Map/Reduce,Hadoop,Storm之类
的
都是杀手级
的
。我知道触发器并不存在,但我发现这个可能非常适合我
的
情况。在
MongoDB
中创建触发器是实时小数据
聚合
的
浏览 3
提问于2014-01-10
得票数 0
1
回答
mongodb
限制
服务器
内存
消耗
、
、
我正在kubernetes平台上测试运行monbodb,在这个平台上我可以
限制
正在运行
的
容器使用
的
资源。 假设我将
内存
限制
设置为256Mb。问题是,例如,在进行备份时,
内存
消耗会
增加
到
限制
,并且容器会被kubernetes重启。所以问题是,对于我
的
情况,有没有一种方法可以
限制
mongodb
的
内存
消耗,这样它就不会因为超出平台设置
的
内存</
浏览 12
提问于2017-07-10
得票数 0
回答已采纳
1
回答
mongodb
限制
服务器
内存
消耗
、
我正在kubernetes平台上测试运行monbodb,在那里我可以
限制
运行容器所使用
的
资源。所以问题是,是否有一种方法可以
限制
mongodb
内存
的
消耗,这样它就不会因为平台设置
的
内存
限制
而导致崩溃。当然,我可以
增加
<
浏览 0
提问于2017-07-10
得票数 2
回答已采纳
1
回答
在map reduce运行时在Mongo块中查询delayed_jobs
、
、
、
、
我正在使用Ruby
的
delayed_job_mongoid gem在后台对一些映射/缩减
作业
进行排队。
作业
过程很好,大约在一分钟内完成。现在,我正在尝试查询正在处理
的
作业
的
状态,但我发现在运行map/reduce时,我在delayed_jobs表上执行
的
任何查询都挂在那里,阻塞,直到所有
作业
完成。因此,例如,如果我在运行map/reduce时执行db.delayed_jobs.find(),它就会一直停在那里,直到最后一个
浏览 0
提问于2013-08-01
得票数 0
4
回答
为什么
MongoDB
每个
聚合
管道阶段都有100 Why
的
限制
?
、
、
、
为什么
MongoDB
有一个我
的
问题是,为什么是100 My?
浏览 4
提问于2014-05-17
得票数 5
回答已采纳
3
回答
MongoDB
聚合
的
高效分页?
为了提高效率,Mongo文档建议
限制
语句应紧跟排序语句,从而得出一些荒谬
的
结论:我说这有点荒谬,因为它似乎是说正如您所期望
的
那样,
聚合
更有效:如果p>=l返回0
的
结果。({$unwind: u}, {$group: g
浏览 8
提问于2014-01-17
得票数 8
2
回答
如何处理Mongo
聚合
/ Mongo
聚合
的
性能
、
我建了一个
MongoDB
。我想通过某些分组进行
聚合
。我找到了这个,它能帮我做到这一点。一切都很好,但是某些被指出:
聚合
系统目前将$group操作存储在
内存
中,这可能会在处理大量组时造成问题。我可以用
MongoDB
聚合
处理多少行/文档?我
浏览 3
提问于2013-01-10
得票数 8
回答已采纳
1
回答
MongoDB
$group操作-
内存
使用优化
、
、
、
此组阶段已达到100 of
内存
使用量
的
极限。 $group级
的
内存
限制
为100兆字节。默认情况下,如果阶段超过此
限制
,$group将产生错误。我不受RAM
的
限制
,但我无法找到如何
增加
内存
使用
限制
。,有人知道如何配置这个
限制
吗?我知道这个操作很昂贵,因为“它需要在生成之前扫描整个结果集,
MongoDB
至少必须在组中存储一个指针或每个元素
的
索引”。
浏览 1
提问于2019-01-09
得票数 4
1
回答
限制
Mongo RAM有意义吗?
、
、
、
我有一个运行
MongoDB
的
Windows服务器。我
的
数据库有很大
的
索引,所有的RAM通常都很忙。据我所知,这可能是Windows交换和性能问题
的
一个原因。
限制
Mongo服务RAM (例如只使用80%)是否有意义?
浏览 0
提问于2015-09-25
得票数 3
回答已采纳
2
回答
为什么我在Spring数据Mongo中得到了一个
聚合
异常,而在Mongo中却没有?
、
、
我有一个在
MongoDB
Shell中工作
的
查询,但是当我
增加
要返回
的
文档数量时,它会使用抛出一个“
聚合
结果超过最大文档大小(16 to )”异常。当我
增加
到10,000时,我会得到“
聚合
结果超过最大文档大小(16 to )”异常。= 1.9.0 背景:我之所以使用
聚合
解决方案,是因为我在使用find()时超过了32 to
的
排序
限制
。当然,在UI中,我可以将排序
限制
在特定
的</em
浏览 1
提问于2015-03-23
得票数 1
1
回答
如何克服
mongoDB
聚合
框架
的
局限性
、
MongoDB
上
的
聚合
框架与一样有一定
的
局限性。我真的不在乎结果是什么集
的
大小。我有很多
内存
和资源。但我真的需要
聚合
框架。我能做些什么来消除这些
限制
吗?理由* 我们有菜单让他
浏览 1
提问于2013-06-17
得票数 0
3
回答
如何在更改数据集时减少32位
mongodb
内存
的
使用
我在一个32位
的
生产系统上使用
MongoDB
,这很糟糕,但现在我无法控制它。目前
的
挑战是将
内存
使用量保持在~2.5GB以下,因为这样做会导致32位系统崩溃。数据库主要由一个连续循环数据
的
表组成,即定期从传感器接收数据,每天都有一个cron
作业
擦除过去3天前
的
所有数据。在一段时间内,
内存
使用量逐渐
增加
。请注意,所讨论
的
表
的
大小在上个月减少了,但是
内存
使用仍然
增加
了。
浏览 4
提问于2012-09-07
得票数 1
回答已采纳
1
回答
作业
队列
的
正确mongo模式设计是什么?
、
、
、
我想在Mongo实现一个
作业
队列。整个软件系统是建立在蒙戈周围,因此它似乎是自然
的
,并可能是一个很好
的
适合。 查找所有未处理(提交、运行
浏览 3
提问于2012-11-17
得票数 4
2
回答
AWS EMR -如何
增加
php memory_limit
、
、
我正在aws emr上运行一个
作业
,它失败了,错误为'PHP致命错误:允许
的
内存
大小为134217728字节已耗尽‘。#!/usr/bin/php使用Master: m1.large Core: m3.xlarge如何在AWS EMR中
增加
php
内存
限制
。 谢谢
浏览 1
提问于2014-08-15
得票数 0
1
回答
我应该在产品环境中使用"allowDiskUse“选项吗?
当返回
的
文档
聚合
超过16MB
限制
时,是否应该使用allowDiskUse选项?在2.6版中进行了更改。 从
MongoDB
2.6开始,aggregate命令可以返回游标或将结果存储在集合中。当返回游标或将结果存储在集合中时,结果集中
的
每个文档都受到BS
浏览 3
提问于2016-06-14
得票数 8
回答已采纳
2
回答
WiredTiger内部缓存
、
、
内部缓存大小
增加
到其默认值以上。默认情况下,这应该是RAM
的
50 % ou 60 %。storage.wiredTiger.engineConfig.cacheSizeGB
限制
WiredTiger内部缓存
的
大小。操作系统将为文件系统缓存使用可用
的
空闲
内存
,这允许压缩
的
MongoDB
数据文件留在
内存
中。 我不明白这句话。WT缓存是否包含压缩数据和索引
的
工作集?如果是这样的话,我们是否需要为
MongoDB<
浏览 0
提问于2017-06-12
得票数 1
回答已采纳
1
回答
如何计算码头容器中
的
WiredTiger缓存大小?
、
、
我们在Kubernetes中
的
中运行
MongoDB
单神进程,具有明确
的
内存
限制
。
MongoDB
的
内存
使用量与WiredTiger缓存大小相关。它是使用公式(RAM-1GB)计算
的
,或者至少256MB
的
RAM是系统上可用
的
内存</e
浏览 6
提问于2020-04-02
得票数 1
1
回答
火花混乱
内存
开销问题
、
、
在设计火花
作业
(使用Spark2.3.x)时,我遇到了一些反复出现
的
问题。
作业
本质上是一些昂贵
的
洗牌操作(对粒度较细
的
大型数据文件进行.groupby或.join操作)。之后,结果被写入磁盘(Parquet)--大多数任务非常迅速地成功 我想知道单个任务怎么会有这么高
的
内存
消耗。在我对星火如何工作
的
理解中,应该有可能使任务足够小,以使它们适合记忆。(单个组键
的
聚合
不能单独导致
内存
问题)
浏览 0
提问于2021-09-09
得票数 1
2
回答
MongoDB
聚合
V/S简单查询性能如何?
、
、
我使用
的
是
mongoDB
,实际上我所有的查询都是使用简单
的
查询来编写
的
,这些查询包括查找、更新等(没有
聚合
)。现在我读了很多这样
的
帖子,比如。现在我在想为什么要
增加
服务器上
的
计算时间,因为如果我会计算更多,那么我
的
服务器负载就会变得更多,所以我尝试使用
聚合
,我认为我现在
的
方向是正确
的
。从字面上讲,我现在正处于应该使用什么
的
界限中,我使用
mongoDB</e
浏览 0
提问于2016-12-13
得票数 14
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
MongoDB与RDBMS之优势对比
Python交互之mongoDB交互详解
什么是MongoDB?它有什么用处?
Java工程师要掌握什么 MongoDB入门知识有哪些
千亿级数据迁移 mongodb 成本节省及性能优化实践(附性能对比质疑解答)
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券