我已经准备好在Amazon上运行node.js/mongo应用程序了。我有一个3倍的副本集,为蒙戈服务器。一切正常工作,直到大约20分钟前,主mongo服务器的CPU使用率跃升到100% (通常几乎没有任何使用)。我目前测试的应用程序只有10个用户,所以这是非常令人担忧的。
当然,我的第一个反应是从服务器获取mongodb日志文件。我原以为这件事能说明问题,但现在我比以往任何时候都更加困惑。我的数据库的主要功能之一是为用户缓存数据,因此我有一个集合('DataCache'),它只是存储一个JSON字符串(Mongoose代码):
new Model('DataCache
我被要求在客户端设备上对承载我们应用程序的服务器进行故障排除。
在过去一周半的时间里,客户曾两次向我们投诉。在一种情况下,他们声称服务器的内存被“耗尽”,而在另一种情况下,他们声称CPU被“耗尽”。在这两种情况下,我们的应用程序变得不可用,客户机被迫重新启动服务器。
服务器规范如下:
System Manufacturer Dell Inc.
System Model PowerEdge R320
System Type x64-based PC
Processor Intel(R) Xeon(R) CPU E5-2430 0 @ 2.20GHz, 2200 Mhz, 6 Core
我正在编写一个小小的python脚本来测试一些东西。稍后,我想使用它创建资源使用图,但首先要进行几个测试。
剧本看上去像
import subprocess
result = subprocess.check_output("top -b -n 1 -c", shell=True).split("\n")
head = result[:5]
body = [x for x in result[7:] if x] #removes empty strings
for line in head:
print line
csum = 0.0
for l
我希望减少web服务器为给定查询从API服务器请求/接收数据的完整时间。
假设MySQL是瓶颈,我将API服务器db更新为Cassandra,但完成时间仍然保持不变。可能是其他的瓶颈,我想不出来。
环境:
Number of Request Estimated per minute: 100
Database: MySQl / Cassandra
Hardware: EC2 Small
Server Used: Apache HTTP
当前观测:
Cassandra Query Response Time: .03 Secs
Time between request made and res