Thi*_*ira 5 performance mongoose mongodb node.js
我正在使用NodeJ构建实时统计应用程序.对于原型,我在RackSpace服务器中使用四核AMD Opteron,使用Cluster NodeJs(http://learnboost.github.com/cluster/)和使用native nodejs驱动程序的MongoDb 对nodejs服务器进行测试.
基本上我在我的公司项目中插入了一个JS代码,为一堆客户的网站提供内容.这段代码"ping"我的服务器每10秒调用一个图像并传递我在服务器端获得的参数并在MongoDb集合中插入(或更新).在一天的"慢"时间里,我得到大约3000个连接(我在终端上使用netstat -natp命令获得这些连接)每次使我的集群使用大约25%的每个核心(我使用"top"命令获得这些).但是在一个"忙碌"的时刻,我每次获得大约7000多个连接,这使得我的集群变得疯狂(大约80%+使用每个核心),并且随着时间的推移,节点似乎会降级.这是正常的吗?或者Nodejs应该以更"简单"的方式处理这些命中?如果我使用Mongoose,性能会增加吗?
如果你对MongoDb感到好奇,它会使用大约4%的一个核心,这对我来说很好(没有使用索引,使用率约为50%+,但至少,索引解决了这个性能问题).
非常感谢耐心,干杯.
编辑:
生成插入的代码如下所示:db.open(function(err,db){});
return connect.router(function(app){
app.get("/pingserver/:clientid/:event/:cachecontrol", function(req, res, next){
event:'+req.params.event + ', cachecontrol:' + req.params.cachecontrol);
var timestamp = new Date();
switch(req.params.event) {
case 'load':
var params = url.parse(req.url, true).query;
db.collection('clientsessions', function(err, collection) {
try {
var client = {
id: req.params.clientid,
state: req.params.event + 'ed',
loadTime: timestamp.getTime(),
lastEvent: req.params.event,
lastEventTime: timestamp.getTime(),
lastEventDate: timestamp.toString(),
events: [{
event: req.params.event,
timestamp: timestamp.getTime(),
date: timestamp.toString()
}],
media: {
id: params.media.split('|')[0] || null,
title: unescape(params.media.split('|')[1]) || null
},
project: {
id: params.project.split('|')[0] || null,
name: unescape(params.project.split('|')[1]) || null
},
origin: req.headers['referer'] || req.headers['referrer'] || '',
userAgent: req.headers['user-agent'] || null,
userIp: req.socket && (req.socket.remoteAddress || (req.socket.socket && req.socket.socket.remoteAddress)),
returningUser: false
};
}catch(e) {console.log(e);}
collection.insert(client, function(err, doc) {
});
});
break;
case 'ping':
db.collection('clientsessions', function(err, collection) {
collection.update({id: req.params.clientid}, {
$set : { lastEvent: req.params.event
,lastEventTime: timestamp.getTime(),lastEventDate: timestamp.toString()}
}, {}, function(err, doc) {});
});
break;
default:
db.collection('clientsessions', function(err, collection) {
collection.update({id: req.params.clientid}, {
$set : {state: req.params.event+'ed'
, lastEvent: req.params.event
, lastEventTime: timestamp.getTime()}
, $push : { events : { event: req.params.event, timestamp: timestamp.getTime(), date: timestamp.toString() } } }, {}, function(err, doc) {});
});
break;
}
if (!transparent) {
console.log('!transparent');
transparent = fs.readFileSync(__dirname + '/../../public/images/transparent.gif', 'binary');
}
res.setHeader('Content-Type', 'image/gif');
res.setHeader('Content-Length', transparent.length);
res.end(transparent, 'binary');
});
});
Run Code Online (Sandbox Code Playgroud)
连续的请求可能会非常昂贵,特别是如果它们之间的超时时间很短。在您的情况下,您每秒接受约 300-700+ 个并发请求,您的系统负载可能取决于您正在处理的内容。您可以尝试切换到 Mongoose,但是如果它适用于您的场景,我宁愿查看图像处理和缓存,因为 DB 似乎不是您的瓶颈(尽管 DB 驱动程序也可能是问题)。
归档时间: |
|
查看次数: |
4818 次 |
最近记录: |