经验首页 前端设计 程序设计 Java相关 移动开发 数据库/运维 软件/图像 大数据/云计算 其他经验
当前位置:技术经验 » 数据库/运维 » Nginx » 查看文章
NodeJS读取分析Nginx错误日志的方法
来源:jb51  时间:2019/5/15 8:38:10  对本文有异议

网上很少看到有用NodeJS运维系列文章,后续我会更新一些NodeJS运维相关的内容又或者说让我们更加的深入了解一些服务器的知识以及自动化运维方面的基础知识 为什么要做错误日志分析,因为网上这方面的工具不多我找到一个goaccess但是都是分析成功日志以及用户访问趋势,找了半天没找着自己想要的索性就自己利用Node造一个

错误日志分析

首先我们要读取Nginx日志,我们可以看到Nginx的错误日志格式一般都是这样子,需要注意的是Nginx的错误日志格式是差不多的因为无法设置日志格式只能设置日志错误等级所以我们分析的时候很方便

 这里我们用到readline

逐行读取,简单来说可以做

  • 文件逐行读取:比如说进行日志分析。
  • 自动完成:比如输入npm,自动提示"help init install"。
  • 命令行工具:比如npm init这种问答式的脚手架工具。 这里我们主要做日志分析其他的感兴趣可以琢磨一下

实现方法

  1. const readline = require('readline');
  2. const fs = require('fs');
  3. const path = require('path');
  4. console.time('readline-time')
  5. const rl = readline.createInterface({
  6. input: fs.createReadStream(path.join(__dirname, '../public/api.err.log'), {
  7. start: 0,
  8. end: Infinity
  9. }),
  10.  
  11. });
  12. let count = 0;
  13. rl.on('line', (line) => {
  14. const arr = line.split(', ');
  15. const time = arr[0].split('*')[0].split('[')[0].replace(/\//g, '-');//获取到时间
  16. const error = arr[0].split('*')[1].split(/\d\s/)[1];//错误原因
  17. const client = arr[1].split(' ')[1];//请求的客户端
  18. const server = arr[2].split(' ')[1];//请求的网址
  19. const url = arr[3].match(/\s\/(\S*)\s/)[0].trim()//获取请求链接
  20. const upstream = arr[4].match(/(?<=").*?(?=")/g)[0];//获取上游
  21. const host = arr[5].match(/(?<=").*?(?=")/g)[0];//获取host
  22. const referrer = arr[6] ? arr[6].match(/(?<=").*?(?=")/g)[0] : '';//来源
  23. console.log(`时间:${time}-原因:${error}-客户端:${client}-网址:${server}-地址:${url}-上游:${upstream}-主机:${host}-来源:${referrer}`);
  24. count++;
  25. });
  26. rl.on('close', () => {
  27. let size = fs.statSync(path.join(__dirname, '../public/api.err.log')).size;
  28. console.log(`读取完毕:${count};文件位置:${size % 2 === 0}`);
  29. console.timeEnd('readline-time')
  30. });

上面代码有几点需要注意的是会创建一个文件可读流然后由于演示所以我是直接找的本地地址如果是生产环境的话大家可以直接填写服务器上的错误日志地址,如果没有Nginx错误日志分割的话每天会产生很多日志,createReadStream读取几十M的文件还好如果读取几百M或者上G的容量日志这会造成性能问题,所以我们需要在每次createReadStream没必要每次从0字节开始读取,ceateReadStream提供了start和end

 

所以我们每次可以在读取完之后记录一下当前文件字节大小下一次读取文件就是可以用该文件上次的大小开始读取

let size = fs.statSync(path.join(__dirname, '../public/api.err.log')).size;

我们可以对比一下每次从0字节开始读取和从指定字节读取

保存数据进行分析

这里我是用node-schedule这个库进行定时保存错误日志和linux的cron差不多,用的mongodb保存数据,这里更推荐大家用elasticsearch来做日志分析

  1. rl.on('close', async () => {
  2. let count = 0;
  3. for (let i of rlist) {
  4. count++;
  5. if (count % 500 === 0) {
  6. const res = await global.db.collection('logs').bulkWrite(rlist.slice(count, count + 500), { ordered: false, w: 1 }).catch(err => { console.error(`批量插入出错${err}`) });
  7. } else if (count === rlist.length - 1) {
  8. //批量插入 数据
  9. const res = await global.db.collection('logs').bulkWrite(rlist.slice(rlist - (rlist % 500), rlist.length), { ordered: false, w: 1 });
  10. let size = fs.statSync(addres).size;
  11. size = size % 2 === 0 ? size : size + 1;//保证字节大小是偶数 不然会出现读取上行内容不完整的情况
  12. count = 0;
  13. rlist.length = [];
  14. //更新数据库里面文件的size
  15. global.db.collection('tasks').updateOne({ _id: addre }, { $set: { _id: addre, size, date: +new Date() } }, { upsert: true });
  16. }
  17. }
  18. resolve(true);
  19. })

上面主要是500条保存一次,因为我用的是批量插入然后mongodb有限制一次性最多插入16M数据的限制,所以大家看自己清空决定一次性插入多少条 犹豫对readline的实现比较感兴趣,就去翻阅了一下源码发现并不是我们想的那么复杂, readline源码 ,下面贴一下line事件的源码,想继续深入的同学可以看看全部的源码

  1. if (typeof s === 'string' && s) {
  2. var lines = s.split(/\r\n|\n|\r/);
  3. for (var i = 0, len = lines.length; i < len; i++) {
  4. if (i > 0) {
  5. this._line();
  6. }
  7. this._insertString(lines[i]);
  8. }
  9. }
  10. ...
  11. Interface.prototype._line = function() {
  12. const line = this._addHistory();
  13. this.clearLine();
  14. this._onLine(line);
  15. };
  16. ...
  17. Interface.prototype._onLine = function(line) {
  18. if (this._questionCallback) {
  19. var cb = this._questionCallback;
  20. this._questionCallback = null;
  21. this.setPrompt(this._oldPrompt);
  22. cb(line);
  23. } else {
  24. this.emit('line', line);
  25. }
  26. };

保存的数据需要进行分析比如哪个IP访问最多哪条错误最多可以用聚合来进行分析贴出示例分析某个IP在某一天访问出错最多的原因

  1. db.logs.aggregate(
  2. // Pipeline
  3. [
  4. // Stage 1
  5. {
  6. $group: {
  7. '_id': { 'client': '114.112.163.28', 'server': '$server', 'error': '$error', 'url': '$url', 'upstream': '$upstream','date':'$date' ,'msg':'$msg' } ,
  8. 'date':{'$addToSet':'$date'},
  9. count: { '$sum': 1 }
  10. }
  11. },
  12. // Stage 2
  13. {
  14. $match: {
  15. count: { $gte: 1 },
  16. date: ['2019-05-10']
  17. }
  18. },
  19. {
  20. $sort: {
  21. count: -1
  22. }
  23. },
  24. ],
  25. // Options
  26. {
  27. cursor: {
  28. batchSize: 50
  29. },
  30. allowDiskUse: true
  31. }
  32. );

总结

以上所述是小编给大家介绍的NodeJS读取分析Nginx错误日志的方法,希望对大家有所帮助,如果大家有任何疑问欢迎给我留言,小编会及时回复大家的!

 友情链接:直通硅谷  点职佳  北美留学生论坛

本站QQ群:前端 618073944 | Java 606181507 | Python 626812652 | C/C++ 612253063 | 微信 634508462 | 苹果 692586424 | C#/.net 182808419 | PHP 305140648 | 运维 608723728

W3xue 的所有内容仅供测试,对任何法律问题及风险不承担任何责任。通过使用本站内容随之而来的风险与本站无关。
关于我们  |  意见建议  |  捐助我们  |  报错有奖  |  广告合作、友情链接(目前9元/月)请联系QQ:27243702 沸活量
皖ICP备17017327号-2 皖公网安备34020702000426号