经验首页 前端设计 程序设计 Java相关 移动开发 数据库/运维 软件/图像 大数据/云计算 其他经验
当前位置:技术经验 » 数据库/运维 » MongoDB » 查看文章
MongoDB聚合分组取第一条记录的案例与实现方法
来源:jb51  时间:2019/1/28 9:17:24  对本文有异议

前言

今天开发同学向我们提了一个紧急的需求,从集合mt_resources_access_log中,根据字段refererDomain分组,取分组中最近一笔插入的数据,然后将这些符合条件的数据导入到集合mt_resources_access_log_new中。

接到这个需求,还是有些心虚的,原因有二,一是,业务需要,时间紧;二是,实现这个功能MongoDB聚合感觉有些复杂,聚合要走好多步。

数据记录格式如下:

  1. 记录1
  2.  
  3. {
  4. "_id" : ObjectId("5c1e23eaa66bf62c0c390afb"),
  5. "_class" : "C1",
  6. "resourceUrl" : "/static/js/p.js",
  7. "refererDomain" : "1234",
  8. "resourceType" : "static_resource",
  9. "ip" : "17.17.13.13",
  10. "createTime" : ISODate("2018-12-22T19:45:46.015+08:00"),
  11. "disabled" : 0
  12. }
  13.  
  14. 记录2
  15.  
  16. {
  17. "_id" : ObjectId("5c1e23eaa66bf62c0c390afb"),
  18. "_class" : "C1",
  19. "resourceUrl" : "/static/js/p.js",
  20. "refererDomain" : "1234",
  21. "resourceType" : "Dome_resource",
  22. "ip" : "17.17.13.14",
  23. "createTime" : ISODate("2018-12-21T19:45:46.015+08:00"),
  24. "disabled" : 0
  25. }
  26.  
  27. 记录3
  28.  
  29. {
  30. "_id" : ObjectId("5c1e23eaa66bf62c0c390afb"),
  31. "_class" : "C2",
  32. "resourceUrl" : "/static/js/p.js",
  33. "refererDomain" : "1235",
  34. "resourceType" : "static_resource",
  35. "ip" : "17.17.13.13",
  36. "createTime" : ISODate("2018-12-20T19:45:46.015+08:00"),
  37. "disabled" : 0
  38. }
  39. 记录4
  40.  
  41. {
  42. "_id" : ObjectId("5c1e23eaa66bf62c0c390afb"),
  43. "_class" : "C2",
  44. "resourceUrl" : "/static/js/p.js",
  45. "refererDomain" : "1235",
  46. "resourceType" : "Dome_resource",
  47. "ip" : "17.17.13.13",
  48. "createTime" : ISODate("2018-12-20T19:45:46.015+08:00"),
  49. "disabled" : 0
  50. }

以上是我们的4条记录,类似的记录文档有1500W。

因为情况特殊,业务发版需要这些数据。催的比较急,而 通过 聚合 框架aggregate,短时间有没有思路, 所以,当时就想着尝试采用其他方案。

最后,问题处理方案如下。

Step 1 通过聚合框架 根据条件要求先分组,并将新生成的数据输出到集合mt_resources_access_log20190122 中(共产生95笔数据);

实现代码如下:

  1. db.log_resources_access_collect.aggregate(
  2. [
  3. { $group: { _id: "$refererDomain" } },
  4. { $out : "mt_resources_access_log20190122" }
  5. ]
  6. )

Step 2 通过2次 forEach操作,循环处理 mt_resources_access_log20190122和mt_resources_access_log的数据。

代码解释,处理的逻辑为,循环逐笔取出mt_resources_access_log20190122的数据(共95笔),每笔逐行加工处理,处理的逻辑主要是 根据自己的_id字段数据(此字段来自mt_resources_access_log聚合前的refererDomain字段), 去和 mt_resources_access_log的字段 refererDomain比对,查询出符合此条件的数据,并且是按_id 倒序,仅取一笔,最后将Join刷选后的数据Insert到集合mt_resources_access_log_new。

新集合也是95笔数据。

大家不用担心性能,查询语句在1S内实现了结果查询。

  1. db.mt_resources_access_log20190122.find({}).forEach(
  2. function(x) {
  3. db.mt_resources_access_log.find({ "refererDomain": x._id }).sort({ _id: -1 }).limit(1).forEach(
  4. function(y) {
  5. db.mt_resources_access_log_new.insert(y)
  6. }
  7. )
  8. }
  9. )

Step 3 查询验证新产生的集合mt_resources_access_log_new,结果符合业务要求。

刷选前集合mt_resources_access_log的数据量为1500多W。

刷选后产生新的集合mt_resources_access_log_new 数据量为95笔。

注意:根据时间排序的要求,因为部分文档没有createTime字段类型,且 createTime字段上没有创建索引,所以未了符合按时间排序我们采用了sort({_id:1})的变通方法,因为_id 还有时间的意义。下面的内容为MongoDB对应_id 的相关知识。

最重要的是前4个字节包含着标准的Unix时间戳。后面3个字节是机器ID,紧接着是2个字节的进程ID。最后3个字节存储的是进程本地计数器。计数器可以保证同一个进程和同一时刻内不会重复。

总结

以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,如果有疑问大家可以留言交流,谢谢大家对w3xue的支持。

 友情链接:直通硅谷  点职佳  北美留学生论坛

本站QQ群:前端 618073944 | Java 606181507 | Python 626812652 | C/C++ 612253063 | 微信 634508462 | 苹果 692586424 | C#/.net 182808419 | PHP 305140648 | 运维 608723728

W3xue 的所有内容仅供测试,对任何法律问题及风险不承担任何责任。通过使用本站内容随之而来的风险与本站无关。
关于我们  |  意见建议  |  捐助我们  |  报错有奖  |  广告合作、友情链接(目前9元/月)请联系QQ:27243702 沸活量
皖ICP备17017327号-2 皖公网安备34020702000426号