经验首页 前端设计 程序设计 Java相关 移动开发 数据库/运维 软件/图像 大数据/云计算 其他经验
当前位置:技术经验 » 程序设计 » Django » 查看文章
celery4+django2定时任务的实现代码
来源:jb51  时间:2018/12/24 10:45:44  对本文有异议

网上有很多celery + django实现定时任务的教程,不过它们大多数是基于djcelery + celery3的;

或者是使用django_celery_beat配置较为繁琐的。

显然简洁而高效才是我们最终的追求,而celery4已经不需要额外插件即可与django结合实现定时任务了,原生的celery beat就可以很好的实现定时任务功能。

当然使用原生方案的同时有几点插件所带来的好处被我们放弃了:

  • 插件提供的定时任务管理将不在可用,当我们只需要任务定期执行而不需要人为调度的时候这点忽略不计。
  • 无法高效的管理或追踪定时任务,定时任务的跟踪其实交给日志更合理,但是对任务的修改就没有那么方便了,不过如果不需要经常变更/增减任务的话这点也在可接受范围内。

Celery定时任务配置

在进行配置前先来看看项目结构:

  1. .
  2. ├── linux_news
  3. ├── celery.py
  4. ├── __init__.py
  5. ├── settings.py
  6. ├── urls.py
  7. └── wsgi.py
  8. ├── manage.py
  9. ├── news
  10. ├── admin.py
  11. ├── apps.py
  12. ├── __init__.py
  13. ├── migrations
  14. ├── models
  15. ├── tasks.py
  16. ├── tests.py
  17. └── views
  18. └── start-celery.sh

其中news是我们的app,用于从一些rss订阅源获取新闻信息,linux_news则是我们的project。我们需要关心的主要是 celery.py , settings.py , tasks.py 和 start-celery.sh

首先是celery.py,想让celery执行任务就必须实例化一个celery app,并把settings.py里的配置传入app:

  1. import os
  2. from celery import Celery
  3.  
  4. # set the default Django settings module for the 'celery' program.
  5. os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'linux_news.settings')
  6.  
  7. app = Celery('linux_news')
  8.  
  9. # 'django.conf:settings'表示django,conf.settings也就是django项目的配置,celery会根据前面设置的环境变量自动查找并导入
  10. # - namespace表示在settings.py中celery配置项的名字的统一前缀,这里是'CELERY_',配置项的名字也需要大写
  11. app.config_from_object('django.conf:settings', namespace='CELERY')
  12.  
  13. # Load task modules from all registered Django app configs.
  14. app.autodiscover_tasks()
  15.  

配置就是这么简单,为了能在django里使用这个app,我们需要在__init__.py中导入它:

  1. from .celery import app as celery_app

然后我们来看tasks.py,它应该位于你的app目录中,前面我们配置了自动发现,所以celery会自动找到这些tasks,我们的tasks将写在这一模块中,代码涉及了一些orm的使用,为了契合主题我做了些精简:

  1. from linux_news.celery import celery_app as app
  2. from .models import *
  3. import time
  4. import feedparser
  5. import pytz
  6. import html
  7.  
  8.  
  9. @app.task(ignore_result=True)
  10. def fetch_news(origin_name):
  11. """
  12. fetch all news from origin_name
  13. """
  14. origin = get_feeds_origin(origin_name)
  15. feeds = feedparser.parse(origin.feed_link)
  16. for item in feeds['entries']:
  17. entry = NewsEntry()
  18. entry.title = item.title
  19. entry.origin = origin
  20. entry.author = item.author
  21. entry.link = item.link
  22. # add timezone
  23. entry.publish_time = item.time.replace(tzinfo=pytz.utc)
  24. entry.summary = html.escape(item.summary)
  25.  
  26. entry.save()
  27.  
  28.  
  29. @app.task(ignore_result=True)
  30. def fetch_all_news():
  31. """
  32. 这是我们的定时任务
  33. fetch all origins' news to db
  34. """
  35. origins = NewsOrigin.objects.all()
  36. for origin in origins:
  37. fetch_news.delay(origin.origin_name)

tasks里是一些耗时操作,比如网络IO或者数据库读写,因为我们不关心任务的返回值,所以使用 @app.task(ignore_result=True) 将其屏蔽了。

任务配置完成后我们就要配置celery了,我们选择redis作为任务队列,我强烈建议在生产环境中使用rabbitmq或者redis作为任务队列或结果缓存后端,而不应该使用关系型数据库:

  1. # redis
  2. REDIS_PORT = 6379
  3. REDIS_DB = 0
  4. # 从环境变量中取得redis服务器地址
  5. REDIS_HOST = os.environ.get('REDIS_ADDR', 'redis')
  6.  
  7. # celery settings
  8. # 这两项必须设置,否则不能正常启动celery beat
  9. CELERY_ENABLE_UTC = True
  10. CELERY_TIMEZONE = TIME_ZONE
  11. # 任务队列配置
  12. CELERY_BROKER_URL = f'redis://{REDIS_HOST}:{REDIS_PORT}/{REDIS_DB}'
  13. CELERY_ACCEPT_CONTENT = ['application/json', ]
  14. CELERY_RESULT_BACKEND = f'redis://{REDIS_HOST}:{REDIS_PORT}/{REDIS_DB}'
  15. CELERY_TASK_SERIALIZER = 'json'

然后是我们的定时任务设置:

  1. from celery.schedules import crontab
  2. CELERY_BEAT_SCHEDULE={
  3. 'fetch_news_every-1-hour': {
  4. 'task': 'news.tasks.fetch_all_news',
  5. 'schedule': crontab(minute=0, hour='*/1'),
  6. }
  7. }

定时任务配置对象是一个dict,由任务名和配置项组成,主要配置想如下:

  • task:任务函数所在的模块,模块路径得写全,否则找不到将无法运行该任务
  • schedule:定时策略,一般使用 celery.schedules.crontab ,上面例子为每小时的0分执行一次任务,具体写法与linux的crontab类似可以参考文档说明
  • args:是个元组,给出任务需要的参数,如果不需要参数也可以不写进配置,就像例子中的一样
  • 其余配置项较少用,可以参考文档

至此,配置celery beat的部分就结束了。

启动celery beat

配置完成后只需要启动celery了。

启动之前配置一下环境。不要用root运行celery!不要用root运行celery!不要用root运行celery!重要的事情说三遍。

start-celery.sh:

  1. export REDIS_ADDR=127.0.0.1
  2.  
  3. celery -A linux_news worker -l info -B -f /path/to/log

-A 表示app所在的目录,-B表示启动celery beat运行定时任务。

celery正常启动后就可以通过日志来查看任务是否正常运行了:

[2018-12-21 13:00:00,022: INFO/MainProcess] Received task: news.tasks.fetch_all_news[e4566ede-2cfa-4c19-b2f3-0c7d6c38690d] 
[2018-12-21 13:00:00,046: INFO/MainProcess] Received task: news.tasks.fetch_news[583e96dc-f508-49fa-a24a-331e0c07a86b] 
[2018-12-21 13:00:00,051: INFO/ForkPoolWorker-2] Task news.tasks.fetch_all_news[e4566ede-2cfa-4c19-b2f3-0c7d6c38690d] succeeded in 0.02503809699555859s: None
[2018-12-21 13:00:00,052: INFO/MainProcess] Received task: news.tasks.fetch_news[c61a3e55-dd3c-4d49-8d6d-ca9b1757db25] 
[2018-12-21 13:00:00,449: INFO/ForkPoolWorker-5] Task news.tasks.fetch_news[c61a3e55-dd3c-4d49-8d6d-ca9b1757db25] succeeded in 0.39487219898728654s: None
[2018-12-21 13:00:00,606: INFO/ForkPoolWorker-3] Task news.tasks.fetch_news[583e96dc-f508-49fa-a24a-331e0c07a86b] succeeded in 0.5523456179944333s: None

以上就是celery4运行定时任务的内容,希望对大家的学习有所帮助,也希望大家多多支持w3xue。

 友情链接:直通硅谷  点职佳  北美留学生论坛

本站QQ群:前端 618073944 | Java 606181507 | Python 626812652 | C/C++ 612253063 | 微信 634508462 | 苹果 692586424 | C#/.net 182808419 | PHP 305140648 | 运维 608723728

W3xue 的所有内容仅供测试,对任何法律问题及风险不承担任何责任。通过使用本站内容随之而来的风险与本站无关。
关于我们  |  意见建议  |  捐助我们  |  报错有奖  |  广告合作、友情链接(目前9元/月)请联系QQ:27243702 沸活量
皖ICP备17017327号-2 皖公网安备34020702000426号