基于django 2.0.4 的 djcelery 配置示例。
[TOC]
本文主要对Django Celery的配置和使用进行一些分享,不会包含太多详细的,关于Celery方面的解释。
在阅读本文之前,需要对Celery有一定的了解。
Celery部分,请参考Celery的官方手册:http://docs.celeryproject.org/en/latest/
Python 3.5.2
Rabbitmq
Redis
pip install -r requirements.txt
创建一个名为proj的Django项目
django-admin startproject proj
注:后续提到proj的地方,都是指django的项目名称为proj,如果你设定的项目名称是其他,就以设定的项目名称代替。
创建一个用于演示的django app,这里名为demo
django-admin startapp demo
在创建的app中,增加tasks.py文件,用于编写celery任务
修改proj/settings.py
配置文件,增加celery相关配置。
修改settings.py中INSTALLED_APPS,增加djcelery及app
INSTALLED_APPS = [
'django.contrib.admin',
'django.contrib.auth',
'django.contrib.contenttypes',
'django.contrib.sessions',
'django.contrib.messages',
'django.contrib.staticfiles',
'djcelery',
'demo'
]
如果仅仅需求使用celery异步执行任务的话,以下最基础的配置就可以满足需求
# 导入tasks文件,如果使用autodiscover_tasks(见后)
# 则Celery在启动时,会自动检索每个app下的tasks.py,所以这个配置不是很必要
# 如果需要导入其他非tasks.py的任务,或者没有使用如果使用autodiscover_tasks
# 则需要再此配置需要导入的模块
# CELERY_IMPORTS = ('demo.tasks', )
# 配置 celery broker
CELERY_BROKER_URL = 'amqp://user:[email protected]:5672//'
# 配置 celery backend 用Redis会比较好
# 因为手上没有redis服务器,所以演示时用RabbitMQ替代
CELERY_RESULT_BACKEND = 'amqp://user:[email protected]:5672//'
# 声明队列,如果有需要为不同任务分配不同队列的需求,需要在配置文件中声明队列
# 这里声明了一个名为djcelery_demo的队列,routing_key为djcelery.demo
# 关于声明队列的参数及作用,详见celery的官方手册,这里不再赘述
from kombu import Queue
CELERY_QUEUES = (
Queue('djcelery_demo', routing_key='djcelery.demo'),
)
新建proj/celery.py
文件,用于创建celery实例
from celery import Celery
from django.conf import settings
# 创建celery应用,proj保持和django项目名称一直
celery_app = Celery('proj', broker=settings.CELERY_BROKER_URL)
# 从配置文件中加载除broker外的其他配置
celery_app.config_from_object('django.conf:settings')
# 自动检索每个app下的tasks.py
celery_app.autodiscover_tasks(lambda: settings.INSTALLED_APPS)
修改proj/__init__.py
,增加一个from import,主要目的是在Django 项目启动时能够加载celery.py的内容。
from .celery import *
在之前创建的demo/tasks.py中,编写一个用于演示的异步任务。
注意每个异步任务之前都需要使用@celery_app.task装饰器进行装饰。
celery_app实际是之前在proj/celery.py中创建的celery的实例,如果你的实例名称不一样,做对应的修改即可。
import logging
from proj.celery import celery_app
@celery_app.task
def async_task():
logging.info('run async_task')
在demo/views.py中定义一个页面,只用来调用异步任务。
from django.http import HttpResponse
from demo.tasks import async_demo_task
# Create your views here.
def demo_task(request):
# delay表示将任务交给celery执行,具体的也烦请参考celery官方手册
# 这里主要是对Django Celery的配置及可能遇到的问题进行说明和分享
# 不会把太多的精力放在Celery的使用上
async_demo_task.delay()
return HttpResponse('任务已经运行')
在proj/urls.py中注册对应的url。
from django.contrib import admin
from django.urls import path
from demo.views import demo_task
urlpatterns = [
path('admin/', admin.site.urls),
path('async_demo_task', demo_task),
]
使用命令启动worker:
python manage.py celery -A proj worker -l info
对参数做个简单的说明:
-A proj是指项目目录下的celery实例。演示项目名为proj,所以-A的值是proj。如果项目名是其他名字,将proj换成项目对应的名字。
-l info 是指日志记录的级别,这里记录的是info级别的日志。
如果需要输出日志到文件,增加-f参数:
celery -A project worker -l info -f logs/celery.log
代表把日志输出到logs/celery.log目录下
如果需要指定worker处理的队列,增加-Q参数,如:
python manage.py celery -A proj worker -l info -Q helloworld
这样就是指定worker处理helloworld队列
如果需要指定配置文件,可以在末尾增加 --settings参数,如:
python manage.py celery -A project worker -l info --beat --settings=settings.debug
这样就是指定settings/debug.py这个文件作为配置文件
如果配置没有问题,能成功连接broker,则会输出类似以下日志:
-------------- celery@Matrix.lan v3.1.26.post2 (Cipater)
---- **** -----
--- * *** * -- Darwin-17.7.0-x86_64-i386-64bit
-- * - **** ---
- ** ---------- [config]
- ** ---------- .> app: proj:0x10c4491d0
- ** ---------- .> transport: amqp://rabbit:**@127.0.0.1:5672//
- ** ---------- .> results: amqp://
- *** --- * --- .> concurrency: 4 (prefork)
-- ******* ----
--- ***** ----- [queues]
-------------- .> djcelery_demo exchange=celery(direct) key=djcelery.demo
[tasks]
. demo.tasks.async_demo_task
[2018-08-11 23:45:38,104: INFO/MainProcess] Connected to amqp://rabbit:**@127.0.0.1:5672//
输出的日志中有几个值得关注的地方:
transport:
即settings.py中关于broker的配置,如果这里不是在settings.py中配置的transport,需要检查下启动的配置文件是否正确。
results:
即settings.py中关于backend的配置,如果这里不是在settings.py中配置的backend,需要检查下启动的配置文件是否正确。
queues:
显示之前在配置文件中声明的djcelery_demo队列,及它的exchange和routing_key。
如果在配置文件中声明的队列,没有在日志中出现,则需要确认下配置是否正确。
tasks:
即在各个app下tasks.py中定义的异步任务。
demo中已经自动识别demo.tasks.async_demo_task这个用于演示的任务。
如果没有识别到,检查下celery实例是否调用autodiscover_tasks方法,或配置文件的CELERY_IMPORTS是否配置正确。
Connected to amqp:
表示已经连接到RabbitMQ,如果无法正常连接,请检查配置、网络或RabbitMQ。
在demo/views.py
中定义一个页面,只用来调用异步任务。
from django.http import HttpResponse
from demo.tasks import async_demo_task
# Create your views here.
def demo_task(request):
# delay表示将任务交给celery执行
async_demo_task.delay()
return HttpResponse('任务已经运行')
在proj/urls.py
中注册对应的url。
from django.contrib import admin
from django.urls import path
from demo.views import demo_task
urlpatterns = [
path('admin/', admin.site.urls),
path('async_demo_task', demo_task),
]
最后,启动django,访问url http://127.0.0.1:8000/async_demo_task 调用异步任务。
在worker的日志中,可以看到类似的执行结果,即说明任务已经由celery异步执行。
如果出现"Using settings.DEBUG leads to a memory leak, never "的警告信息,则在生产环境中关闭掉django的debug模式即可。
[2018-04-24 09:25:52,677: INFO/MainProcess] Received task: demo.tasks.async_demo_task[1105c262-9371-4791-abd2-6f78d654b391]
[2018-04-24 09:25:52,681: INFO/Worker-4] run async_task
[2018-04-24 09:25:52,899: INFO/MainProcess] Task demo.tasks.async_demo_task[1105c262-9371-4791-abd2-6f78d654b391] succeeded in 0.21868160199665s: None
使用djcelery,而不直接使用celery的好处就在于可以通过Django Admin对Celery的计划任务进行管理。
使用计划任务时,除了保证原先的worker正常运行外(worker的启动方式见上),还需要启动beats:
python manage.py celery beat
也可以beat和worker一起启动
python manage.py celery -A project worker -l info --beat
python manage.py migrate
创建Django Admin和djcelery对应的表,这里的数据库使用默认的sqlite。
python manage.py createsuperuser
,依次输入超级管理员帐号、邮箱、密码。
演示项目中设置帐号:admin 密码: superplayer123
在settings.py中,增加两项配置:
# 设定时区,配置计划任务时需要
CELERY_TIMEZONE = 'Asia/Shanghai'
CELERYBEAT_SCHEDULER = 'djcelery.schedulers.DatabaseScheduler'
访问 http://127.0.0.1:8000/admin/djcelery/periodictask/add/,用于创建定时任务。
简单的解释下创建定时任务的选项:
字段 | 说明 |
---|---|
名称 | 便于理解的计划任务名称 |
Task (registered) | 选择一个已注册的任务 |
Task (custom) | |
Enabled | 任务是否启用 |
Interval | 按某个时间间隔执行 |
Crontab | 定时任务, 和Interval二选一 |
Arguments | 以list的形式传入参数,json格式 |
Keyword arguments: | 以dict的形式传入参数,json格式 |
Expires | 任务到期时间 |
Queue | 指定队列,队列名需要在配置文件的 CELERY_QUEUES定义好 |
Exchange | Exchange |
Routing key | 指定队列时,对应的Routing key也要填写 |
本质上来说,就是对PeriodicTask这个model的操作。
下面模拟一个简单的增加计划任务的接口:
def add_task(request):
interval = IntervalSchedule.objects.filter(every=30, period='seconds').first()
periodic_task = PeriodicTask(name='test', task='demo.tasks.async_demo_task', interval=interval)
periodic_task.save()
return HttpResponse('任务已经添加')
在proj/urls.py中增加url地址进行访问:
urlpatterns = [
path('admin/', admin.site.urls),
path('async_demo_task', demo_task),
path('add_task', add_task),
path('get_periodic_task_list', get_periodic_task_list),
]
通过浏览器访问http://127.0.0.1:8000/add_task 就可以直接添加一个间隔30秒的计划任务了。
然后在beat中可以看到类似日志,检测到了Schedule改变,并且自动运行刚刚添加的任务。
[2018-05-03 17:18:10,012: INFO/MainProcess] DatabaseScheduler: Schedule changed.
[2018-05-03 17:18:10,013: INFO/MainProcess] Writing entries (0)...
[2018-05-03 17:18:40,020: INFO/MainProcess] Scheduler: Sending due task test (demo.tasks.async_demo_task)
[2018-05-03 17:19:10,021: INFO/MainProcess] Scheduler: Sending due task test (demo.tasks.async_demo_task)
同样的,通过获取PeriodicTask的数据,也可以得到正在运行的任务。
def get_periodic_task_list(request):
"""
获取周期性任务列表
:return:
"""
periodic_task_list = PeriodicTask.objects.all()
data = [model_to_dict(periodic_task) for periodic_task in periodic_task_list]
resp = json.dumps(data, cls=CustomJSONEncoder, ensure_ascii=False)
return HttpResponse(resp, content_type='application/json', status=200)
更多的功能都可以通过操作djcelery的model进行实现。