您好,登錄后才能下訂單哦!
Celery是基于Python開發的一個分布式任務隊列框架,支持使用任務隊列的方式在分布的機器/進程/線程上執行任務調度
Celery是典型的生產生-消費者模式,主要由三部分組成:broker(消息隊列)、workers(消費者:處理任務)、backend(存儲結果)
1.編寫任務代碼task.py
from celery import Celery
app = Celery('tasks',broker='amqp://guest@localhost//', backend='redis://localhost:6379/0')
@app.task
def add(x, y):
return x + y
當函數使用”@app.task”修飾后,即為可被Celery調度的任務
2.啟動workers 命令 celery worker -A tasks --loglevel=info --concurrency=5
3.調用任務
result=add.delay(2, 5)
result.ready()
result.get(timeout=1)
4.配置文件
單個參數配置:
app.conf.CELERY_BROKER_URL = 'amqp://guest@localhost//'
app.conf.CELERY_RESULT_BACKEND = 'redis://localhost:6379/0'
多個參數配置:
app.conf.update(
CELERY_BROKER_URL = 'amqp://guest@localhost//',
CELERY_RESULT_BACKEND = 'redis://localhost:6379/0'
)
從配置文件中獲取:
先把配置存入配置文件中'celeryconfig.py'
BROKER_URL='amqp://guest@localhost//'
CELERY_RESULT_BACKEND='redis://localhost:6379/0'
導入到celery 對象中app.config_from_object('celeryconfig')
我們之前調用任務使用了”delay()”方法,它其實是對”apply_async()”方法的封裝,
使得你只要傳入任務所需的參數即可
關于序列化
Celery默認序列化方式是”json”,指定序列化
app = Celery('tasks', broker='...', task_serializer='yaml')
app.conf.update(
CELERY_TASK_SERIALIZER='pickle',
CELERY_RESULT_SERIALIZER='json',
)
@app.task
def add(x, y):
...
add.apply_async((2, 5), serializer='json')
django + celery 實現任務的異步處理
1.Django Web中從一個http請求發起,到獲得響應返回html頁面的流程大致如下:http請求發起 -- http handling(request解析) -- url mapping(url正則匹配找到對應的View) -- 在View中進行邏輯的處理、數據計算(包括調用Model類進行數據庫的增刪改查)--將數據推送到template,返回對應的template/response
同步請求:所有邏輯處理、數據計算任務在View中處理完畢后返回response。在View處理任務時用戶處于等待狀態,直到頁面返回結果
異步請求:View中先返回response,再在后臺處理任務。用戶無需等待,可以繼續瀏覽網站。當任務處理完成時,我們可以再告知用戶
2.建立消息隊列
消息隊列可以使用RabbitMQ、Redis 等
3.安裝django-celery
pip install celery django-celery
4.配置settings.py
import djcelery
djcelery.setup_loader()
BROKER_URL = 'django://' # 使用django做broker
CELERYBEAT_SCHEDULER = 'djcelery.schedulers.DatabaseScheduler' # 定時任務.
CELERY_RESULT_BACKEND = 'djcelery.backends.database:DatabaseBackend' # 需要跟蹤任務的狀態時保存結果和狀態
CELERY_ENABLE_UTC = False # 不用UTC.
CELERY_TIMEZONE = 'Asia/Shanghai' # 指定上海時區
CELERY_ACCEPT_CONTENT = ['pickle', 'json', 'msgpack', 'yaml'] # 允許的格式
CELERY_TASK_SERIALIZER = 'json'
CELERY_RESULT_SERIALIZER = 'json'
CELERY_IGNORE_RESULT = True
INSTALLED_APPS = [
'djcelery',# 新增
'kombu.transport.django', # 新增kombu.transport.django則是基于Django的broker
]
其中,當djcelery.setup_loader()運行時,Celery便會去查看INSTALLD_APPS下包含的所有app目錄中的tasks.py文件,找到標記為task的方法,將它們注冊為celery task
5.在項目 mysite 下新建celery.py
from future import absolute_import
import os
from celery import Celery
os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'mysite.settings')
from django.conf import settings # noqa
app = Celery('mysite')
app.config_from_object('django.conf:settings')
app.autodiscover_tasks(lambda: settings.INSTALLED_APPS)
@app.task(bind=True)
def debug_task(self):
print('Request: {0!r}'.format(self.request))
6.在應用celery_project下新建tasks.py
from future import absolute_import
from celery import shared_task
import time
@shared_task(track_started=True)
def add(x, y):
time.sleep(30)
return x + y
在tasks.py中我們就可以編碼實現我們需要執行的任務邏輯,在開始處import task,然后在要執行的任務方法開頭用上裝飾器@task。需要注意的是,與一般的.py中實現celery不同,tasks.py必須建在各app的根目錄下,且不能隨意命名
6.生產任務
在需要執行該任務的View中,通過test.delay的方式來創建任務,并送入消息隊列
def produce():
a =1
b =2
r = test.delay(a,b)
7.啟動work
#先啟動服務器 python manage.py runserver
#再啟動worker celery worker -A mysite -c 4 --loglevel=info
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。