Chinaunix首页 | 论坛 | 博客
  • 博客访问: 942798
  • 博文数量: 286
  • 博客积分: 0
  • 博客等级: 民兵
  • 技术积分: 2874
  • 用 户 组: 普通用户
  • 注册时间: 2019-01-04 10:09
个人简介

Linux资讯分享

文章分类

全部博文(286)

文章存档

2019年(286)

我的朋友

分类: LINUX

2019-08-20 16:09:17

在开发过程中,耗时长,超时的任务经常发生,比如:获取后端某个大文件数据超时、需要后端计算任务超时,等等,此时我们就会很自然的想到异步方式,根据需要完成的任务创建一个task_id, 由前端来监听该任务是否完成。

初始化celery

celery = Celery('celery_demo', broker=app.config.get('CELERY_BROKER_URL'),backend=app.config.get('CELERY_BACKEND_URL'))

在需要异步执行的方法上使用@celery.task装饰器

@celery.task

 def add(a,b):

  return a+b

在方法调用时,需要使用fun.delay(args)

add.delay(1,2)

celery启动

celery -A apps.celery worker -l info --concurrency=3

坑:在使用celery异步进行数据库进行交互时,务必手动断开连接,否则容易造成,lost connection error

本文地址:

阅读(4798) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~