celery 启动worker 时候报错 5C

错误信息如下:
raceback (most recent call last):
File "/home/xuxiaolong/anaconda3/lib/python3.6/site-packages/celery/app/utils.py", line 228, in find_app
found = sym.app
AttributeError: module 'celeryDemo' has no attribute 'app'

During handling of the above exception, another exception occurred:

Traceback (most recent call last):
File "/home/xuxiaolong/anaconda3/bin/celery", line 11, in
sys.exit(main())
File "/home/xuxiaolong/anaconda3/lib/python3.6/site-packages/celery/__main__.py", line 30, in main
main()
File "/home/xuxiaolong/anaconda3/lib/python3.6/site-packages/celery/bin/celery.py", line 80, in main
cmd.execute_from_commandline(argv)
File "/home/xuxiaolong/anaconda3/lib/python3.6/site-packages/celery/bin/celery.py", line 723, in execute_from_commandline
super(CeleryCommand, self).execute_from_commandline(argv)))
File "/home/xuxiaolong/anaconda3/lib/python3.6/site-packages/celery/bin/base.py", line 301, in execute_from_commandline
argv = self.setup_app_from_commandline(argv)
File "/home/xuxiaolong/anaconda3/lib/python3.6/site-packages/celery/bin/base.py", line 431, in setup_app_from_commandline
self.app = self.find_app(app)
File "/home/xuxiaolong/anaconda3/lib/python3.6/site-packages/celery/bin/base.py", line 451, in find_app
return find_app(app, symbol_by_name=self.symbol_by_name)
File "/home/xuxiaolong/anaconda3/lib/python3.6/site-packages/celery/app/utils.py", line 233, in find_app
found = sym.celery
AttributeError: module 'celeryDemo' has no attribute 'celery'

代码目录结构:
celeryDemo
--__init__.py
--tasks.py
--CeleryConf.py
--config.py
config.py代码:
from future import absolute_import

CELERY_RESULT_BACKEND = 'redis://127.0.0.1:6379/5'
BROKER_URL = 'redis://127.0.0.1:6379/6'

celeryconf.py代码
from future import absolute_import
from celery import Celery

app=Celery('celeryDemo', include=['celeryDemo.tasks'])
app.config_from_object('celeryDemo.config')

if name == '__main__':
app.start()

tasks.py代码:
from future import absolute_import
from celeryDemo.celeryConf import app
#from celeryDemo.scrapyLijia import scrapyProcess

@app.task
def add(x, y):
return x + y
"""
@app.task
def spider(region):
q =[]
process = scrapyProcess(region,q,"Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:31.0) Gecko/20100101 Firefox/31.0",None,5)
process.start()
"""
当家帮忙看下,我查了好久不知道啥问题

1个回答

解决方案有2个:

  1. 升级python-librabbitmq到新的版本,如 1.5.2 ,可以用通过.deb包或apt-get命令来升级,也可以用pip来安装.我用pip安装默认就到1.5.2版本了,如下:

jay@jay-linux:~$ sudo apt-get remove python-librabbitmq #删除原来的包
jay@jay-linux:~$ sudo pip install librabbitmq

  1. 直接删除python-librabbitmq包,这样celery会回到使用python-amqp包,这样也时可以的.
caca95
95CACA 我并没安装你说的这两个包, 问题现在解决了,开始按网上的介绍,启动命令是:celery -A celeryDemo worker -l info,但其实这种启动命令式有问题的,-A后面接的应该 Celery() 实例所在的位置
接近 2 年之前 回复
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
celery启动worker时说redis版本太低

![图片说明](https://img-ask.csdn.net/upload/201903/12/1552394168_669843.png) 我用django的celery时把redis作为broker然后启动worker时一直报错说我redis的版本是3.1可我启动的redis就是3.2.1的,大佬们这是为什么呀

关于celery启动任务时报错Thread 'ResultHandler' crashed: ValueError('invalid file descriptor 13',)

我使用celery定时器执行任务,可启动时会出现这个错误 ``` [2019-10-22 09:13:30,334: INFO/MainProcess] Connected to redis://127.0.0.1:6379/14 [2019-10-22 09:13:30,361: INFO/MainProcess] mingle: searching for neighbors [2019-10-22 09:13:30,532: INFO/Beat] beat: Starting... [2019-10-22 09:13:31,072: ERROR/Beat] Thread 'ResultHandler' crashed: ValueError('invalid file descriptor 13',) Traceback (most recent call last): File "/pyenvs/spider/lib64/python3.6/site-packages/billiard/pool.py", line 899, in body for _ in self._process_result(1.0): # blocking File "/pyenvs/spider/lib64/python3.6/site-packages/billiard/pool.py", line 864, in _process_result ready, task = poll(timeout) File "/pyenvs/spider/lib64/python3.6/site-packages/billiard/pool.py", line 1370, in _poll_result if self._outqueue._reader.poll(timeout): File "/pyenvs/spider/lib64/python3.6/site-packages/billiard/connection.py", line 285, in poll return self._poll(timeout) File "/pyenvs/spider/lib64/python3.6/site-packages/billiard/connection.py", line 463, in _poll r = wait([self], timeout) File "/pyenvs/spider/lib64/python3.6/site-packages/billiard/connection.py", line 996, in wait return _poll(object_list, timeout) File "/pyenvs/spider/lib64/python3.6/site-packages/billiard/connection.py", line 976, in _poll raise ValueError('invalid file descriptor %i' % fd) ValueError: invalid file descriptor 13 During handling of the above exception, another exception occurred: Traceback (most recent call last): File "/pyenvs/spider/lib64/python3.6/site-packages/billiard/pool.py", line 504, in run return self.body() File "/pyenvs/spider/lib64/python3.6/site-packages/billiard/pool.py", line 904, in body self.finish_at_shutdown() File "/pyenvs/spider/lib64/python3.6/site-packages/billiard/pool.py", line 953, in finish_at_shutdown if not outqueue._reader.poll(): File "/pyenvs/spider/lib64/python3.6/site-packages/billiard/connection.py", line 285, in poll return self._poll(timeout) File "/pyenvs/spider/lib64/python3.6/site-packages/billiard/connection.py", line 463, in _poll r = wait([self], timeout) File "/pyenvs/spider/lib64/python3.6/site-packages/billiard/connection.py", line 991, in wait return _poll(object_list, 0) File "/pyenvs/spider/lib64/python3.6/site-packages/billiard/connection.py", line 976, in _poll raise ValueError('invalid file descriptor %i' % fd) ValueError: invalid file descriptor 13 [2019-10-22 09:13:31,408: INFO/MainProcess] mingle: all alone [2019-10-22 09:13:31,423: INFO/MainProcess] celery@iZwz9h41nalpsqzz57x4tmZ ready. ``` 重启几次这个错误就不会出现,但运行一段时间后再次从定时器发布任务时还会出现该错误导致任务执行失败 ``` [2019-10-22 07:00:00,000: INFO/Beat] Scheduler: Sending due task monitoring_auto_run (run.monitoring_auto_run) [2019-10-22 07:00:00,008: INFO/MainProcess] Received task: run.monitoring_auto_run[469ee195-3e1a-4bf0-a7cb-783232e8d0bc] [2019-10-22 07:00:00,105: ERROR/ForkPoolWorker-11] Thread 'ResultHandler' crashed: ValueError('invalid file descriptor 14',) Traceback (most recent call last): File "/pyenvs/spider/lib64/python3.6/site-packages/billiard/pool.py", line 504, in run return self.body() File "/pyenvs/spider/lib64/python3.6/site-packages/billiard/pool.py", line 899, in body for _ in self._process_result(1.0): # blocking File "/pyenvs/spider/lib64/python3.6/site-packages/billiard/pool.py", line 864, in _process_result ready, task = poll(timeout) File "/pyenvs/spider/lib64/python3.6/site-packages/billiard/pool.py", line 1370, in _poll_result if self._outqueue._reader.poll(timeout): File "/pyenvs/spider/lib64/python3.6/site-packages/billiard/connection.py", line 285, in poll return self._poll(timeout) File "/pyenvs/spider/lib64/python3.6/site-packages/billiard/connection.py", line 463, in _poll r = wait([self], timeout) File "/pyenvs/spider/lib64/python3.6/site-packages/billiard/connection.py", line 996, in wait return _poll(object_list, timeout) File "/pyenvs/spider/lib64/python3.6/site-packages/billiard/connection.py", line 976, in _poll raise ValueError('invalid file descriptor %i' % fd) ValueError: invalid file descriptor 14 [2019-10-22 07:00:00,768: ERROR/MainProcess] Process 'ForkPoolWorker-11' pid:15068 exited with 'exitcode 1' [2019-10-22 07:00:11,186: ERROR/MainProcess] Task handler raised error: WorkerLostError('Worker exited prematurely: exitcode 1.',) Traceback (most recent call last): File "/pyenvs/spider/lib64/python3.6/site-packages/billiard/pool.py", line 1267, in mark_as_worker_lost human_status(exitcode)), billiard.exceptions.WorkerLostError: Worker exited prematurely: exitcode 1. ```

celery+redis启动报错attribute 'hash_randomization'

遇到一个问题,在使用"celery -A Redis worker --loglevel=info"命令启动时,报错 AttributeError: 'sys.flags' object has no attribute 'hash_randomization' 没找到具体是哪里的问题 我用的代码 ``` # coding: utf-8 from celery import Celery broker = 'redis://localhost:6379' backend = 'redis://localhost:6379' # "Redis" 任务名 (与当前文件名一致) app = Celery("Redis", broker=broker, backend=backend) @app.task() def redis_main(x): print "Hello %s!" % x ``` 具体的报错 ``` -------------- celery@DESKTOP-DK5Q8NF v4.2.0 (windowlicker) ---- **** ----- --- * *** * -- Windows-post2008Server-6.2.9200 2018-06-13 15:29:30 -- * - **** --- - ** ---------- [config] - ** ---------- .> app: Redis:0x5a88198 - ** ---------- .> transport: redis://localhost:6379// - ** ---------- .> results: redis://localhost:6379/ - *** --- * --- .> concurrency: 4 (prefork) -- ******* ---- .> task events: OFF (enable -E to monitor tasks in this worker) --- ***** ----- -------------- [queues] .> celery exchange=celery(direct) key=celery [tasks] . Redis.redis_main [2018-06-13 15:29:31,095: CRITICAL/MainProcess] Unrecoverable error: AttributeError("'sys.flags' object has no attribute 'hash_randomization'",) Traceback (most recent call last): File "C:\Python27\lib\site-packages\celery-4.2.0-py2.7.egg\celery\worker\worker.py", line 205, in start self.blueprint.start(self) File "C:\Python27\lib\site-packages\celery-4.2.0-py2.7.egg\celery\bootsteps.py", line 119, in start step.start(parent) File "C:\Python27\lib\site-packages\celery-4.2.0-py2.7.egg\celery\bootsteps.py", line 369, in start return self.obj.start() File "C:\Python27\lib\site-packages\celery-4.2.0-py2.7.egg\celery\concurrency\base.py", line 131, in start self.on_start() File "C:\Python27\lib\site-packages\celery-4.2.0-py2.7.egg\celery\concurrency\prefork.py", line 112, in on_start **self.options) File "C:\Python27\lib\site-packages\billiard-3.5.0.3-py2.7-win-amd64.egg\billiard\pool.py", line 1007, in __init__ self._create_worker_process(i) File "C:\Python27\lib\site-packages\billiard-3.5.0.3-py2.7-win-amd64.egg\billiard\pool.py", line 1116, in _create_worker_process w.start() File "C:\Python27\lib\site-packages\billiard-3.5.0.3-py2.7-win-amd64.egg\billiard\process.py", line 124, in start self._popen = self._Popen(self) File "C:\Python27\lib\site-packages\billiard-3.5.0.3-py2.7-win-amd64.egg\billiard\context.py", line 383, in _Popen return Popen(process_obj) File "C:\Python27\lib\site-packages\billiard-3.5.0.3-py2.7-win-amd64.egg\billiard\popen_spawn_win32.py", line 55, in __init__ pipe_handle=rhandle) File "C:\Python27\lib\site-packages\billiard-3.5.0.3-py2.7-win-amd64.egg\billiard\spawn.py", line 147, in get_command_line opts = util._args_from_interpreter_flags() File "C:\Python27\lib\site-packages\billiard-3.5.0.3-py2.7-win-amd64.egg\billiard\util.py", line 36, in _args_from_interpreter_flags v = getattr(sys.flags, flag) AttributeError: 'sys.flags' object has no attribute 'hash_randomization' ```

django同步send_email正常,celery异步send_email报错Connection unexpectedly closed

@shared_task def sendEmail(content): try: send_mail('主题',content,'abc@qq.com',['1001@qq.com','1002@qq.com']) print('发送成功') except SMTPException as e: print(f'发送失败{e}') #views.py …… #sendEmail('同步发送信息') ——同步发送正常 sendEmail.delay('异步发送信息') ——celery异步发送失败报错Connection unexpectedly closed ……

使用celery执行celery -A tasks worker --loglevel=info后报错from kombu.matcher import match,ImportError: No module named 'kombu.matcher'

shell中报错如下 ``` File "/usr/local/lib/python3.5/dist-packages/celery/utils/imports.py", line 55, in instantiate return symbol_by_name(name)(*args, **kwargs) File "/home/tarena/.local/lib/python3.5/site-packages/kombu/utils/imports.py", line 56, in symbol_by_name module = imp(module_name, package=package, **kwargs) File "/usr/lib/python3.5/importlib/__init__.py", line 126, in import_module return _bootstrap._gcd_import(name[level:], package, level) File "<frozen importlib._bootstrap>", line 986, in _gcd_import File "<frozen importlib._bootstrap>", line 969, in _find_and_load File "<frozen importlib._bootstrap>", line 958, in _find_and_load_unlocked File "<frozen importlib._bootstrap>", line 673, in _load_unlocked File "<frozen importlib._bootstrap_external>", line 665, in exec_module File "<frozen importlib._bootstrap>", line 222, in _call_with_frames_removed File "/usr/local/lib/python3.5/dist-packages/celery/app/control.py", line 12, in <module> from kombu.matcher import match ImportError: No module named 'kombu.matcher' ``` celery提不起来,求哪位大神赐教

【没有C币有大神看不】celery一处理任务就报错,报错信息里说的没有反向怎么破?

1. 部署环境:腾讯云,python3, Ubuntu18.04 2.所用工具:nginx1.81,uwsgi,redis4.x,django2.1,celery,mysql5.7 3.描述: celery处理任务时报错,说没有反向啥的,我感觉有呀,而且上传图片几十k也不大啊 ** 报 ** raise NoReverseMatch(msg) django.urls.exceptions.NoReverseMatch: Reverse for 'order' with no arguments not found. 1 pattern(s) tried: ['user/order/(?P<page>\\d+)$'] ## **原url配置代码截图:** ![图片说明](https://img-ask.csdn.net/upload/201905/14/1557818222_583693.png) user中url的配置 和下面答主的一样 (除了我的order/后面还有别的关于页码的参数以外) ![图片说明](https://img-ask.csdn.net/upload/201905/14/1557818513_355803.png) ## 具体图片描述: ![图片说明](https://img-ask.csdn.net/upload/201905/14/1557817706_503027.png)

uwsgi启动django项目报错

Traceback (most recent call last):   File "./AdminSystem/wsgi.py", line 12, in <module>     from django.core.wsgi import get_wsgi_application ImportError: No module named django.core.wsgi unable to load app 0 (mountpoint='') (callable not found or import error) --- no python application found, check your startup logs for errors --- 这是我的uwsgi.ini的配置 ![图片说明](https://img-ask.csdn.net/upload/202004/03/1585879873_469250.png)

请问下celery怎么给安装在其他服务器上的worker分配任务,小白请教,不升感激!

集群里面利用celery做任务发送,同时回收结果。rabbitmq或者redis怎么接受消息发送给其他的worker

如何通过celery进行分布式运行task

现在我已经在我的机器上写好了app和相应的task,我想在另外一台机器上运行这上面的task,并且另外一台电脑拥有运行task的所有条件,并且这两台电脑处于同一个子网,假定分别是192.168.1.196/24和192.168.1.197/24,我在这台电脑上的broker定义是 amqp://test:test@192.168.1.196:5672/celery_t est, app的名字叫celery_test_app,那么我想在另外一台机器上运行celery worker来运行这上面的task,应该怎么操作?

celery 连接rabbitmq ConnectionResetError: [Errno 104]

代码目录结构: task/ celeryStart.py celeryApp/ __init__.py celeryconfig.py celerytask.py __init__.py中生成app=Celery()对象,celeryStart.py中引用app发送一个任务 celery -A celeryApp worker -l info正常连接rabbitmq celery -A celeryStart worker -l info报警告 ![图片说明](https://img-ask.csdn.net/upload/201812/29/1546074603_73952.png)

celery,想存储任务结果,能否设置backend为kafka,或者?

我想问下,在celery中,怎么使用kafka作为存储结果,我在worker中使用存储的时候,存本地速度是正常的,当使用kafka的时候每次任务都需要连接一次kafka导致任务太慢,感谢大家

cmd运行celery出现无权限访问

建立了简单的测试celery小代码,但是运行 celery -A test1 worker --loglevel=info 时候报错。 ![图片说明](https://img-ask.csdn.net/upload/201711/08/1510104156_348863.png) ![图片说明](https://img-ask.csdn.net/upload/201711/08/1510104241_549134.png)

Celery上手使用遇到困难,server卡在 task.delay(),似乎进不去任务方法

作为一个celery的初学者,我试图在我的简单的flask web项目中添加celery的异步特性。在安装并启动celery、redis和相关的python pip之后,我在一开始就遇到了卡在task.delay()的问题。很沮丧,能帮我一下吗? <br> 在flask项目中有app.py和tasks.py。(一开始我把所有东西都写在app.py中,然后我把celery对象分开,但没有任何帮助) <br> tasks.py: ``` from celery import Celery celery = Celery('app', broker='redis://localhost:6379/0', backend='redis://localhost:6379/1') @celery.task def modeling_task(): print('yes') ``` <br> app.py: ``` @app.route('/train', methods=['GET', 'POST']) def train(): if request.method == "GET": return render_template('train.html') else: # when request POST # check if the post request has the file part if 'file' not in request.files: return jsonify({"code": 500, "status": 'No file is uploaded!'}) if file and allowed_file(file.filename): print(request.files['file'].filename) print('before task') task = modeling_task.delay() print('after task') return jsonify({"code": 200, "status": 'model training', "task_id": task.id}) return 'Uploading file is wrong' ``` <br> 按理说,当server接收到前端上传的文件时,控制台应该输出这些 ``` Car_TEST.csv before task yes after task ``` <br> 但实际上输出的是这样 ``` * Detected change in 'C:\\Users\\headmaster\\Desktop\\WEB\\tasks.py', reloading * Restarting with stat * Debugger is active! * Debugger PIN: 308-608-393 * Running on http://127.0.0.1:5000/ (Press CTRL+C to quit) 127.0.0.1 - - [22/Apr/2020 11:39:22] "GET /train HTTP/1.1" 200 - Car_TEST.csv before task ``` 然后server就一直卡在这里了 <br> 好像"task = modeling_task.delay()" 根本就没执行 <br> 是因为它有执行,然后“yes”被打印在别的地方了吗? 为什么会一直卡在那呢? <br> 下面是celery的report ``` (base) C:\Users\headmaster\Desktop\WEB>celery -A tasks report software -> celery:4.4.2 (cliffs) kombu:4.6.8 py:3.7.4 billiard:3.6.3.0 redis:3.4.1 platform -> system:Windows arch:64bit, WindowsPE kernel version:10 imp:CPython loader -> celery.loaders.app.AppLoader settings -> transport:redis results:redis://localhost:6379/1 broker_url: 'redis://localhost:6379/0' result_backend: 'redis://localhost:6379/1' ``` <br> celery的运行状态: ``` (base) C:\Users\headmaster\Desktop\WEB>celery worker -A tasks.celery --loglevel=info -------------- celery@LAPTOP-KLKJCK2F v4.4.2 (cliffs) --- ***** ----- -- ******* ---- Windows-10-10.0.18362-SP0 2020-04-22 10:55:13 - *** --- * --- - ** ---------- [config] - ** ---------- .> app: app:0x2526977ac08 - ** ---------- .> transport: redis://localhost:6379/0 - ** ---------- .> results: redis://localhost:6379/1 - *** --- * --- .> concurrency: 4 (prefork) -- ******* ---- .> task events: OFF (enable -E to monitor tasks in this worker) --- ***** ----- -------------- [queues] .> celery exchange=celery(direct) key=celery [tasks] . tasks.modeling_task [2020-04-22 10:55:15,501: INFO/SpawnPoolWorker-1] child process 6692 calling self.run() [2020-04-22 10:55:15,511: INFO/SpawnPoolWorker-2] child process 17736 calling self.run() [2020-04-22 10:55:15,518: INFO/SpawnPoolWorker-3] child process 16320 calling self.run() [2020-04-22 10:55:15,571: INFO/SpawnPoolWorker-4] child process 5608 calling self.run() [2020-04-22 10:55:15,972: INFO/MainProcess] Connected to redis://localhost:6379/0 [2020-04-22 10:55:20,332: INFO/MainProcess] mingle: searching for neighbors [2020-04-22 10:55:27,369: INFO/MainProcess] mingle: all alone [2020-04-22 10:55:35,402: INFO/MainProcess] celery@LAPTOP-KLKJCK2F ready. ``` <br> redis的启动状态: ``` PS D:\Applications\Redis> redis-server redis.conf _._ _.-``__ ''-._ _.-`` `. `_. ''-._ Redis 3.2.100 (00000000/0) 64 bit .-`` .-```. ```\/ _.,_ ''-._ ( ' , .-` | `, ) Running in standalone mode |`-._`-...-` __...-.``-._|'` _.-'| Port: 6379 | `-._ `._ / _.-' | PID: 21420 `-._ `-._ `-./ _.-' _.-' |`-._`-._ `-.__.-' _.-'_.-'| | `-._`-._ _.-'_.-' | http://redis.io `-._ `-._`-.__.-'_.-' _.-' |`-._`-._ `-.__.-' _.-'_.-'| | `-._`-._ _.-'_.-' | `-._ `-._`-.__.-'_.-' _.-' `-._ `-.__.-' _.-' `-._ _.-' `-.__.-' [21420] 22 Apr 10:38:22.506 # Server started, Redis version 3.2.100 [21420] 22 Apr 10:38:22.508 * DB loaded from disk: 0.000 seconds [21420] 22 Apr 10:38:22.508 * The server is now ready to accept connections on port 6379 [21420] 22 Apr 10:43:23.025 * 10 changes in 300 seconds. Saving... [21420] 22 Apr 10:43:23.030 * Background saving started by pid 6204 [21420] 22 Apr 10:43:23.231 # fork operation complete [21420] 22 Apr 10:43:23.232 * Background saving terminated with success [21420] 22 Apr 10:51:18.099 * 10 changes in 300 seconds. Saving... [21420] 22 Apr 10:51:18.103 * Background saving started by pid 10116 [21420] 22 Apr 10:51:18.305 # fork operation complete [21420] 22 Apr 10:51:18.306 * Background saving terminated with success [21420] 22 Apr 10:56:19.022 * 10 changes in 300 seconds. Saving... [21420] 22 Apr 10:56:19.026 * Background saving started by pid 11748 [21420] 22 Apr 10:56:19.227 # fork operation complete [21420] 22 Apr 10:56:19.227 * Background saving terminated with success ```

python Master-Worker多台机器的分布式怎么写?

参考了缪雪峰教程里面的分布式写法,自己又琢磨了一会, 在一台机器上启动Master,另外三台机器上启动worker并不能完美执行, 有没有这方面的专家写一个这样的代码研究一下谢谢!!!!

如何在Celery中完成失败的任务?

<div class="post-text" itemprop="text"> <p>I am using celery to process some tasks. I can see how many are active or scheduled etc, but I am not able to find any way to see the tasks that have failed. Flower does show me the status but only if it was running when the task was started and failed. Is there any command to get all the tasks that have failed (STATUS: FAILURE) ?</p> <p>I do have the task id when the task was created. But there are millions of them. So I can't check one by one even if there is a way to check it by task ID. But if there is such a command, please let me know.</p> </div>

对于Symfony 2框架,是否有任何Celery或Celery(用于Django / Python)类型替代品

<div class="post-text" itemprop="text"> <p>I am a big fan of <a href="http://en.wikipedia.org/wiki/Celery_Task_Queue" rel="nofollow">Celery</a> for executing scheduled tasks in Django. I am now using <a href="http://en.wikipedia.org/wiki/Symfony" rel="nofollow">Symfony</a> 2 and see that it is almost similar to Django framework.</p> <p>I wonder if there is something similar to Celery in Symfony for scheduling task queues.</p> </div>

celery怎么异步上传图片到本地或者七牛云,我发现delay()不可以传入对象的,那应该用什么方法

celery怎么异步上传图片到本地或者七牛云,我发现delay()不可以传入对象的,那应该用什么方法 django的celery模块有什么方法实现异步传图片

利用flask+celery+flask_mail扩展异步发送邮件时,celery会出现上下文问题,有人能解决吗?网上找了很多,都感觉很模糊

``` import random from flask import Flask, request, jsonify, render_template, current_app from celery import Celery from flask_mail import Message, Mail import settings app = Flask(__name__) app.config.from_object(settings.BaseConfig) mail = Mail(app) celery = Celery(app.name, broker=app.config['CELERY_BROKER_URL']) celery.conf.update(app.config) @celery.task def send_async_email(subject, to, expire_minute): app = current_app._get_current_object() msg = Message(subject=subject, sender=app.config['MAIL_DEFAULT_SENDER'], recipients=[to]) msg.body = 'This is a test email sent from a background Celery task.' vcode = ''.join([str(i) for i in random.sample(range(0, 10), 4)]) context = { 'subject': subject, 'expire_minute': expire_minute, 'vcode': vcode, # 'debug': get_config_partial('DEBUG'), # 'debug': True, } msg.html = render_template(app.config['EMAIL_TEMPLATE'] + '.html', **context) # with app.app_context(): mail.send(msg) @app.route('/send_email', methods=['POST']) def send_email(): try: subject = request.form.get("subject") to = request.form.get("to") expire_minute = request.form.get("expire_minute") except: return jsonify({'msg': '参数有误'}) # send_async_email.delay(app, msg) send_async_email.apply_async(args=[subject, to, expire_minute]) message = '邮件发送成功' return jsonify(message=message) if __name__ == '__main__': app.run() ``` 这是我的settings文件 ``` class BaseConfig(object): CELERY_BROKER_URL = 'amqp://guest:guest@localhost:5672//' BACKEND = None RABBITMQ_QUEUE = 'hello' MAIL_SERVER = 'smtp.163.com ' MAIL_PORT = 25 MAIL_USE_TLS = True MAIL_USERNAME = 'mini@ 163.com' MAIL_PASSWORD = '1314AC' MAIL_DEFAULT_SENDER = 'mini @ 163.com' DEFAULT_FROM_EMAIL = 'mini @ 163.com' EMAIL_TEMPLATE = 'email' ```

django中重写logging.Handle的emit,在里面实现日志的保存,但是在配置时一直报错,好像不能配置自定义的handlers

现在common的view下写了一个MyHandle类,重写emit方法 ``` class MyHandle(logging.Handler): """ 输出日志到队列 """ def emit(self, record): insert_logging.apply_async(args=[self.format(record)], queue=settings.RABBITMQ_QUEUE) ``` 此代码放在celery文件中,想通过celery来实现日志写入队列,之后再做处理 ![图片说明](https://img-ask.csdn.net/upload/202001/19/1579415564_177923.jpg) 但是我的消费者写在tasks文件中 然后再配置中加上handle,保证在每次访问的时候都会写入到队列 ![图片说明](https://img-ask.csdn.net/upload/202001/19/1579415680_323635.jpg) 结果在启动的时候就会报错,app没加载,因为tasks里面会加载到一些模型类等等。 最大的问题就是如果自定义了Handle,不知道这个handle该如何配置,才能不会在项目启动时发生冲突 ![图片说明](https://img-ask.csdn.net/upload/202001/19/1579415103_30076.png) 上图是django的配置,里面是自定义了一个handle

大学四年自学走来,这些私藏的实用工具/学习网站我贡献出来了

大学四年,看课本是不可能一直看课本的了,对于学习,特别是自学,善于搜索网上的一些资源来辅助,还是非常有必要的,下面我就把这几年私藏的各种资源,网站贡献出来给你们。主要有:电子书搜索、实用工具、在线视频学习网站、非视频学习网站、软件下载、面试/求职必备网站。 注意:文中提到的所有资源,文末我都给你整理好了,你们只管拿去,如果觉得不错,转发、分享就是最大的支持了。 一、电子书搜索 对于大部分程序员...

在中国程序员是青春饭吗?

今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...

程序员请照顾好自己,周末病魔差点一套带走我。

程序员在一个周末的时间,得了重病,差点当场去世,还好及时挽救回来了。

ArrayList源码分析(入门篇)

ArrayList源码分析 前言: 写这篇博客的主要原因是,在我上一次参加千牵科技Java实习生面试时,有被面试官问到ArrayList为什么查找的速度较快,插入和删除的速度较慢?当时我回答得不好,很大的一部分原因是因为我没有阅读过ArrayList源码,虽然最后收到Offer了,但我拒绝了,打算寒假学得再深入些再广泛些,下学期开学后再去投递其他更好的公司。为了更加深入理解ArrayList,也为

我以为我学懂了数据结构,直到看了这个导图才发现,我错了

数据结构与算法思维导图

String s = new String(" a ") 到底产生几个对象?

老生常谈的一个梗,到2020了还在争论,你们一天天的,哎哎哎,我不是针对你一个,我是说在座的各位都是人才! 上图红色的这3个箭头,对于通过new产生一个字符串(”宜春”)时,会先去常量池中查找是否已经有了”宜春”对象,如果没有则在常量池中创建一个此字符串对象,然后堆中再创建一个常量池中此”宜春”对象的拷贝对象。 也就是说准确答案是产生了一个或两个对象,如果常量池中原来没有 ”宜春” ,就是两个。...

技术大佬:我去,你写的 switch 语句也太老土了吧

昨天早上通过远程的方式 review 了两名新来同事的代码,大部分代码都写得很漂亮,严谨的同时注释也很到位,这令我非常满意。但当我看到他们当中有一个人写的 switch 语句时,还是忍不住破口大骂:“我擦,小王,你丫写的 switch 语句也太老土了吧!” 来看看小王写的代码吧,看完不要骂我装逼啊。 private static String createPlayer(PlayerTypes p...

和黑客斗争的 6 天!

互联网公司工作,很难避免不和黑客们打交道,我呆过的两家互联网公司,几乎每月每天每分钟都有黑客在公司网站上扫描。有的是寻找 Sql 注入的缺口,有的是寻找线上服务器可能存在的漏洞,大部分都...

讲一个程序员如何副业月赚三万的真实故事

loonggg读完需要3分钟速读仅需 1 分钟大家好,我是你们的校长。我之前讲过,这年头,只要肯动脑,肯行动,程序员凭借自己的技术,赚钱的方式还是有很多种的。仅仅靠在公司出卖自己的劳动时...

上班一个月,后悔当初着急入职的选择了

最近有个老铁,告诉我说,上班一个月,后悔当初着急入职现在公司了。他之前在美图做手机研发,今年美图那边今年也有一波组织优化调整,他是其中一个,在协商离职后,当时捉急找工作上班,因为有房贷供着,不能没有收入来源。所以匆忙选了一家公司,实际上是一个大型外包公司,主要派遣给其他手机厂商做外包项目。**当时承诺待遇还不错,所以就立马入职去上班了。但是后面入职后,发现薪酬待遇这块并不是HR所说那样,那个HR自...

女程序员,为什么比男程序员少???

昨天看到一档综艺节目,讨论了两个话题:(1)中国学生的数学成绩,平均下来看,会比国外好?为什么?(2)男生的数学成绩,平均下来看,会比女生好?为什么?同时,我又联想到了一个技术圈经常讨...

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

MySQL数据库面试题(2020最新版)

文章目录数据库基础知识为什么要使用数据库什么是SQL?什么是MySQL?数据库三大范式是什么mysql有关权限的表都有哪几个MySQL的binlog有有几种录入格式?分别有什么区别?数据类型mysql有哪些数据类型引擎MySQL存储引擎MyISAM与InnoDB区别MyISAM索引与InnoDB索引的区别?InnoDB引擎的4大特性存储引擎选择索引什么是索引?索引有哪些优缺点?索引使用场景(重点)...

如果你是老板,你会不会踢了这样的员工?

有个好朋友ZS,是技术总监,昨天问我:“有一个老下属,跟了我很多年,做事勤勤恳恳,主动性也很好。但随着公司的发展,他的进步速度,跟不上团队的步伐了,有点...

我入职阿里后,才知道原来简历这么写

私下里,有不少读者问我:“二哥,如何才能写出一份专业的技术简历呢?我总感觉自己写的简历太烂了,所以投了无数份,都石沉大海了。”说实话,我自己好多年没有写过简历了,但我认识的一个同行,他在阿里,给我说了一些他当年写简历的方法论,我感觉太牛逼了,实在是忍不住,就分享了出来,希望能够帮助到你。 01、简历的本质 作为简历的撰写者,你必须要搞清楚一点,简历的本质是什么,它就是为了来销售你的价值主张的。往深...

玩转springboot启动banner定义所得

最近接手了一个springboot项目,不是不熟悉这个框架,启动时打印的信息吸引了我。 这不是我熟悉的常用springboot的打印信息啊,我打开自己的项目: 还真是的,不用默认的感觉也挺高大上的。一时兴起,就去研究了一下源代码,还正是有些收获,稍后我会总结一下。正常情况下做为一个老程序员,是不会对这种小儿科感兴趣的,不就是一个控制台打印嘛。哈哈! 于是出于最初的好奇,研究了项目的源代码。看到

带了6个月的徒弟当了面试官,而身为高级工程师的我天天修Bug......

即将毕业的应届毕业生一枚,现在只拿到了两家offer,但最近听到一些消息,其中一个offer,我这个组据说客户很少,很有可能整组被裁掉。 想问大家: 如果我刚入职这个组就被裁了怎么办呢? 大家都是什么时候知道自己要被裁了的? 面试软技能指导: BQ/Project/Resume 试听内容: 除了刷题,还有哪些技能是拿到offer不可或缺的要素 如何提升面试软实力:简历, 行为面试,沟通能...

离职半年了,老东家又发 offer,回不回?

有小伙伴问松哥这个问题,他在上海某公司,在离职了几个月后,前公司的领导联系到他,希望他能够返聘回去,他很纠结要不要回去? 俗话说好马不吃回头草,但是这个小伙伴既然感到纠结了,我觉得至少说明了两个问题:1.曾经的公司还不错;2.现在的日子也不是很如意。否则应该就不会纠结了。 老实说,松哥之前也有过类似的经历,今天就来和小伙伴们聊聊回头草到底吃不吃。 首先一个基本观点,就是离职了也没必要和老东家弄的苦...

男生更看重女生的身材脸蛋,还是思想?

往往,我们看不进去大段大段的逻辑。深刻的哲理,往往短而精悍,一阵见血。问:产品经理挺漂亮的,有点心动,但不知道合不合得来。男生更看重女生的身材脸蛋,还是...

为什么程序员做外包会被瞧不起?

二哥,有个事想询问下您的意见,您觉得应届生值得去外包吗?公司虽然挺大的,中xx,但待遇感觉挺低,马上要报到,挺纠结的。

当HR压你价,说你只值7K,你该怎么回答?

当HR压你价,说你只值7K时,你可以流畅地回答,记住,是流畅,不能犹豫。 礼貌地说:“7K是吗?了解了。嗯~其实我对贵司的面试官印象很好。只不过,现在我的手头上已经有一份11K的offer。来面试,主要也是自己对贵司挺有兴趣的,所以过来看看……”(未完) 这段话主要是陪HR互诈的同时,从公司兴趣,公司职员印象上,都给予对方正面的肯定,既能提升HR的好感度,又能让谈判气氛融洽,为后面的发挥留足空间。...

面试:第十六章:Java中级开发(16k)

HashMap底层实现原理,红黑树,B+树,B树的结构原理 Spring的AOP和IOC是什么?它们常见的使用场景有哪些?Spring事务,事务的属性,传播行为,数据库隔离级别 Spring和SpringMVC,MyBatis以及SpringBoot的注解分别有哪些?SpringMVC的工作原理,SpringBoot框架的优点,MyBatis框架的优点 SpringCould组件有哪些,他们...

面试阿里p7,被按在地上摩擦,鬼知道我经历了什么?

面试阿里p7被问到的问题(当时我只知道第一个):@Conditional是做什么的?@Conditional多个条件是什么逻辑关系?条件判断在什么时候执...

终于懂了TCP和UDP协议区别

终于懂了TCP和UDP协议区别

你打算用Java 8一辈子都不打算升级到Java 14,真香

我们程序员应该抱着尝鲜、猎奇的心态,否则就容易固步自封,技术停滞不前。

无代码时代来临,程序员如何保住饭碗?

编程语言层出不穷,从最初的机器语言到如今2500种以上的高级语言,程序员们大呼“学到头秃”。程序员一边面临编程语言不断推陈出新,一边面临由于许多代码已存在,程序员编写新应用程序时存在重复“搬砖”的现象。 无代码/低代码编程应运而生。无代码/低代码是一种创建应用的方法,它可以让开发者使用最少的编码知识来快速开发应用程序。开发者通过图形界面中,可视化建模来组装和配置应用程序。这样一来,开发者直...

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

大三实习生,字节跳动面经分享,已拿Offer

说实话,自己的算法,我一个不会,太难了吧

程序员垃圾简历长什么样?

已经连续五年参加大厂校招、社招的技术面试工作,简历看的不下于万份 这篇文章会用实例告诉你,什么是差的程序员简历! 疫情快要结束了,各个公司也都开始春招了,作为即将红遍大江南北的新晋UP主,那当然要为小伙伴们做点事(手动狗头)。 就在公众号里公开征简历,义务帮大家看,并一一点评。《启舰:春招在即,义务帮大家看看简历吧》 一石激起千层浪,三天收到两百多封简历。 花光了两个星期的所有空闲时...

《经典算法案例》01-08:如何使用质数设计扫雷(Minesweeper)游戏

我们都玩过Windows操作系统中的经典游戏扫雷(Minesweeper),如果把质数当作一颗雷,那么,表格中红色的数字哪些是雷(质数)?您能找出多少个呢?文中用列表的方式罗列了10000以内的自然数、质数(素数),6的倍数等,方便大家观察质数的分布规律及特性,以便对算法求解有指导意义。另外,判断质数是初学算法,理解算法重要性的一个非常好的案例。

立即提问
相关内容推荐