当前位置: 首页 > article >正文

flask不会随着网页的刷新和关闭停止任务

为了让Flask应用在网页刷新或关闭后仍能保持后台任务运行,关键在于将任务执行与客户端请求分离。以下是两种实现方案:


方案一:使用后台线程(适合简单场景/开发环境)

通过Python的threading模块启动独立线程执行任务,任务不受客户端请求生命周期影响。

from flask import Flask
from threading import Thread

app = Flask(__name__)
task_thread = None  # 存储线程实例

def long_running_task():
    import time
    while True:
        print("任务执行中...")
        time.sleep(5)

@app.route('/start_task')
def start_task():
    global task_thread
    if not task_thread or not task_thread.is_alive():
        task_thread = Thread(target=long_running_task)
        task_thread.daemon = True  # 主进程退出时自动结束线程(按需设置)
        task_thread.start()
        return "任务已启动!"
    return "任务已在运行中"

if __name__ == '__main__':
    app.run(debug=False, use_reloader=False)  # 禁用调试重载器
注意事项:
  1. 线程管理:使用全局变量存储线程实例,避免重复启动。

  2. 上下文问题:若任务涉及Flask上下文(如数据库操作),需手动推送:

    from flask import current_app
    
    def long_running_task():
        with current_app.app_context():
            # 访问数据库等操作
  3. 生产部署:避免使用多线程处理高并发,考虑WSGI服务器如Gunicorn。


方案二:使用Celery任务队列(推荐生产环境)

通过分布式任务队列管理后台任务,支持持久化、重试和监控。

步骤1:安装依赖
pip install celery redis
# 启动Redis服务(确保已安装)
步骤2:配置Celery
from flask import Flask
from celery import Celery

app = Flask(__name__)
app.config['CELERY_BROKER_URL'] = 'redis://localhost:6379/0'
app.config['CELERY_RESULT_BACKEND'] = 'redis://localhost:6379/0'

celery = Celery(app.name, broker=app.config['CELERY_BROKER_URL'])
celery.conf.update(app.config)

@celery.task(bind=True)
def long_running_task(self):
    import time
    while True:
        print("Celery任务执行中...")
        time.sleep(5)
步骤3:在Flask中触发任务
@app.route('/start_celery_task')
def start_celery_task():
    long_running_task.delay()
    return "Celery任务已提交!"
管理任务:
  • 监控任务状态:使用Flower(celery -A your_app.celery flower

  • 获取结果:通过AsyncResult查询任务状态:

    from celery.result import AsyncResult
    
    @app.route('/task_status/<task_id>')
    def task_status(task_id):
        task = AsyncResult(task_id, app=celery)
        return {'status': task.status}

关键区别与选择建议:

特性后台线程Celery
可靠性进程崩溃则任务丢失支持持久化,任务中断后可恢复
并发能力适合轻量级任务支持分布式、多Worker
复杂度简单,无需额外组件需Redis/RabbitMQ作为消息代理
适用场景开发/测试环境、简单任务生产环境、复杂或关键任务

常见问题解决:

  1. 任务重复启动:通过全局变量或数据库记录任务状态。

  2. 线程无法停止:添加停止标志:

    task_running = True
    def long_task():
        while task_running:
            # 执行操作
    @app.route('/stop_task')
    def stop_task():
        global task_running
        task_running = False
  3. Celery Worker离线:使用监控工具(如Supervisor)保持Worker进程存活。

选择适合你项目规模和需求的方案,即可实现Flask后台任务的持久化运行。


http://www.kler.cn/a/598181.html

相关文章:

  • 从失衡到平衡:手撕 AVL 树的插入旋转操作
  • 嵌入式学习(31)-Lora模块A39C-T400A30D1a
  • Transformer中,Fisher矩阵与权重之间关系
  • 开源AI大模型、AI智能名片与S2B2C商城小程序源码:实体店引流的破局之道
  • 新闻发布时间抽取(二)
  • 微调这件小事:训练集中的输入数据该作为instruction还是input?从LLaMA-Factory的源码中寻找答案吧~
  • CSS3学习教程,从入门到精通,CSS3 布局语法知识点及案例代码(15)
  • HTML5 SVG 学习笔记
  • LeetCode 92 Reverse Linked List Ⅱ 反转链表Ⅱ
  • 中间件漏洞-WebLogic篇
  • llama源码学习·model.py[6]TransformerBlock类
  • uni-app 与webView 互相传值
  • 内网渗透技术 Docker逃逸技术(提权)研究 CSMSF
  • IDEA批量替换项目下所有文件中的特定内容
  • 监控易运维管理软件:轻松部署,高效运维
  • mysql中的游标是什么?作用是什么?
  • 地理编码/经纬度解析/经纬度地址转换接口如何用JAVA对接
  • 大模型在非小细胞肺癌预测及治疗方案制定中的应用研究报告
  • 算力100问☞第93问:算力资源为何更分散了?
  • 算法-分治