这个集合会不定期更新,排版展示没思路,先凑合随便弄一下,后面再优化,下面是正文开始
1.问题: airflow 查询的日志太大怎么处理
在我的项目里需要展示 airflow 的某个 task日志,现在我是通过调用...回答:
这里有几点建议可以处理airflow任务日志过大的问题:
在调用日志API时指定参数full_content=false,只获取日志的元数据和省略内容,不返回完整日志。...不直接返回完整日志,提供日志下载的链接,用户按需下载。
将日志存储在如S3等云存储,不返回日志内容,只返回日志在云存储的地址,用户可自行下载。...设置日志轮换,将历史日志压缩打包存档到云存储,只保留最近的日志文件。
使用ELK等日志收集系统,直接在后端过滤和搜索日志,只返回用户需要的部分。
控制日志的最大容量和备份份数,自动清理旧日志。...回答:
推荐优先考虑使用多进程而不是多线程的理由主要有:
1. 避免GIL的影响
Python的多线程实现受到GIL(全局解释器锁)的限制,一次只能有一个线程执行,无法利用多核CPU。