我正在一个多节点分布式Dask集群上运行多个并行任务。然而,一旦任务完成,工作人员仍然持有大量内存,集群很快就会被填满。client.cancel(df)之后都尝试过client.cancel(df),第一个任务杀死了工作人员,并将CancelledError发送到其他运行中的任务,这是很麻烦的;第二个任务没有多大帮助,因为我们在map函数中使用了大量的自定义对象和函数我确信,大部分内存被占用是因为使用client.map(..)调用的自定义python函数和对象。我的问题是:
trigger w
[mapr@impetus-i0057 latest_code_deepak]$ dask-worker 172.26.32.37:8786
distributed.nanny - INFO -distributed.diskutils - WARNING - Found stale lock file and directory '/home/mapr/latest_code_deepak/dask-worker-space/dask-
我试图在使用SLURM的集群上实现dask。但是,在行中成功地创建和缩放了客户端。with joblib.parallel_backend('dask'):/usr/bin/python3: Error while findingmodule specification for 'distributed.cli.dask_worker' (ModuleNot