如何让dask中的所有其他工作节点都可以访问一个8 GB的大文件?我已经在chunksize和client.scatter上尝试过pd.read_csv(),但这需要很长时间。这是我的代码:import dask as daskimportdask.dataframe as dd
import dask.delayed as
我正在尝试使用dask来处理一些ML项目中的大型数据集。将单独的CSV文件加载到dask数据帧中工作正常。当我尝试使用多个CSV文件时,任何类似“计算”的操作都会导致程序无限期挂起。这运行得很好 import dask.dataframe as ddimport dask
from dask.distributed import Clien