我正在使用TFrecords和keras拟合神经网络模型。我有一个相对较大的数据集,它是非常异构的。在模型的训练过程中,我已经使用了shuffle my dataset,如文档示例: (但无法将其全部混洗,因为它会占用太多内存),我还将我的数据集分成多个小碎片,每个碎片大小相等。然而,我有理由认为这种“近似”的混洗是不够的,我还认为馈送已经混洗的数据将提高
train_image_paths = [str(path) for path in list(train_path.glob('*/*.jpeg'))]上面是你可以看到的示例代码。train_dataset = tf.data.Dataset.from_tensor_slices((x_train, y_train)).batch(64).shuffle(10000)