我正在训练一个可以接受可变输入大小的模型(它是一个完全卷积的网络),它有一个相当复杂的输入管道。
这就是为什么我必须使用dataset api的from_generator
方法来处理所有的逻辑。
但是,我希望能够在不同大小的图像批次上训练网络。例如,对于第一批,输入图像的大小可以是200x200,但是对于下一批,输入图像的大小可以是300x300。
我想对不同的尺寸范围(例如,从100x100到2000x2000)随机化这个过程。
使用feed_dict这将非常简单:我将在每个训练步骤上准备一批具有特定图像大小的图像。
有没有办法使用(高性能) dataset api来实现这一点,这样我就可以在不做太多工作的情况下利用多线程/预取?
发布于 2018-05-21 20:06:25
最好的办法是从您希望支持的每个不同小批量大小的数据集开始,在每个这样的数据集中进行批处理,然后在构建迭代器之前对它们进行交错。
https://stackoverflow.com/questions/50432396
复制相似问题