教程帖,使用TensorFlow服务和Flask部署Keras模型!
在本教程中,我们将创建一个TensorFlow服务器来部署我们在Keras内置的InceptionV3图像分类卷积神经网络(CNN)。 然后,我们将创建一个简单的Flask服务器,该服务器将接受POST请求并执行Tensorflow服务器所需的一些图像预处理,并返回JSON响应。
你可以使用以下命令升级到tensorflow-model-server的较新版本:
执行上面的脚本后,你应该得到以下输出:
现在我们以Keras格式保存了我们的InceptionV3 CNN(inception.h5)。我们希望以TensorFlow服务器可以处理的格式导出我们的模型。我们通过执行export_saved_model.py脚本来完成此操作。
输出:
假设我们将来想要更新我们的模型(可能是因为我们收集了更多的训练数据并在更新的数据集上训练了模型),我们可以这样做:
输出:
多个TensorFlow服务服务器隐藏在Flask服务器后面
转到保存app.py文件的目录,然后使用以下命令启动Flask服务器:
请记住更改auto_cmd.py第10行的路径,使其指向app.py的目录。你可能还需要更改第6行,以使其指向虚拟环境的bin。然后,你可以通过在终端中执行以下命令从任何目录执行上述脚本:
测试我们的Flask服务器和TensorFlow服务器
输出:
领取专属 10元无门槛券
私享最新 技术干货