我有Coral AI usb TPU,我成功地运行了入门示例,部署了已经编译/训练过的示例模型(图像分类),并在TPU上运行了一个鹦鹉图像推理:--input test_data/parrot.jpg
但是,我想在计算机CPU (例如,我的笔记本电脑或Raspberry Pi )中运行相同模型的推理</em
由于我正在尝试导出模型以在GPU/CPU上运行预测,因此TPUEstimator的use_tpu参数被设置为False。当我尝试保存模型时,抛出了以下错误:(AssignVariableOp) is notsupported on the TPU for inference.由于我计划通过GPU/CPU为模型提供服务,因此Op应该不是问题
为了将虚拟模型从tf部署到edgetpu板上,我已经制作了一个模型,所有的操作都通过并映射到edgetpu。然而,当我使用tflite解释器运行推理时,它表明 File "run_model.py", line 6, in <module这是由edgetpu_compilter -s选项显示的简单的加法模型: