我一直在研究GradCam,我注意到大多数情况下都是在Keras/Tensorflow模型上使用的。但是,我有一个已编译为.tflite格式的tensorflow lite模型。我甚至不确定在编译后是否可以访问我的CNN层,因为我尝试使用keras库加载模型,但它只接受特定的文件类型,而不是确切的.tflite,因为它抛出了错误: from tensorflow.keras.modelsimport load_model
m
我试图用编译一个tflite模型,以使它与Google的Coral键兼容,但是当我运行edgetpu_compiler the_model.tflite时,我会得到一个Model not quantized然后,我想为8位整数格式,但我没有模型的原始.h5文件。
是否有可能将tflite转换成8位格式的模型量化?
我让tensorflow模型在我的笔记本电脑上远程工作,准确率达到70%。我使用以下代码将tensorflow转换为tensorflow lite。3, -1, 1], epochs=5) # train the model
tflite_model= converter.convert()
with open('model.tflite',