首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Google Cloud ML engine-本地预测不输出任何内容(对象检测)

Google Cloud ML Engine是Google Cloud提供的一种托管式机器学习平台,用于训练和部署机器学习模型。它提供了一系列工具和服务,帮助开发者在云端高效地构建和部署机器学习模型。

针对您提到的问题,如果在使用Google Cloud ML Engine进行本地预测时没有输出任何内容,可能有以下几个可能的原因和解决方法:

  1. 模型文件路径错误:请确保您在进行本地预测时指定了正确的模型文件路径。在进行本地预测时,需要指定模型文件的路径,例如:
代码语言:txt
复制
gcloud ml-engine local predict --model-dir=模型文件路径 --json-instances=输入数据文件路径

请检查您的命令中是否正确指定了模型文件路径。

  1. 输入数据格式错误:请确保您的输入数据符合模型的要求。对于对象检测任务,通常需要将输入数据转换为特定的格式,例如JSON格式。请检查您的输入数据是否符合模型的要求,并确保正确指定了输入数据文件路径。
  2. 模型问题:如果以上两个方面都没有问题,那么可能是模型本身存在问题。您可以尝试使用其他数据进行预测,或者检查模型的训练过程是否存在问题。您可以参考Google Cloud ML Engine的文档和示例代码,以了解如何正确训练和部署模型。
页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

  • 《Scikit-Learn、Keras与TensorFlow机器学习实用指南(第二版)》第19章 规模化训练和部署TensorFlow模型

    有了能做出惊人预测的模型之后,要做什么呢?当然是部署生产了。这只要用模型运行一批数据就成,可能需要写一个脚本让模型每夜都跑着。但是,现实通常会更复杂。系统基础组件都可能需要这个模型用于实时数据,这种情况需要将模型包装成网络服务:这样的话,任何组件都可以通过REST API询问模型。随着时间的推移,你需要用新数据重新训练模型,更新生产版本。必须处理好模型版本,平稳地过渡到新版本,碰到问题的话需要回滚,也许要并行运行多个版本做AB测试。如果产品很成功,你的服务可能每秒会有大量查询,系统必须提升负载能力。提升负载能力的方法之一,是使用TF Serving,通过自己的硬件或通过云服务,比如Google Cloud API平台。TF Serving能高效服务化模型,优雅处理模型过渡,等等。如果使用云平台,还能获得其它功能,比如强大的监督工具。

    02

    Kafka +深度学习+ MQTT搭建可扩展的物联网平台【附源码】

    物联网+大数据+机器学习将会是以后的趋势,这里介绍一篇这方面的文章包含源码。 混合机器学习基础架构构建了一个场景,利用Apache Kafka作为可扩展的中枢神经系统。 公共云用于极大规模地训练分析模型(例如,通过Google ML Engine在Google Cloud Platform(GCP)上使用TensorFlow和TPU,预测(即模型推断)在本地Kafka基础设施的执行( 例如,利用Kafka Streams或KSQL进行流分析)。 本文重点介绍内部部署。 创建了一个带有KSQL UDF的Github项目,用于传感器分析。 它利用KSQL的新API功能,使用Java轻松构建UDF / UDAF函数,对传入事件进行连续流处理。 使用案例:Connected Cars - 使用深度学习的实时流分析 从连接设备(本例中的汽车传感器)连续处理数百万个事件:

    05
    领券