在log_model调用中生成的runId需要在mlflow模型服务中访问
我正在尝试运行mlflow最小配置来部署定制模型。
采取的第一步:我使用log_model观察值保存模型:工件被适时地保存在mlrun中
第二步:我能够使用mlflow模型服务-m运行:观察:服务器在5000启动
采取的第三步:我能够运行curl调用来预测观察:预测返回
问:如何将在Step1中生成的runId传递给Step2,即如何执行log_model
请告知上述用例的推荐工作流程(是否需要使用跟踪/mlflow服务器)等。
mlflow.pyfunc.log_model(artifact_path="artifacts", python_model=add5_model)
问:如何访问上述log_model返回的runId以在mlflow模型中调用-m运行
发布于 2019-09-06 00:07:37
发布于 2019-12-25 06:27:30
如果我理解您问题背后的意图,那么您有兴趣知道runid以便能够以编程方式提供服务--使用MLFlow v1.5中的模型注册表,您可以注册模型(并具有版本号和生命周期阶段,如Staging
、Production
),并通过新的模型URI方案在没有运行id的情况下为它们提供服务--
models:/<model_name>/<model_version>
models:/<model_name>/<stage>
要训练和注册一个运行,请将registered_model_name=<registered model name>
参数传递给log_model()
调用。
假设您已经将一个版本标记为Production
,那么您可以使用mlflow models serve -m models:/add5/Production
来服务于add5
模型,而不是指定一个运行id。
https://stackoverflow.com/questions/57782670
复制相似问题