首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

每次保存时,Tensorflow SavedModel文件大小都会增加

TensorFlow SavedModel是一种用于保存和加载TensorFlow模型的格式。每次保存时,SavedModel文件的大小可能会增加的原因有以下几点:

  1. 模型参数的变化:当模型的参数发生变化时,SavedModel文件的大小会增加。模型参数是模型训练过程中学习到的权重和偏置等参数,它们决定了模型的性能和预测能力。如果模型的参数发生变化,SavedModel文件需要保存新的参数值,从而导致文件大小增加。
  2. 模型结构的变化:当模型的结构发生变化时,SavedModel文件的大小也会增加。模型结构包括网络层的数量、每层的节点数、激活函数等信息。如果模型的结构发生变化,SavedModel文件需要保存新的结构信息,从而导致文件大小增加。
  3. 优化和压缩算法:TensorFlow SavedModel文件可以使用不同的优化和压缩算法来减小文件大小。每次保存时,可以选择不同的算法进行优化和压缩,从而影响文件大小。一些常见的优化和压缩算法包括权重剪枝、量化和压缩算法等。
  4. 数据的增加:如果每次保存时输入的数据量增加,SavedModel文件的大小也会相应增加。输入数据是用于训练和测试模型的数据集,它们在SavedModel文件中被保存为模型的一部分。如果输入数据量增加,SavedModel文件需要保存更多的数据,从而导致文件大小增加。

总结起来,每次保存TensorFlow SavedModel时,文件大小的增加可能是由于模型参数和结构的变化、优化和压缩算法的选择以及输入数据量的增加等因素导致的。为了减小SavedModel文件的大小,可以考虑使用合适的优化和压缩算法,并且定期清理不再需要的模型参数和结构信息。

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

Tensorflow2系类知识-7:部署以及并行计算

MirroredStrategy 多机 MultiWorkerMirroredStrategy 部署Docker 环境 部署 模型导出 SaveModel:与前面介绍的 Checkpoint 不同,SavedModel...包含了一个 TensorFlow 程序的完整信息: 不仅包含参数的权值,还包含计算的流程(即计算图) 。...当模型导出为 SavedModel 文件,无需建立模型的源代码即可再次运行模型,这使得 SavedModel 尤其适用于模型的分享和部署。...后文的 TensorFlow Serving(服务器端部署模型)、TensorFlow Lite(移动端部署模型)以及 TensorFlow.js 都会用到这一格式。...tf.saved_model.save(model, "保存的目标文件夹名称") model = tf.saved_model.load("保存的目标文件夹名称") 分布式计算 单机 M

50510

当微信小程序遇上TensorFlow:接收base64编码图像数据

这是当微信小程序遇上TensorFlow系列文章的第四篇文章,阅读本文,你将了解到: 如何查看tensorflow SavedModel的签名 如何加载tensorflow SavedModel 如何修改现有的...TensorFlow模型,增加输入层 如果你想要了解更多关于本项目,可以参考这个系列的前三篇文章: 当微信小程序遇上TensorFlow:Server端实现 当微信小程序遇上TensorFlow:Server...端实现补充 当微信小程序遇上TensorFlow:小程序实现 关于Tensorflow SavedModel格式模型的处理,可以参考前面的文章: Tensorflow SavedModel模型的保存与加载...难点在于虽然模型是编写retrain脚本重新训练的,但这段代码不是那么好懂,想要在retrain增加输入层也是尝试失败。...最后从Tensorflow模型转Tensorflow Lite模型的freezing graph得到灵感,将图中的变量固化为常量,才解决了合并模型变量加载的问题。

1K50
  • 使用keras和tensorflow保存为可部署的pb格式

    Keras保存为可部署的pb格式 加载已训练好的.h5格式的keras模型 传入如下定义好的export_savedmodel()方法内即可成功保存 import keras import os import...tensorflow as tf from tensorflow.python.util import compat from keras import backend as K def export_savedmodel...Tensorflow保存为可部署的pb格式 1、在tensorflow绘图的情况下,使用tf.saved_model.simple_save()方法保存模型 2、传入session 3、传入保存路径 4.../model", inputs={"myInput": x}, # input_name可自定义,编码客户端对应即可 outputs={"myOutput": y}) 保存好模型后会得到这样格式文件证明你保存没有问题了...保存的PB模型转换为IR…… 如果我们要将Keras保存的HDF5模型转换为IR…… 博主电脑在英特尔返厂维修中 待更新…… 以上这篇使用keras和tensorflow保存为可部署的pb格式就是小编分享给大家的全部内容了

    2.6K40

    如何查看Tensorflow SavedModel格式模型的信息

    在《Tensorflow SavedModel模型的保存与加载》一文中,我们谈到SavedModel格式的优点是与语言无关、容易部署和加载。...我们以《Tensorflow SavedModel模型的保存与加载》里的模型代码为例,从语句: signature = predict_signature_def(inputs={'myInput':...模所在的位置,我们就可以显示SavedModel的模型信息: python $TENSORFLOW_DIR/tensorflow/python/tools/saved_model_cli.py show...问题是,TensorBoard需要模型训练的log,如果这个SavedModel模型是别人训练好的呢?...小结 按照前面两种方法,我们可以对Tensorflow SavedModel格式的模型有比较全面的了解,即使模型训练者并没有给出文档。有了这些模型信息,相信你写出使用模型进行推断更加容易。

    2.6K10

    【技术分享】深入了解tensorflow模型存储格式

    导语 做模型的同学基本都会使用tensorflow,不知道大家是否会像我一样对tensorflow的模型存储感到疑惑:各种模型保存的方法、保存出的模型文件名称和结构还不一样、加载模型的时候有的需要重新定义一遍计算图而有的不需要...而且上面的save方法可以传入一个叫global_step的参数,每次save的时候都会生成不同的文件,checkpoint会指向最后保存的文件。...还支持其他函数来进行模型保存,如采用Estimator的export_savedmodel方法,但保存下来的模型格式总是包含在上面两种格式之内。...去看tensorflow的提交历史也能发现SavedModel和signature_def是在同一次提交中加入到tensorflow项目中的。...当其作为输入出现在其他节点input中,如果input中只有名称,那默认就是list中的第一个元素。

    3K30

    TensorFlow 2.0 的新增功能:第三、四部分

    这意味着,如果实现正确,工程师可能不必在每次数据科学家更新模型都重新构建部署管道。 这可以通过利用抽象的力量来实现。 这里的一个关键抽象是模型存储和加载的格式。...使用 TF 2.0 的 Python API ,现在可以导出某些本机… 了解核心数据流模型 在我们研究SavedModel格式的细微差别之前,重要的是要首先了解 TensorFlow 模型的真正含义。...保存TensorFlow 计算图进行交互,而无需编写任何代码。.../blob/master/tensorflow_serving/apis/prediction_service.proto 请记住,每次调用docker run,主机上都会启动一个新的 Docker...以下示例向我们展示了如何在自定义训练循环中使用指标: 创建度量标准对象,该度量标准对象在每次调用时都会累积度量标准数据: loss_metric = tf.keras.metrics.Mean(name

    2.4K20

    Tensorflow SavedModel模型的保存与加载

    这两天搜索了不少关于Tensorflow模型保存与加载的资料,发现很多资料都是关于checkpoints模型格式的,而最新的SavedModel模型格式则资料较少,为此总结一下TensorFlow如何保存...当然这也不是说checkpoints模型格式做不到,只是在跨语言比较麻烦。另外如果使用Tensorflow Serving server来部署模型,必须选择SavedModel格式。...要保存该模型,我们还需要对代码作一点小小的改动。 添加命名 在输入和输出Ops中添加名称,这样我们在加载可以方便的按名称引用操作。...predict: %d, actual: %d" % (np.argmax(scores, 1), np.argmax(batch_ys, 1))) 需要注意,load函数中第二个参数是tag,需要和保存模型的参数一致...小结 将过程捋顺了之后,你会发觉保存和加载SavedModel其实很简单。

    5.4K30

    SavedModel格式TensorFlow模型转为frozen graph

    本文介绍基于Python的tensorflow库,将tensorflow与keras训练好的SavedModel格式神经网络模型转换为frozen graph格式,从而可以用OpenCV库在C++等其他语言中将其打开的方法...但是,由于训练模型使用的是2.X版本的tensorflow库(且用的是keras的框架),所以训练模型后保存的是SavedModel格式的神经网络模型文件——就是包含3个.pb格式文件,以及assets...但是,还有一个问题——OpenCV库自身目前仅支持读取tensorflow库frozen graph格式的神经网络模型,不支持读取SavedModel格式的模型。...随后,加载我们待转换的、SavedModel格式的tensorflow神经网络模型。...之所以会这样,应该是因为我当初训练这个神经网络模型,用的是tensorflow中keras模块的Model,所以导致加载模型,就不能用传统的加载SavedModel格式模型的方法了(可能是这样)。

    13810

    深度学习在美团配送ETA预估中的探索与实践

    为了简化工程开发中的难度,在模型训练,考虑将所有的预处理文件写入TF计算图之中,每次在线预测只要输入最原始的特征,不经过工程预处理,直接可得到结果: 对于ID类特征,需要进行低频过滤,然后制作成词表,...ETA使用的DeepFM模型用TensorFlow训练,生成SavedModel格式的模型,需要模型管理平台支持Tensorflow SavedModel格式。...实现方案 线上服务加载TensorFlow SavedModel模型有多种实现方案: 自行搭建TensorFlow Serving CPU服务,通过gRPC API或RESTful API提供服务,该方案实现比较简单...在模型管理平台中通过JNI调用TensorFlow提供的Java API TensorFlow Java API,完成模型管理平台对SavedModel格式的支持。...最终采用TensorFlow Java API加载SavedModel在CPU上做预测,测试batch=1预测时间在1ms以内,选择方案3作为实现方案。

    1K21

    如何用TF Serving部署TensorFlow模型

    为TF Serving导出模型 将TensorFlow构建的模型用作服务,首先需要确保导出为正确的格式,可以采用TensorFlow提供的SavedModel类。...SavedModelTensorFlow模型的一种通用序列化格式。如果你熟悉TF,你会使用 TensorFlow Saver to persist保存模型变量。...TensorFlow Saver提供模型checkpoint磁盘文件的保存/恢复。事实上SavedModel封装了TensorFlow Saver,对于模型服务是一种标准的导出方法。...image.png 在这些场景下SavedModel允许用户以不同的配置保存计算图。本例中文件中会有三个不同的计算图,分别标签为“training”, “inference”和“mobile”。...此后调用 add_meta_graph_and_variables() 函数,构建SavedModel的protobuf对象。执行save() 方法,将模型的快照保存到包含模型变量和资产的磁盘上。

    3K20

    深度学习在美团配送ETA预估中的探索与实践

    从下图也可以看出来,随着RF标准差的增加,模型的置信度和准时率均在下降。 模型长尾因子 在上述拆解下,采用补规则来解决长尾预估偏短的问题:长尾规则补为 组合。...为了简化工程开发中的难度,在模型训练,考虑将所有的预处理文件写入TF计算图之中,每次在线预测只要输入最原始的特征,不经过工程预处理,直接可得到结果: 对于ID类特征,需要进行低频过滤,然后制作成词表,...ETA使用的DeepFM模型用TensorFlow训练,生成SavedModel格式的模型,需要模型管理平台支持Tensorflow SavedModel格式。...在模型管理平台中通过JNI调用TensorFlow提供的Java API TensorFlow Java API,完成模型管理平台对SavedModel格式的支持。...最终采用TensorFlow Java API加载SavedModel在CPU上做预测,测试batch=1预测时间在1ms以内,选择方案3作为实现方案。

    64710

    用 BERT 精简版 DistilBERT+TF.js,提升问答系统 2 倍性能

    但是我们的最终目标是尽可能在更多环境中使用此模型(此文中为 Node.js + TensorFlow.js),而 TensorFlow SavedModel 格式非常适合此目标:其本身是一种“序列化”格式...然后,我们便可将模型保存SavedModel 格式: tf.saved_model.save(distilbert, 'distilbert_cased_savedmodel', signatures...现在,我们可以将 TensorFlow.js 与 SavedModel 配合使用了!...函数,该函数负责在返回模型推断结果自动清除中间张量,例如 inputTensor 和 maskTensor。...Tokenizer 构建 Node.js 库,我们的目标是使 API 尽可能简单。正如上述示例所示,在 TensorFlow.js 帮助下,拥有 SavedModel 可以让模型推理变得非常简单。

    1.2K30

    《Scikit-Learn、Keras与TensorFlow机器学习实用指南(第二版)》第19章 规模化训练和部署TensorFlow模型

    警告:因为SavedModel保存了计算图,所以只支持基于TensorFlow运算的模型,不支持tf.py_function()运算(它包装了任意Python代码)。...SavedModel表示了模型版本。它被保存为一个包含saved_model.pb文件的目录,它定义了计算图(表示为序列化协议缓存),变量子目录包含了变量值。...保存tf.keras模型,默认服务函数对应模型的call()函数。 saved_model_cli也可以用来做预测(用于测试,不是生产)。...默认SavedModel最大是250MB,可以请求更大的值。 ?...降低每次预测的计算量,减少延迟、电量消耗和发热。 针对设备具体限制调整模型。 要降低模型大小,TFLite的模型转换器可以将SavedModel转换为基于FlatBuffers的轻量格式。

    6.7K20

    【美团技术解析】深度学习在美团配送ETA预估中的探索与实践

    从下图也可以看出来,随着RF标准差的增加,模型的置信度和准时率均在下降。 模型长尾因子 在上述拆解下,采用补规则来解决长尾预估偏短的问题:长尾规则补为 组合。...为了简化工程开发中的难度,在模型训练,考虑将所有的预处理文件写入TF计算图之中,每次在线预测只要输入最原始的特征,不经过工程预处理,直接可得到结果: 对于ID类特征,需要进行低频过滤,然后制作成词表,...ETA使用的DeepFM模型用TensorFlow训练,生成SavedModel格式的模型,需要模型管理平台支持Tensorflow SavedModel格式。...实现方案 线上服务加载TensorFlow SavedModel模型有多种实现方案: 自行搭建TensorFlow Serving CPU服务,通过gRPC API或RESTful API提供服务,该方案实现比较简单...最终采用TensorFlow Java API加载SavedModel在CPU上做预测,测试batch=1预测时间在1ms以内,选择方案3作为实现方案。

    1.1K20
    领券