Tensorflow保存为可部署的pb格式

1、在tensorflow绘图的情况下,使用tf.saved_model.simple_save()方法保存模型

2、传入session

3、传入保存路径

4、传入输入占位符在inputs={“input_name”:网络输入占位符变量}

5、传入输出变量在outputs={“output_name1”:网络输出变量,“output_name2”:网络输出变量}

即可成功保存为可部署的pb格式

tf.saved_model.simple_save(sess,
"./model",
inputs={"myInput":x},#input_name可自定义,编码客户端时对应即可
outputs={"myOutput":y})

保存好模型后会得到这样格式文件证明你保存没有问题了

variables/
variables.data-*****-of-*****
variables.index
saved_model.pb
print_r('点个赞吧');
var_dump('点个赞吧');
NSLog(@"点个赞吧!")
System.out.println("点个赞吧!");
console.log("点个赞吧!");
print("点个赞吧!");
printf("点个赞吧!\n");
cout<<"点个赞吧!"<

补充知识:将Keras保存的HDF5或TensorFlow保存的PB模型文件转化为InterOpenvino使用的IR(.xml&.bin)文件

本blog依据英特尔官方手册《ModelOptimizerDeveloperGuide》翻译编写,经博主测试可用

intelNCS&OpenVINO

英特尔官方的NCS开发环境“OpenVINO”使用了名为IntermediateRepresentation(IR)的网络模型,其中.xml文件保存了网络的拓扑结构,而.bin文件以二进制方式保存了模型的权重w与偏差b。

首先我们需要配置ModelOptimizer

如果是安装适用于所有框架的ModelOptimizer:

在安装完OpenVINO后,我们找到以下位置:

/deployment_tools/model_optimizer/install_prerequisites

运行以下命令:

对于Linux系统:

install_prerequisites.sh

对于Windows系统:

install_prerequisites.bat

如果只安装适用于特定框架的ModelOptimizer:

在安装完OpenVINO后,我们找到以下位置:

/model_optimizer/install_prerequisites

运行以下命令:

对于Caffe(Linux):

install_prerequisites_caffe.sh

对于Caffe(Windows):

install_prerequisites_caffe.bat

对于TensorFlow(Linux):

install_prerequisites_tf.sh

对于TensorFlow(Windows):

install_prerequisites_tf.bat

对于MXNet(Linux):

install_prerequisites_mxnet.sh

对于MXNet(Windows):

install_prerequisites_mxnet.bat

对于Kaldi(Linux):

install_prerequisites_kaldi.sh

对于Kaldi(Windows):

install_prerequisites_kaldi.bat

对于ONNX(Linux):

install_prerequisites_onnx.sh

对于ONNX(Windows):

install_prerequisites_onnx.bat

如果我们要将TensorFlow保存的PB模型转换为IR……

如果我们要将Keras保存的HDF5模型转换为IR……

博主电脑在英特尔返厂维修中待更新……

以上这篇使用keras和tensorflow保存为可部署的pb格式就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持毛票票。

热门推荐

免责声明:网站资源来源于网络,如有侵权,请及时联系删除。

Copyright © 2024 微客导航网. All Rights Reserved.

蜀ICP备2021004611号-4 网站地图