1. 首页 > 科技资讯

python训练模型给java用,python模型训练

序言

从前面的Tensorflow环境配置到物体检测模型迁移学习,已经完成一个简单的扑克游戏探测器,无论是从照片或者视频都能够在画面里辨别出有扑克牌目标,并标示出扑克牌等级。可是,我想在想要他放到电脑浏览器上很有可能实际应用,那样应该怎么让Tensorflow模型转换成web格式的?下一步将从实践活动的视角详细介绍一下布署方式!

自然环境

Windows10

Anaconda3

TensorFlow.js converter

converter详细介绍

Converter全称TensorFlow.js Converter,他能将TensorFlow GraphDef模型(根据Python API建立的,可以直接解读为Python模型) 转换成Tensorflow.js可获取的模型格式(json格式), 用以用浏览器中对特定信息进行测算。

converter组装

为了保障前边物体检测练习自然环境,这儿我就用conda建立了一个新的Python虚拟环境,Python版本号3.6.8。在使用转换装置的情况下,假如现阶段自然环境并没有Tensorflow,默认设置会安装及TF有关的依赖性,只需进到特定虚拟环境,输入下列命令。

pip install tensorflowjs

converter使用方法

tensorflowjs_converter --input_format=tf_saved_model --output_format=tfjs_graph_model --signature_name=serving_default --saved_model_tags=serve ./saved_model ./web_model

1. 造成文件(产生的web格式模型)

转换器命令实行后生产制造二种文档,分别为model.json (数据流程图和权重值明细)和group1-shard\\*of\\* (二进制权重值文档)

2. 输入的前提条件(命令参数和选择项[带--为选择项])

converter转换命令后边关键带上四个主要参数,分别为输入模型的格式,导出模型的格式,输入模型的路线,导出模型的路线,大量协助信息内容能通过下列命令查询,附页命令分解图。

tensorflowjs_converter --help

2.1. --input_format

要转换的模型的格式,SavedModel 为 tf_saved_model, frozen model 为 tf_frozen_model, session bundle 为 tf_session_bundle, TensorFlow Hub module 为 tf_hub,Keras HDF5 为 keras。

2.2. --output_format

导出模型的格式, 分别为tfjs_graph_model (tensorflow.js图模型,储存后web模型没了再训练水平,适宜SavedModel输入格式转换),tfjs_layers_model(tensorflow.js层模型,具备有限的资源Keras作用,不适宜TensorFlow SavedModels转换)。

2.3. input_path

saved model, session bundle 或 frozen model的一体化的路线,或TensorFlow Hub模块途径。

2.4. output_path

输出文件的保存路径。

2.5. --saved_model_tags

仅对SavedModel转换使用的选择项:输入必须载入的MetaGraphDef相对应tag,好几个tag请使用逗号分隔。默认serve

2.6. --signature_name

对TensorFlow Hub module和SavedModel转换使用的选择项:相匹配要载入的签字,默认default

2.7. --output_node_names

导出节点名称,每一个名称用分号分离出来。

3. 常见的2组命令行

covert from saved_modeltensorflowjs_converter --input_format=tf_saved_model --output_format=tfjs_graph_model --signature_name=serving_default --saved_model_tags=serve ./saved_model ./web_model2. convert from frozen_modeltensorflowjs_converter --input_format=tf_frozen_model --output_node_names='num_detections,detection_boxes,detection_scores,detection_classes' ./frozen_inference_graph.pb ./web_modelk

逐渐实践活动

1. 寻找根据export_inference_graph.py导出来的模型

导出来的模型在工程项目的inference_graph文件夹名称(models\\research\\object_detection)里,frozen_inference_graph.pb是 tf_frozen_model输入格式所需要的,而saved_model文件夹名称便是tf_saved_model格式。在文件列表下新建web_model文件目录,用以存放转换后web格式的模型。

2. 逐渐转换

在目前虚拟环境下,进入inference_graph目录下,输入下列命令,以后就会在web_model生成一个json文件或好几个权重值文档。

tensorflowjs_converter --input_format=tf_saved_model --output_format=tfjs_graph_model --signature_name=serving_default --saved_model_tags=serve ./saved_model ./web_model

3. 电脑浏览器端布署

3.1. 创建一个前端项目,将web_model放进在其中。

3.2.编写代码 (略)

3.3. 运作结论

本文采摘于网络,不代表本站立场,转载联系作者并注明出处:https://www.miyuegong.com/kejizixun/64912.html

联系我们

在线咨询:点击这里给我发消息

微信号:666666