tensorflow模型训练完以后,如何进行部署?很容易想到可以通过rest api提供接口的方式,使用flask+nginx+uwsgi很容易实现,为了部署方便,本文使用docker部署训练好的tensorflow模型。)

1、简介

tensorflow model训练完后如何部署:1、使用tensorflow serving模式;2、使用flask 访问模型提供rest api方式

2、部署

代码

-data 存放数据

-vocabs 存放字典文件

-runs 存放模型及tensorboard文件

-data_helper.py 处理数据

-config.py 配置文件

-fast_text.py FastText类

-train.py 训练模型

-predict.py 预测

注意:train.py在训练模型的时候会生成vocabs文件夹,用来存储字典词字典、标签相关对象

项目中的main.py是flask项目的入口

为了使用docker部署,Dockerfile中使用joelogan/keras-tensorflow-flask-uwsgi-nginx-docker基础镜像

直接使用docker build -t fasttext-image . 生成镜像

docker run -d –name fasttext-container -p 8989:80 fasttext-image 生成容器