TensorFlow Serving 02 serving_basic

本教程演示了如何使用TensorFlow服务组件导出已训练的模型,并通过tensorflow_model_server进行服务。教程包括Python脚本用于训练和导出模型,以及C++脚本用于运行gRPC服务。
部署运行你感兴趣的模型镜像

服务于TensorFlow模型

本教程将向您展示如何使用TensorFlow服务组件导出已训练的TensorFlow模型,并使用标准tensorflow_model_server进行服务。 如果您已经熟悉TensorFlow服务,并且想了解更多关于服务器内部部件的工作原理,请参阅TensorFlow服务高级教程。

本教程使用TensorFlow教程中介绍的简单的Softmax回归模型,用于手写图像(MNIST数据)分类。 如果您不知道TensorFlow或MNIST是什么,请参阅MNIST for ML初学者教程。

本教程的代码由两部分组成:
* 一个Python文件,mnist_saved_model.py,用于训练和导出模型。
* 一个C ++文件main.cc,它是标准的TensorFlow模型服务器,用于发现新的导出模型并运行gRPC服务来提供服务。

开始之前,请完成先决条件。

训练和导出TensorFlow模型

您可以在mnist_saved_model.py中看到,训练与MNIST For ML初学者教程中的相同。 TensorFlow图在TensorFlow会话中启动,输入张量(图像)为x,输出张量(Softmax分数)为y。

然后我们使用TensorFlow的SavedModelBuilder模块来导出模型。 SavedModelBuilder将经过训练的模型的“快照”保存到可靠的存储器中,以便稍后加载进行推理。

有关SavedModel格式的详细信息,请参阅SavedModel README.md上的文档。

从mnist_saved_model.py,以下是一个简短的代码片段,用于说明将模型保存到磁盘的一般过程。

from tensorflow.python.saved_model import builder as saved_model_builder
...
export_path_base = sys.argv[-1]
export_path = os.path.join(
      compat.as_bytes(export_path_base),
      compat.as_bytes(str(FLAGS.model_version)))
print 'Exporting trained model to', export_path
builder = saved_model_builder.SavedModelBuilder(export_path)
builder.add_meta_graph_and_variables(
      sess, [tag_constants.SERVING],
      signature_def_map={
           'predict_images':
               prediction_signature,
           signature_constants.DEFAULT_SERVING_SIGNATURE_DEF_KEY:
               classification_signature,
      },
      legacy_init_op=legacy_init_op)
builder.save()

您可能感兴趣的与本文相关的镜像

TensorFlow-v2.15

TensorFlow-v2.15

TensorFlow

TensorFlow 是由Google Brain 团队开发的开源机器学习框架,广泛应用于深度学习研究和生产环境。 它提供了一个灵活的平台,用于构建和训练各种机器学习模型

### TensorFlow Serving 中与 `@tensorflow_pypi` 相关的依赖问题解决方案 在使用 TensorFlow Serving 时,如果遇到 `no such package '@tensorflow_pypi' repository not defined` 的错误,通常是因为 Bazel 构建系统未能正确解析 `@tensorflow_pypi` 这个外部依赖项。这种问题可能由以下原因导致:未正确初始化外部依赖、Bazel 版本不兼容或工作目录配置错误[^1]。 以下是解决该问题的详细方法: #### 1. 确保正确的 Bazel 版本 TensorFlow Serving 的构建需要特定版本的 Bazel 支持。如果使用的 Bazel 版本过旧或不匹配,可能会导致依赖项无法正确解析。建议参考官方文档中指定的 Bazel 版本要求,并确保安装了合适的版本。可以通过以下命令检查和安装 Bazel: ```bash bazel --version ``` 若版本不符合要求,可从 [Bazel 官方网站](https://bazel.build/) 下载并安装最新版本。 #### 2. 初始化外部依赖 `@tensorflow_pypi` 是一个通过 `WORKSPACE` 文件定义的外部依赖项。如果该依赖未正确初始化,可能会导致上述错误。为了解决此问题,可以尝试重新运行以下命令以确保所有外部依赖项被正确加载: ```bash bazel fetch //tensorflow_serving/... ``` 此命令会下载并初始化所有必要的外部依赖项,包括 `@tensorflow_pypi`。 #### 3. 检查 `WORKSPACE` 文件 `@tensorflow_pypi` 的定义通常位于项目的 `WORKSPACE` 文件中。如果该文件缺失或损坏,可能会导致依赖项未定义的问题。确保 `WORKSPACE` 文件包含类似以下的内容: ```python load("@bazel_tools//tools/build_defs/repo:http.bzl", "http_archive") http_archive( name = "org_tensorflow", urls = ["https://github.com/tensorflow/tensorflow/archive/v2.10.0.zip"], # 替换为适当的版本 strip_prefix = "tensorflow-2.10.0", ) # 加载 tensorflow_pypi 依赖 load("@org_tensorflow//tensorflow/tools/pip_package:build_defs.bzl", "pip_deps") pip_deps() ``` 如果 `WORKSPACE` 文件中缺少这些内容,可以手动添加或参考官方模板进行修复。 #### 4. 清理并重新构建项目 有时缓存问题可能导致依赖项未正确加载。可以尝试清理 Bazel 缓存并重新构建项目: ```bash bazel clean --expunge bazel build //tensorflow_serving/... ``` #### 5. 检查网络连接 `@tensorflow_pypi` 的加载可能需要访问互联网以下载相关资源。如果网络连接受限或代理设置不当,可能会导致依赖项无法正确解析。确保网络环境正常,并根据需要配置 Bazel 的代理设置。 --- ### 示例代码:验证依赖是否正确加载 以下是一个简单的测试脚本,用于验证 `tensorflow_model_server` 是否能够成功构建: ```bash # 构建 tensorflow_model_server bazel build //tensorflow_serving/model_servers:tensorflow_model_server # 运行构建结果 ./bazel-bin/tensorflow_serving/model_servers/tensorflow_model_server --version ``` 如果构建成功且版本信息输出正常,则说明依赖问题已解决。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值