💎一站式轻松地调用各大LLM模型接口,支持GPT4、智谱、星火、月之暗面及文生图 广告
# TF 服务:生产中的 TensorFlow 模型 TensorFlow 模型在开发环境中经过训练和验证。一旦发布,它们需要托管在某个地方,提供用工程师和软件工程师使用,以集成到各种应用中。 TensorFlow 为此提供了一个高表现服务器,称为 TensorFlow 服务。 要在生产中提供 TensorFlow 模型,需要在离线训练后保存它们,然后在生产环境中恢复经过训练的模型。 TensorFlow 模型在保存时包含以下文件: * **元图**:元图表示图的协议缓冲区定义。元图保存在具有`.meta`扩展名的文件中。 * **checkpoint** :检查点代表各种变量的值。检查点保存在两个文件中:一个带有`.index`扩展名,另一个带有`.data-00000-of-00001`扩展名。 在本章中,我们将学习各种保存和恢复模型的方法以及如何使用 TF 服务来提供模型。我们将使用 MNIST 示例来简化操作并涵盖以下主题: * 使用`Saver`类在 TensorFlow 中保存和恢复模型 * 保存和恢复 Keras 模型 * TensorFlow 服务 * 安装 TF 服务 * 保存 TF 服务的模型 * 用 TF Serving 服务模型 * TF 在 Docker 容器中提供服务 * TF 服务于 Kubernetes