在Keras中進行模型部署通常有兩種方式:使用Keras自帶的方法來保存和加載模型,或者將模型轉換為TensorFlow的SavedModel格式進行部署。
# 保存模型
model.save("my_model.h5")
# 加載模型
from keras.models import load_model
loaded_model = load_model("my_model.h5")
import tensorflow as tf
# 轉換為SavedModel格式
tf.saved_model.save(model, "saved_model")
# 加載SavedModel格式的模型
loaded_model = tf.keras.models.load_model("saved_model")
無論使用哪種方式,部署模型時還需要考慮輸入數據的預處理和模型推理的后處理。通常可以使用Flask等框架來搭建一個簡單的API服務器,接收請求并調用模型進行推理。另外,也可以考慮使用TensorFlow Serving等服務來部署模型。