91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

如何使用ONNX部署深度學習和傳統機器學習模型

發布時間:2022-01-05 18:06:18 來源:億速云 閱讀:281 作者:柒染 欄目:大數據

如何使用ONNX部署深度學習和傳統機器學習模型,針對這個問題,這篇文章詳細介紹了相對應的分析和解答,希望可以幫助更多想解決這個問題的小伙伴找到更簡單易行的方法。

ONNX簡介

開放神經網絡交換ONNX(Open Neural Network Exchange)是一套表示深度神經網絡模型的開放格式,由微軟和Facebook于2017推出,然后迅速得到了各大廠商和框架的支持。通過短短幾年的發展,已經成為表示深度學習模型的實際標準,并且通過ONNX-ML,可以支持傳統非神經網絡機器學習模型,大有一統整個AI模型交換標準。

ONNX定義了一組與環境和平臺無關的標準格式,為AI模型的互操作性提供了基礎,使AI模型可以在不同框架和環境下交互使用。硬件和軟件廠商可以基于ONNX標準優化模型性能,讓所有兼容ONNX標準的框架受益。目前,ONNX主要關注在模型預測方面(inferring),使用不同框架訓練的模型,轉化為ONNX格式后,可以很容易的部署在兼容ONNX的運行環境中。

ONNX標準介紹

ONNX規范由以下幾個部分組成:

  • 一個可擴展的計算圖模型:定義了通用的計算圖中間表示法(Intermediate Representation)。

  • 內置操作符集:ai.onnxai.onnx.mlai.onnx是默認的操作符集,主要針對神經網絡模型,ai.onnx.ml主要適用于傳統非神經網絡機器學習模型。

  • 標準數據類型。包括張量(tensors)、序列(sequences)和映射(maps)。

目前,ONNX規范有兩個官方變體,主要區別在與支持的類型和默認的操作符集。ONNX神經網絡變體只使用張量作為輸入和輸出;而作為支持傳統機器學習模型的ONNX-ML,還可以識別序列和映射,ONNX-ML為支持非神經網絡算法擴展了ONNX操作符集。

ONNX使用protobuf序列化AI模型,頂層是一個模型(Model)結構,主要由關聯的元數據和一個圖(Graph)組成;圖由元數據、模型參數、輸入輸出、和計算節點(Node)序列組成,這些節點構成了一個計算無環圖,每一個計算節點代表了一次操作符的調用,主要由節點名稱、操作符、輸入列表、輸出列表和屬性列表組成,屬性列表主要記錄了一些運行時常量,比如模型訓練時生成的系數值。

為了更直觀的了解ONNX格式內容,下面,我們訓練一個簡單的LogisticRegression模型,然后導出ONNX。仍然使用常用的分類數據集iris

from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LogisticRegression

iris = load_iris()
X, y = iris.data, iris.target
X_train, X_test, y_train, y_test = train_test_split(X, y)

clr = LogisticRegression()
clr.fit(X_train, y_train)

使用skl2onnx把Scikit-learn模型序列化為ONNX格式:

from skl2onnx import convert_sklearn
from skl2onnx.common.data_types import FloatTensorType

initial_type = [('float_input', FloatTensorType([1, 4]))]
onx = convert_sklearn(clr, initial_types=initial_type)
with open("logreg_iris.onnx", "wb") as f:
    f.write(onx.SerializeToString())

使用ONNX Python API查看和驗證模型:

import onnx

model = onnx.load('logreg_iris.onnx')
print(model)

輸出模型信息如下:

ir_version: 5
producer_name: "skl2onnx"
producer_version: "1.5.1"
domain: "ai.onnx"
model_version: 0
doc_string: ""
graph {
  node {
    input: "float_input"
    output: "label"
    output: "probability_tensor"
    name: "LinearClassifier"
    op_type: "LinearClassifier"
    attribute {
      name: "classlabels_ints"
      ints: 0
      ints: 1
      ints: 2
      type: INTS
    }
    attribute {
      name: "coefficients"
      floats: 0.375753253698349
      floats: 1.3907358646392822
      floats: -2.127762794494629
      floats: -0.9207873344421387
      floats: 0.47902926802635193
      floats: -1.5524250268936157
      floats: 0.46959221363067627
      floats: -1.2708674669265747
      floats: -1.5656673908233643
      floats: -1.256540060043335
      floats: 2.18996000289917
      floats: 2.2694246768951416
      type: FLOATS
    }
    attribute {
      name: "intercepts"
      floats: 0.24828049540519714
      floats: 0.8415762782096863
      floats: -1.0461325645446777
      type: FLOATS
    }
    attribute {
      name: "multi_class"
      i: 1
      type: INT
    }
    attribute {
      name: "post_transform"
      s: "LOGISTIC"
      type: STRING
    }
    domain: "ai.onnx.ml"
  }
  node {
    input: "probability_tensor"
    output: "probabilities"
    name: "Normalizer"
    op_type: "Normalizer"
    attribute {
      name: "norm"
      s: "L1"
      type: STRING
    }
    domain: "ai.onnx.ml"
  }
  node {
    input: "label"
    output: "output_label"
    name: "Cast"
    op_type: "Cast"
    attribute {
      name: "to"
      i: 7
      type: INT
    }
    domain: ""
  }
  node {
    input: "probabilities"
    output: "output_probability"
    name: "ZipMap"
    op_type: "ZipMap"
    attribute {
      name: "classlabels_int64s"
      ints: 0
      ints: 1
      ints: 2
      type: INTS
    }
    domain: "ai.onnx.ml"
  }
  name: "deedadd605a34d41ac95746c4feeec1f"
  input {
    name: "float_input"
    type {
      tensor_type {
        elem_type: 1
        shape {
          dim {
            dim_value: 1
          }
          dim {
            dim_value: 4
          }
        }
      }
    }
  }
  output {
    name: "output_label"
    type {
      tensor_type {
        elem_type: 7
        shape {
          dim {
            dim_value: 1
          }
        }
      }
    }
  }
  output {
    name: "output_probability"
    type {
      sequence_type {
        elem_type {
          map_type {
            key_type: 7
            value_type {
              tensor_type {
                elem_type: 1
              }
            }
          }
        }
      }
    }
  }
}
opset_import {
  domain: ""
  version: 9
}
opset_import {
  domain: "ai.onnx.ml"
  version: 1
}

我們可以看到頂層字段記錄了一些模型的元數據信息,代表的含義都比較直觀,字段詳細解釋可以參考文檔Open Neural Network Exchange - ONNX。opset_import記錄了該模型引入的操作符集。空的domain操作符集表示引入ONNX默認的操作符集ai.onnxai.onnx.ml代表支持傳統非神經網絡模型操作符集,比如以上模型中的LinearClassifierNormalizerZipMap。圖(graph)中定義了以下元素:

  • 四個計算節點(node)。

  • 一個輸入變量float_input,類型為1*4的張量,elem_type是一個DataType枚舉型變量,1代表FLOAT。

  • 兩個輸出變量output_labeloutput_probabilityoutput_label類型為維數為1的INT64(elem_type: 7)張量,代表預測目標分類; output_probability類型是映射的序列,映射的鍵是INT64(key_type: 7),值為維數為1的FLOAT,代表每一個目標分類的概率。

可以使用netron,圖像化顯示ONNX模型的計算拓撲圖,以上模型如下圖:

如何使用ONNX部署深度學習和傳統機器學習模型

下面我們使用ONNX Runtime Python API預測該ONNX模型,當前僅使用了測試數據集中的第一條數據:

import onnxruntime as rt
import numpy
sess = rt.InferenceSession("logreg_iris.onnx")
input_name = sess.get_inputs()[0].name
label_name = sess.get_outputs()[0].name
probability_name = sess.get_outputs()[1].name
pred_onx = sess.run([label_name, probability_name], {
   input_name: X_test[0].astype(numpy.float32)})

# print info
print('input_name: ' + input_name)
print('label_name: ' + label_name)
print('probability_name: ' + probability_name)
print(X_test[0])
print(pred_onx)

打印的模型信息和預測值如下:

input_name: float_input
label_name: output_label
probability_name: output_probability
[5.5 2.6 4.4 1.2]
[array([1], dtype=int64), [{0: 0.012208569794893265, 1: 0.5704444646835327, 2: 0.4173469841480255}]]

完整的程序,可以參考以下Notebook:onnx.ipynb

ONNX與PMML

ONNX和PMML都是與平臺和環境無關的模型表示標準,可以讓模型部署脫離模型訓練環境,簡化了部署流程,加速模型快速上線到生產環境中。這兩個標準都得到了各大廠商和框架的支持,具有廣泛的應用。

  • PMML是一個比較成熟的標準,在ONNX誕生之前,可以說是模型表示的實際標準,對傳統數據挖掘模型有豐富的支持,最新 PMML4.4 可以支持多達19種模型類型。但是,目前PMML缺乏對深度學習模型的支持,下一版本5.0有可能會添加對深度神經網絡的支持,但是因為PMML是基于老式的XML格式,使用文本格式來存儲深度神經網絡模型結構和參數會帶來模型大小和性能的問題,目前該問題還沒有一個完美的解決方案。關于PMML的詳細介紹,可以參考文章《使用PMML部署機器學習模型》。

  • ONNX作為一個新的標準,剛開始主要提供對深度神經網絡模型的支持,解決模型在不同框架下互操作和交換的問題。目前通過ONNX-ML,ONNX已經可以支持傳統非神經網絡機器學習模型,但是目前模型類型還不夠豐富。ONNX使用protobuf二進制格式來序列化模型,可以提供更好的傳輸性能。

ONNX和PMML這兩種格式都有成熟的開源類庫和框架支持,PMML有JPMML,PMML4S,PyPMML等。ONNX有微軟的ONNX runtime,NVIDIA TensorRT等。用戶可以根據自己的實際情況選擇合適的跨平臺格式來部署AI模型。

DaaS簡介

DaaS(Deployment-as-a-Service)是AutoDeployAI公司推出的AI模型自動部署系統,支持多種模型類型的上線部署,以下我們介紹如何在DaaS中使用ONNX格式來部署傳統機器學習模型和深度神經網絡學習模型,DaaS使用ONNX Runtime作為ONNX模型的執行引擎,ONNX Runtime是微軟開源的ONNX預測類庫,提供高性能預測服務功能。首先,登陸DaaS系統后,創建一個新的工程ONNX,下面的操作都在該工程下進行。關于DaaS的詳細信息,可以參考文章《自動部署PMML模型生成REST API》。

使用ONNX部署傳統機器學習模型

  1. 導入模型。選擇上面訓練的Logistic Regression模型logreg_iris.onnx

    如何使用ONNX部署深度學習和傳統機器學習模型

    導入成功后,頁面轉到模型主頁面。可以看到模型有一個輸入字段float_input,類型是tensor(float),維數(1,4)。兩個輸出字段:output_labeloutput_probability

    如何使用ONNX部署深度學習和傳統機器學習模型

  2. 測試模型。點擊標簽頁測試,輸入預測數據[[5.5, 2.6, 4.4, 1.2]],然后點擊提交命令,輸出頁面顯示預測測試結果:

    如何使用ONNX部署深度學習和傳統機器學習模型

  3. 創建默認實時預測Web服務。點擊標簽頁部署,然后點擊添加服務命令,輸入服務名稱,其他使用默認值:

    如何使用ONNX部署深度學習和傳統機器學習模型

  4. 測試Web服務。服務創建成功后,頁面轉到服務部署主頁,當服務副本狀態為運行中時,代表Web服務已經成功上線,可以接受外部請求。有兩種方式測試該服務:

    • 在DaaS系統中通過測試頁面。點擊標簽頁測試,輸入JSON格式的請求正文,點擊提交命令:

      如何使用ONNX部署深度學習和傳統機器學習模型

    • 通過任意的RSET客戶端,使用標準的REST API來測試。這里我們使用curl命令行程序來調用Web服務,點擊生成代碼命令,彈出顯示使用curl命令調用REST API的對話框:

      如何使用ONNX部署深度學習和傳統機器學習模型

      復制該curl命令,打開shell頁面,執行命令:

      如何使用ONNX部署深度學習和傳統機器學習模型

使用ONNX部署深度神經網絡模型

我們嘗試部署ONNX Model Zoo中已經訓練好的模型,這里我們選擇MNIST-手寫數字識別CNN模型,下載基于ONNX1.3的模型最新版本:mnist.tar.gz。

  1. 導入模型。選擇已下載模型mnist.tar.gz

    如何使用ONNX部署深度學習和傳統機器學習模型

    導入成功后,頁面轉到模型主頁面。可以看到模型有一個輸入字段Input3,類型是tensor(float),維數(1,1,28,28)。一個輸出字段:Plus214_Output_0,類型同樣是tensor(float),維數(1,10)

    如何使用ONNX部署深度學習和傳統機器學習模型

  2. 測試模型。點擊標簽頁測試,然后點擊JSON命令,DaaS系統會自動創建符合輸入數據格式的隨機數據,以方便測試。點擊提交命令,輸出頁面顯示預測測試結果:

    如何使用ONNX部署深度學習和傳統機器學習模型

  3. 創建自定義實施預測腳本。為了能支持輸入圖像,并且直接輸出預測值,我們需要創建自定義預測腳本。點擊標簽頁實時預測,然后點擊生成自定義實時預測腳本命令,

    如何使用ONNX部署深度學習和傳統機器學習模型

    腳本生成后,點擊命令作為API測試,進入腳本測試頁面,我們可以自由添加自定義預處理和后處理功能。添加以下函數預處理圖像:

    def rgb2gray(rgb):
        """Convert the input image into grayscale"""
        import numpy as np
        return np.dot(rgb[...,:3], [0.299, 0.587, 0.114])
    
    
    def resize_img(img_to_resize):
        """Resize image to MNIST model input dimensions"""
        import cv2
        r_img = cv2.resize(img_to_resize, dsize=(28, 28), interpolation=cv2.INTER_AREA)
        r_img.resize((1, 1, 28, 28))
        return r_img
    
    
    def preprocess_image(img_to_preprocess):
        """Resize input images and convert them to grayscale."""
        if img_to_preprocess.shape == (28, 28):
            img_to_preprocess.resize((1, 1, 28, 28))
            return img_to_preprocess
    
        grayscale = rgb2gray(img_to_preprocess)
        processed_img = resize_img(grayscale)
        return processed_img


    在已有preprocess_files函數中調用preprocess_image,代碼如下:

    import matplotlib.image as mpimg
    for key, file in files.items():
        img = mpimg.imread(file)
        record[key] = preprocess_image(img)


    在已有postprocess函數中添加如下代碼后處理預測結果以獲取最終的預測值:

    def postprocess(result):
        """postprocess the predicted results"""
        import numpy as np
        return [int(np.argmax(np.array(result).squeeze(), axis=0))]


    點擊命令保存,然后在請求頁面中輸入函數名為predict,選擇請求正文基于表單,輸入表單名稱為模型唯一的輸入字段名Input3,類型選擇文件,點擊上傳,選擇測試圖像2.png,最后點擊提交命令,測試該腳本是否按照我們的期望工作:

    如何使用ONNX部署深度學習和傳統機器學習模型

  4. 創建正式部署Web服務。當腳本測試成功后,點擊部署標簽頁,然后點擊添加網絡服務命令,輸入服務名稱,其他使用默認值:

    如何使用ONNX部署深度學習和傳統機器學習模型

  5. 測試Web服務。服務創建成功后,頁面轉到服務部署主頁,當服務副本狀態為運行中時,代表Web服務已經成功上線,可以接受外部請求。有兩種方式測試該服務:

    • 在DaaS系統中通過測試頁面。點擊標簽頁測試,選擇請求正文基于表單,選擇輸入測試圖像5.jpg,點擊提交命令:

      如何使用ONNX部署深度學習和傳統機器學習模型

    • 通過任意的RSET客戶端,使用標準的REST API來測試。這里我們使用curl命令行程序來調用Web服務,點擊生成代碼命令,彈出顯示使用curl命令調用REST API的對話框:

      如何使用ONNX部署深度學習和傳統機器學習模型

      復制該curl命令,打開shell頁面,切換到圖像目錄下,執行命令:

      如何使用ONNX部署深度學習和傳統機器學習模型

關于如何使用ONNX部署深度學習和傳統機器學習模型問題的解答就分享到這里了,希望以上內容可以對大家有一定的幫助,如果你還有很多疑惑沒有解開,可以關注億速云行業資訊頻道了解更多相關知識。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

榕江县| 贵州省| 湖南省| 海淀区| 宁海县| 湖州市| 江都市| 肇东市| 东丽区| 确山县| 北宁市| 长武县| 额济纳旗| 子长县| 玉山县| 隆林| 广丰县| 浦县| 靖边县| 长宁区| 龙川县| 合阳县| 镇巴县| 金昌市| 福安市| 三门峡市| 武陟县| 灵宝市| 奉贤区| 方正县| 锦州市| 永宁县| 贵阳市| 昌乐县| 康平县| 汉沽区| 靖西县| 五原县| 开平市| 海安县| 万宁市|