您好,登錄后才能下訂單哦!
本篇內(nèi)容主要講解“C++ ncnn模型驗(yàn)證精度如何實(shí)現(xiàn)”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實(shí)用性強(qiáng)。下面就讓小編來帶大家學(xué)習(xí)“C++ ncnn模型驗(yàn)證精度如何實(shí)現(xiàn)”吧!
得到ncnn模型的順序?yàn)椋?pth–>.onnx–>ncnn
.pth的精度驗(yàn)證如下:
如進(jìn)行的是二分類:
model = init_model(model, data_cfg, device=device, mode='eval') ###.pth轉(zhuǎn).onnx模型 # #--- # input_names = ["x"] # output_names = ["y"] # inp = torch.randn(1, 3, 256, 128) ##錯誤示例 inp = np.full((1, 3, 160, 320), 0.5).astype(np.float) #(160,320) = (h,w) inp = torch.FloatTensor(inp) out = model(inp) print(out)
沒有經(jīng)過softmax層,out輸出為±1的兩個值。
sess = onnxruntime.InferenceSession("G:\\pycharm_pytorch271\\pytorch_classification\\main\\sim.onnx", providers=["CUDAExecutionProvider"]) # use gpu input_name = sess.get_inputs()[0].name print("input_name: ", input_name) output_name = sess.get_outputs()[0].name print("output_name: ", output_name) # test_images = torch.rand([1, 3, 256, 128]) test_images = np.full((1, 3, 160, 320), 0.5).astype(np.float) #(160,320) = (h,w) test_images = torch.FloatTensor(test_images) print("test_image", test_images) prediction = sess.run([output_name], {input_name: test_images.numpy()}) print(prediction)
首先保證mean、norm輸出的值與onnx保持一致,因?yàn)閛nnx直接輸入值0.5,ncnn模型經(jīng)過mean、norm計算后的結(jié)果與0.5一致就行。
然后就是ncnn模型的計算輸出
- 查看輸出結(jié)果是否是0.5,首先得將輸入值1給到img
```cpp constexpr int w = 320; constexpr int h = 160; float cbuf[h][w]; cv::Mat img(h, w, CV_8UC3,(float *)cbuf); //BYTE* iPtr = new BYTE[128 * 256 * 3]; BYTE* iPtr = new BYTE[h * w * 3]; for (int i = 0; i < h; i++) { for (int j = 0; j < w; j++) { for (int k = 0; k < 3; k++) { //iPtr[i * 256 * 3 + j * 3 + k] = img.at<cv::Vec3f>(i, j)[k]; img.at<cv::Vec3b>(i, j)[k] = 1; } } } ``` - 經(jīng)過上面的賦值,通過了mean、norm計算后,得到的結(jié)果進(jìn)行查看,值為0.5則正確轉(zhuǎn)換。得到的結(jié)果送入下面的代碼進(jìn)行輸出。 ncnn結(jié)果為mat,因此采用該方法進(jìn)行遍歷查看。 ```cpp //輸出ncnn mat void ncnn_mat_print(const ncnn::Mat& m) { for (int q = 0; q < m.c; q++) { const float* ptr = m.channel(q); for (int y = 0; y < m.h; y++) { for (int x = 0; x < m.w; x++) { printf("%f ", ptr[x]); } ptr += m.w; printf("\n"); } printf("------------------------\n"); } } ``` 將mat給到模型進(jìn)行推理得到結(jié)果。
一般情況下,pth模型與onnx模型結(jié)果相差不大,ncnn會有點(diǎn)點(diǎn)損失,千分位上的損失,這樣精度基本上是一致的。
若不一致,看哪一步結(jié)果相差太大,如果是ncnn這一步相差太大,檢查是否是值輸入有問題,或者是輸入的(h,w)弄反了。
到此,相信大家對“C++ ncnn模型驗(yàn)證精度如何實(shí)現(xiàn)”有了更深的了解,不妨來實(shí)際操作一番吧!這里是億速云網(wǎng)站,更多相關(guān)內(nèi)容可以進(jìn)入相關(guān)頻道進(jìn)行查詢,關(guān)注我們,繼續(xù)學(xué)習(xí)!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。