那曲檬骨新材料有限公司

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

【YOLOv5】LabVIEW+TensorRT的yolov5部署實戰(含源碼)

王立奇 ? 來源:wangstoudamire ? 作者:wangstoudamire ? 2023-08-21 22:20 ? 次閱讀

前言

前面我們給大家介紹了使用OpenCV以及ONNX工具包實現yolov5在LabVIEW中的部署,有英偉達顯卡的朋友們可能已經感受過使用cuda加速時yolov5的速度,今天主要和大家分享在LabVIEW中使用純TensoRT工具包快速部署并實現yolov5的物體識別, 本博客中使用的智能工具包可到主頁置頂博客[https://blog.csdn.net/virobotics/article/details/129304465]
中安裝
。若配置運行過程中遇到困難,歡迎大家評論區留言,博主將盡力解決。

以下是YOLOv5的相關筆記總結,希望對大家有所幫助。

【YOLOv5】LabVIEW+OpenVINO讓你的YOLOv5在CPU上飛起來https://blog.csdn.net/virobotics/article/details/124951862
【YOLOv5】LabVIEW OpenCV dnn快速實現實時物體識別(Object Detection)https://blog.csdn.net/virobotics/article/details/124929483
【YOLOv5】手把手教你使用LabVIEW ONNX Runtime部署 TensorRT加速,實現YOLOv5實時物體識別(含源碼)https://blog.csdn.net/virobotics/article/details/124981658

一、關于YOLOv5

YOLOv5是在 COCO 數據集上預訓練的一系列對象檢測架構和模型。表現要優于谷歌開源的目標檢測框架 EfficientDet,在檢測精度和速度上相比yolov4都有較大的提高。本博客,我們以YOLOv5 6.1版本來介紹相關的部署開發。

在這里插入圖片描述
YOLOv5相比于前面yolo模型的主要特點是:
1、小目標的檢測精度上有明顯的提高;
2、能自適應錨框計算
3、具有數據增強功能,隨機縮放,裁剪,拼接等功能
4、靈活性極高、速度超快,模型超小、在模型的快速部署上具有極強優勢

關于YOLOv5的網絡結構解釋網上有很多,這里就不再贅述了,大家可以看其他大神對于YOLOv5網絡結構的解析。

二、YOLOv5模型的獲取

為方便使用, 博主已經將yolov5模型轉化為onnx格式 ,可在百度網盤下載
鏈接:[https://pan.baidu.com/s/15dwoBM4W-5_nlRj4G9EhRg?pwd=yiku]
提取碼:yiku

1.下載源碼

將Ultralytics開源的YOLOv5代碼Clone或下載到本地,可以直接點擊Download ZIP進行下載,

下載地址:[https://github.com/ultralytics/yolov5]
在這里插入圖片描述

2.安裝模塊

解壓剛剛下載的zip文件,然后安裝yolov5需要的模塊,記住cmd的工作路徑要在yolov5文件夾下:
在這里插入圖片描述
打開cmd切換路徑到yolov5文件夾下,并輸入如下指令,安裝yolov5需要的模塊

pip install -r requirements.txt

3.下載預訓練模型

打開cmd,進入python環境,使用如下指令下載預訓練模型:

import torch

# Model
model = torch.hub.load('ultralytics/yolov5', 'yolov5s')  # or yolov5n - yolov5x6, custom

成功下載后如下圖所示:
在這里插入圖片描述

4.轉換為onnx模型

將.pt文件轉化為.onnx文件,在cmd中輸入轉onnx的命令(記得將export.py和pt模型放在同一路徑下):

python export.py --weights yolov5s.pt --include onnx

如下圖所示為轉化成功界面
在這里插入圖片描述
其中yolov5s可替換為yolov5myolov5myolov5lyolov5x
在這里插入圖片描述

三、LabVIEW+TensorRT的yolov5部署實戰(yolov5_trt_img.vi)

如需要查看TensorRT工具包相關vi含義,可查看:[https://blog.csdn.net/virobotics/article/details/129492651]

1.onnx轉化為engine(onnx to engine.vi)

使用onnx_to_engine.vi,將該vi拖拽至前面板空白區域,創建并輸入onnx的路徑以及engine的路徑,type即精度,可選擇FP32或FP16,肉眼觀看精度無大差別。(一般FP16模型比FP32速度快一倍)
在這里插入圖片描述
轉換的完整程序如下:
在這里插入圖片描述

點擊運行,等待1~3分鐘,模型轉換成功,可在剛剛設定的路徑中找到我們轉化好的mobilenet.engine.

Q:為什么要轉換模型,不直接調用ONNX?> A:tensorRT內部加載ONNX后其實是做了一個轉換模型的工作,該過程時間長、占用內存巨大。因此不推薦每次初始化都加載ONNX模型,而是加載engine。

2.部署

模型初始化

  1. 加載yolov5s.engine文件
  2. 設置輸入輸出緩存
    ? 輸入大小為13640640
    ? 輸出大小為1
    25200*85
    在這里插入圖片描述

yolov5的預處理

  1. LetterBox
  2. blobFromImage,包含如下步驟:
1) img=img/255.0
2) img = img[None] #從(640,640,3)擴充維度至(1,640,640,3)
3) input=img.transpose(0,3,1,2) # BHWC to BCHW

1.png

在這里插入圖片描述

模型推理

  1. 推薦使用數據指針作為輸入給到run.vi
  2. 數據的大小為13640*640
    在這里插入圖片描述

獲取推理結果

  1. 循環外初始化一個25200*85的二維數組
  2. 此數組作為Get_Result的輸入,另一個輸入為index=0
  3. 輸出為25200*85的二維數組結果

在這里插入圖片描述

后處理

本范例中,后處理方式和使用onnx一樣

在這里插入圖片描述

完整源碼

在這里插入圖片描述

運行結果

1.png

項目源碼

源碼下載鏈接:https://pan.baidu.com/s/1y0scJ8tg5nzjJK4iPvNwNQ?pwd=yiku

附加說明

  • 操作系統:Windows10
  • python:3.6及以上
  • LabVIEW:2018及以上 64位版本
  • 視覺工具包:techforce_lib_opencv_cpu-1.0.0.98.vip
  • LabVIEW TensorRT工具包:virobotics_lib_tensorrt-1.0.0.22.vip
  • 運行結果所用顯卡:RTX3060

審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • LabVIEW
    +關注

    關注

    1977

    文章

    3657

    瀏覽量

    325610
  • 源碼
    +關注

    關注

    8

    文章

    652

    瀏覽量

    29450
  • 目標檢測
    +關注

    關注

    0

    文章

    211

    瀏覽量

    15664
收藏 人收藏

    評論

    相關推薦

    YOLOv5LabVIEW+YOLOv5快速實現實時物體識別(Object Detection)源碼

    前面我們給大家介紹了基于LabVIEW+YOLOv3/YOLOv4的物體識別(對象檢測),今天接著上次的內容再來看看YOLOv5。本次主要是和大家分享使用LabVIEW快速實現
    的頭像 發表于 03-13 16:01 ?2247次閱讀

    手把手教你使用LabVIEW ONNX Runtime部署 TensorRT加速,實現YOLOv5實時物體識別

    今天我們就一起來看一下如何使用LabVIEW開放神經網絡交互工具包實現TensorRT加速YOLOv5
    的頭像 發表于 03-20 16:36 ?2781次閱讀
    手把手教你使用<b class='flag-5'>LabVIEW</b> ONNX Runtime<b class='flag-5'>部署</b> <b class='flag-5'>TensorRT</b>加速,實現<b class='flag-5'>YOLOv5</b>實時物體識別

    Yolov5算法解讀

    yolov5于2020年由glenn-jocher首次提出,直至今日yolov5仍然在不斷進行升級迭代。 Yolov5YOLOv5s、YOLOv5
    的頭像 發表于 05-17 16:38 ?9551次閱讀
    <b class='flag-5'>Yolov5</b>算法解讀

    基于迅為RK3588【RKNPU2項目實戰1】:YOLOV5實時目標分類

    【RKNPU2項目實戰1】:YOLOV5實時目標分類 https://www.bilibili.com/video/BV1ZN411D7V8/?spm_id_from=333.999.0.0
    發表于 08-15 10:51

    龍哥手把手教你學視覺-深度學習YOLOV5

    利用labview部署yolov5導出的模型,能利用攝像頭動態檢測輸出目標檢測結果。根據工業視覺外觀檢測的速度和準確性要求,龍哥視覺結合labview編程平臺推出了
    發表于 09-03 09:39

    怎樣使用PyTorch Hub去加載YOLOv5模型

    使用 PyTorch Hub 加載自定義 20 類VOC訓練的YOLOv5s 模型'best.pt'。TensorRT、ONNX 和 OpenVINO 模型PyTorch Hub 支持對大多數 YOLOv5
    發表于 07-22 16:02

    如何YOLOv5測試代碼?

    使用文檔“使用 YOLOv5 進行對象檢測”我試圖從文檔第 10 頁訪問以下鏈接(在 i.MX8MP 上部署 yolov5s 的步驟 - NXP 社區) ...但是這樣做時會被拒絕訪問。該文檔沒有說明需要特殊許可才能下載 tes
    發表于 05-18 06:08

    基于YOLOv5的目標檢測文檔進行的時候出錯如何解決?

    你好: 按Milk-V Duo開發板實戰——基于YOLOv5的目標檢測 安裝好yolov5環境,在執行main.py的時候會出錯,能否幫忙看下 main.py: import torch
    發表于 09-18 07:47

    YOLOv5 7.0版本下載與運行測試

    支持實例分割了,從此YOLOv5實現了圖像分類、對象檢測、實例分割三個支持,從訓練到部署
    的頭像 發表于 11-30 15:55 ?3935次閱讀

    yolov5訓練部署全鏈路教程

    本教程針對目標檢測算法yolov5的訓練和部署到EASY-EAI-Nano(RV1126)進行說明。
    的頭像 發表于 01-05 18:00 ?3301次閱讀
    <b class='flag-5'>yolov5</b>訓練<b class='flag-5'>部署</b>全鏈路教程

    在C++中使用OpenVINO工具包部署YOLOv5模型

    下載并轉換YOLOv5預訓練模型的詳細步驟,請參考:《基于OpenVINO?2022.2和蝰蛇峽谷優化并部署YOLOv5模型》,本文所使用的OpenVINO是2022.3 LTS版。
    的頭像 發表于 02-15 16:53 ?5239次閱讀

    使用旭日X3派的BPU部署Yolov5

    本次主要介紹在旭日x3的BPU中部署yolov5。首先在ubuntu20.04安裝yolov5,并運行yolov5并使用pytoch的pt模型文件轉ONNX。
    的頭像 發表于 04-26 14:20 ?967次閱讀
    使用旭日X3派的BPU<b class='flag-5'>部署</b><b class='flag-5'>Yolov5</b>

    【教程】yolov5訓練部署全鏈路教程

    本教程針對目標檢測算法yolov5的訓練和部署到EASY-EAI-Nano(RV1126)進行說明,而數據標注方法可以參考我們往期的文章《Labelimg的安裝與使用》。
    的頭像 發表于 01-29 15:25 ?3542次閱讀
    【教程】<b class='flag-5'>yolov5</b>訓練<b class='flag-5'>部署</b>全鏈路教程

    yolov5和YOLOX正負樣本分配策略

    整體上在正負樣本分配中,yolov7的策略算是yolov5和YOLOX的結合。因此本文先從yolov5和YOLOX正負樣本分配策略分析入手,后引入到YOLOv7的解析中。
    發表于 08-14 11:45 ?2352次閱讀
    <b class='flag-5'>yolov5</b>和YOLOX正負樣本分配策略

    在樹莓派上部署YOLOv5進行動物目標檢測的完整流程

    卓越的性能。本文將詳細介紹如何在性能更強的計算機上訓練YOLOv5模型,并將訓練好的模型部署到樹莓派4B上,通過樹莓派的攝像頭進行實時動物目標檢測。 一、在電腦上訓練YOLOv5模型
    的頭像 發表于 11-11 10:38 ?1455次閱讀
    在樹莓派上<b class='flag-5'>部署</b><b class='flag-5'>YOLOv5</b>進行動物目標檢測的完整流程
    百家乐官网桌子豪华| 百家乐大路图| 香港六合彩报| 大佬百家乐官网的玩法技巧和规则| 二八杠小游戏| 试玩百家乐官网游戏机| 大发888充值卡| 尊龙百家乐官网娱乐平台| 全讯网3344555| 百家乐官网007| 大发888娱乐场玩什么| 澳门百家乐官网才能| 扑克王百家乐的玩法技巧和规则| 凤凰百家乐官网娱乐城| 百家乐孖宝揽| A8百家乐官网现金网| 玩百家乐输了| 百家乐官网视频游戏冲值| 百家乐几点不用补| 七胜百家乐官网娱乐场| 大发888官网 游戏| 百家乐官网怎么玩请指教| 888真人娱乐城| 金博士百家乐娱乐城 | 百家乐号论坛博彩正网| 吉安县| 百家乐的战术| AG百家乐官网大转轮| 大发888坑人么| 单耳房做生意的风水| 丰都县| 天天百家乐的玩法技巧和规则 | 百家乐平注法口诀技巧| 百家乐官网号解码器| 娱乐城开户彩金| 百家乐博彩开户博彩通| 大发888真钱游戏注册| 属马的和属猴的在一起做生意好吗| 百家乐官网视频象棋| 大发888信誉| 百家乐投注心得|