在資源有限的邊緣設備(例如 4GB 的 Jetson Orin Nano)上部署現(xiàn)代對象檢測模型時,總是要在準確性與速度之間進行權衡。雖然像 ultralytics 這樣的 Python 框架非常適合用于訓練,但在推理過程中它們往往會引入較大的開銷。
在這個項目中,我嘗試突破 Jetson Orin Nano 的性能限制,放棄了使用 Python,轉而采用純 C++ 語言并結合 NVIDIA TensorRT 進行實現(xiàn)。我的目標有兩個方面:
?實現(xiàn) YOLO 模型的實時性能(幀率超過 30 幀/秒)。
?將新發(fā)布的 YOLOv26 與穩(wěn)定的 YOLOv8 進行對比測試,以查看“端到端”架構在嚴格的 TensorRT 環(huán)境中是否依然適用。
挑戰(zhàn):在邊緣計算領域,Python 與 C++ 的較量
我在 Jetson Orin Nano(4GB 內(nèi)存)上進行的 Python 代碼初步測試遇到了瓶頸。內(nèi)存使用量很高,而 Python 的全局解釋器鎖(GIL)加上其他開銷使得保持穩(wěn)定的高幀率變得困難。為了解決這個問題,我構建了一個自定義的 C++ 推理管道,該管道負責處理:
?媒體輸入/輸出:OpenCV(在可能的情況下啟用硬件加速)。
?預處理:CUDA 函數(shù)(縮放、歸一化、CHW 轉換)。
?推斷:TensorRT 引擎(16 位浮點精度)
?后處理:NMS 和坐標映射的 C++ 實現(xiàn)。
深入探究:YOLOv26 的“奧秘”
該項目的核心實驗之一是嘗試部署實驗性的 YOLOv26 算法。然而,我遇到了一個重大難題:置信度不一致問題。
雖然 YOLOv8 在轉換為 TensorRT 時表現(xiàn)完美,但 YOLOv26 在 C++ 中卻出現(xiàn)了邊界框漂移和置信度分數(shù)不準確的問題。為了解其原因,我分析了這兩個模型的 ONNX 圖(與 YOLOv10 進行對比)。
模型架構差異
YOLOv10 / v8(優(yōu)化版):ONNX 導出包含完整的后處理子圖(TopK 和 Gather 操作)。輸出形狀通常為 1x300x6,能夠實現(xiàn)真正的端到端無 NMS 的推理。
YOLOv26(默認導出):導出的 v26 模型輸出尺寸為 1x84x8400。它缺少內(nèi)置的端到端后處理子圖。
結論:v26 版本所宣傳的“無 NMS 處理”功能依賴于特定的 Python 側處理方式或特定的導出參數(shù),而這些參數(shù)目前尚未成為標準配置。在純 TensorRT C++ 環(huán)境中,這種轉而采用傳統(tǒng)輸出格式的做法導致與標準后處理流程的兼容性出現(xiàn)問題。
注意:為了保證該項目代碼發(fā)布的穩(wěn)定性,我已將 YOLOv8n 設為默認模型,因為它能提供最穩(wěn)定的工業(yè)級性能。
性能基準測試
我針對三種不同的配置對推理流程進行了測試。測試結果清楚地表明,在邊緣硬件上,C++ TensorRT 方法具有明顯的優(yōu)勢。
1. Mac Mini(M 系列芯片)
CPU 推理:約 21.4 幀每秒
MPS(GPU)推理:約 20.5 幀每秒
要點:在 macOS 系統(tǒng)中,MPS 后端的即時幀率較高,但存在同步延遲問題,導致其視頻流的平均幀率低于 CPU 的幀率。
MPS(GPU)推理:約 20.5 幀每秒
洞察:在 macOS 系統(tǒng)上,MPS 后端的即時幀率較高,但存在同步延遲問題,導致其視頻流的平均幀率低于 CPU。
2. Jetson Orin Nano (Python + ONNX)
ONNX 運行時:約 16.0 幀每秒
Python 運行時環(huán)境和 ONNX 解釋過程所產(chǎn)生的開銷限制了其性能。
ONNX 運行時:約 16.0 幀每秒 由于 Python 運行時和 ONNX 解釋過程的存在,其開銷限制了性能。
3. Jetson Orin Nano (C++ + TensorRT)- 勝利者
視頻推理(不顯示畫面):33.2 幀每秒
延遲:約 12 毫秒(端到端)
吞吐量:約 90 幀每秒(使用 trtexec 進行的原始基準測試)
通過改用 C++ 和 TensorRT,與在相同硬件上使用 Python 實現(xiàn)相比,我們的性能提升了約 100%,這使得其能夠適用于實時機器人應用。
如何運行代碼
步驟 1:導出模型
您可以使用我的腳本將 YOLOv8 模型導出為 ONNX 格式。請注意,我們使用 opset=18 以實現(xiàn)最大程度的兼容性。
Python
第 2 步:構建引擎
使用 trtexec 工具將 ONNX 模型轉換為高度優(yōu)化的 TensorRT 引擎(對于 Orin Nano 來說,建議使用 FP16 精度)。
Bash
第 3 步:編譯并運行
導航至 C++ 項目目錄,并使用 CMake 進行構建。
Bash
未來工作
雖然當前的系統(tǒng)運行著 YOLOv8 沒有出現(xiàn)任何問題,但解決 YOLOv26 的導出問題將是接下來的工作重點。我計劃:
?檢查自定義的 ONNX 導出腳本,以強制包含 v26 版本中的 TopK 層。
?將這個感知模塊整合到一個 ROS 2 節(jié)點中,用于我的 RoboCup 救援模擬項目。
?如果您對嵌入式人工智能的前沿領域感興趣,歡迎自行克隆該代碼庫并進行貢獻!
本文編譯自hackster.io





