<tt id="vwe5b"></tt>
      1. <tfoot id="vwe5b"><progress id="vwe5b"></progress></tfoot><abbr id="vwe5b"></abbr>

      2. 91人人妻,99偷拍,碰碰免费视频,亚洲中文字幕AV,丝袜a片,91纯肉动漫,中文无码日,伊人福利导航

        基于高效曼巴注意力(EMA)增強YOLOv10的冬小麥田間雜草實時檢測與分割:面向邊緣AI農業機器人的解決方案

        《Smart Agricultural Technology》:YOLO-EMA: Efficient Mamba Attention Enhanced YOLOv10 for Real-time Detection and Segmentation of Winter Wheat Weeds on Edge AI Platforms

        【字體: 時間:2026年02月27日 來源:Smart Agricultural Technology 5.7

        編輯推薦:

          針對冬小麥田間雜草生物多樣性、共生遮擋、光照動態變化等復雜場景下實時精準識別與分割的難題,本研究提出YOLO-EMA框架。研究人員通過公開增強數據集3W-Pro,引入高效曼巴注意力模塊改進YOLOv10,并部署于NVIDIA Jetson Xavier NX邊緣平臺。結果表明,YOLO-EMA在實驗室與實地無人機試驗中均實現了高精度檢測(mAP 87.0%)與實時分割(71.7% FPS),為精準農業中基于深度學習的實時雜草管理提供了可行方案。

          
        小麥是全球第二大糧食作物,中國更是最大的生產國,但雜草造成的減產嚴重威脅著糧食安全。傳統的除草劑噴灑方式雖然常用,卻帶來了殘留與環境污染的問題。精準農業倡導的“定點雜草管理”(Site-Specific Weed Management, SSWM)有望通過按需施藥來減少藥用量,但其前提是必須能在復雜多變的田間環境中,快速、準確地識別并勾勒出每一株雜草的輪廓。想象一下,冬小麥田里,各種雜草形態各異,與小麥交錯生長、相互遮擋,加上不斷變化的光照和無人機飛行帶來的動態模糊,想要讓農業機器人“看清”并“記住”每一株雜草,堪稱一項視覺挑戰。
        此前,基于深度學習的方法,如YOLO系列、R-CNN和Transformer,已在雜草檢測任務中展現出潛力。然而,這些模型要么受限于固定感受野難以捕獲全局上下文,要么因計算復雜度過高而難以在資源受限的田間邊緣設備上實時運行。同時,一個能夠充分反映真實田間復雜性的高質量、公開雜草數據集也較為匱乏,這進一步限制了先進模型在實地場景中的實用性和泛化能力。
        為此,發表在《Smart Agricultural Technology》上的這項研究,提出了一套完整的實踐框架,旨在通過邊緣深度學習實現農業機器人對冬小麥雜草的實時檢測與實例分割。研究團隊首先公開了增強版的3W-Pro數據集,它包含了通過智能手機和高空無人機采集的、涵蓋多種雜草物種、生長階段、遮擋情況和光照條件的豐富樣本。基于該數據集,研究團隊比較了多種先進模型,最終選擇在精度、速度和模型復雜度之間平衡出色的YOLOv10作為改進基線。為了提升模型在局部與全局上下文中的特征表征能力,同時保持較低的計算復雜度,研究創造性地將高效的曼巴注意力(Efficient Mamba Attention, EMA)模塊引入YOLOv10,提出了YOLO-EMA模型。曼巴(Mamba)作為一種狀態空間模型,能夠以線性計算復雜度建模長程依賴,這使其特別適合處理具有復雜空間關系的田間圖像。
        隨后,研究將優化后的YOLO-EMA模型量化為TensorRT-INT8格式,部署在輕量級、高能效的邊緣AI計算設備NVIDIA Jetson Xavier NX上,并集成到定制化的無人機系統中。最終,通過在真實冬小麥田中進行飛行實驗,全面評估了模型在不同飛行高度、光照條件、雜草密度及運動模糊等實際因素影響下的性能。
        本研究采用了幾個關鍵的技術方法:一是構建并公開了多源、高質量的3W-Pro增強數據集;二是在模型構建上,通過引入EMA注意力機制對YOLOv10進行改進;三是在技術部署上,利用TensorRT對模型進行INT8量化,并將其集成到搭載Jetson Xavier NX的定制無人機硬件平臺中,實現了算法的邊緣端部署與實地驗證。
        研究結果
        3.1. 實驗室環境下先進模型及YOLO-EMA的性能分析
        在3W-Pro數據集上,YOLO系列模型整體表現優于R-CNN系列(如Mask R-CNN)和Transformer(如Swin Transformer)。其中,YOLOv10在實例分割的平均精度(mean Average Precision, mAP)上達到69.8%,且擁有最少的參數量(2.21 million)和最高的推理速度(434.7 FPS),因此被選為基線模型。改進后的YOLO-EMA模型在邊界框檢測和實例分割的mAP上分別達到87.0%和71.7%,較基線YOLOv10提升了3.7和1.9個百分點,同時在參數量略有增加的情況下,仍保持了416.7 FPS的高推理速度。可視化對比顯示,在復雜多雜草、存在遮擋或小目標場景下,YOLO-EMA比YOLOv10表現出更優的檢測與分割能力。
        3.2. YOLO-EMA與先進模型在3W-Pro上各分類的性能分析
        YOLO-EMA在大多數雜草類別(如C. bursa, C. arvense, E. cheiranthoides, G. aparine)上的平均精度(AP)表現最佳。然而,對于C. hederacea, D. sophia, H. scandens和冬小麥這幾個類別,其分割精度相對較低,這主要與田間復雜環境、光照變化及無人機飛行造成的圖像運動模糊有關。
        3.3. YOLO-EMA在Jetson Xavier NX上的部署性能
        將YOLO-EMA從PyTorch-FP32格式轉換為TensorRT-INT8格式并部署到Jetson Xavier NX邊緣設備后,模型的檢測與分割mAP僅出現了小幅下降(分別從87.0%降至85.2%,從71.7%降至71.3%),但推理速度大幅提升至97.1 FPS,滿足了田間實時處理的需求。這表明INT8量化在精度與效率之間取得了良好平衡。
        3.4. 田間實驗結果
        在真實的冬小麥田無人機飛行試驗中,部署了TensorRT-INT8版YOLO-EMA的系統整體性能有所下降,邊界框檢測和實例分割的mAP分別為74.1%和51.7%。性能下降主要歸因于田間環境的極端復雜性、無人機相機成像質量限制以及試驗期間實際存在的雜草種類較少。盡管如此,系統仍能以較高的精度率和召回率運行,證明了該框架在真實農業場景中的初步可行性。
        研究結論與討論
        本研究成功構建了一個從數據集、算法到邊緣部署和實地驗證的完整框架,用于解決冬小麥田間雜草的實時檢測與分割難題。其核心貢獻在于:第一,公開了更貼近真實田間復雜性的3W-Pro數據集,為相關研究提供了堅實基準;第二,提出的YOLO-EMA模型通過融合YOLOv10的高效性與EMA的全局建模能力,在精度和速度上均優于當前多種先進模型;第三,通過TensorRT-INT8量化將模型成功部署于資源受限的邊緣AI平臺,并在定制無人機上實現了實時推理,驗證了其工程實用性。
        討論部分進一步分析了影響性能的關鍵因素。與較為“干凈”的實驗室數據集相比,包含更多真實田間挑戰的3W-Pro數據集使模型測試結果更貼近實際。通過注意力機制可視化(Grad-CAM)對比發現,EMA模塊相比傳統的CoordAtt、ECA等注意力機制,能產生更集中、更強烈的特征關注區域,從而更好地捕捉關鍵目標。此外,研究也指出,無人機飛行高度、光照條件、雜草與作物的空間關系(如遮擋)以及運動模糊等田間變量,都會對基于視覺的雜草識別系統性能產生顯著影響,這是在設計實用化農業機器人系統時必須考慮和優化的問題。
        綜上所述,這項研究不僅提出了一個高性能的算法模型,更重要的是打通了從實驗室算法研發到田間機器人實際應用的完整鏈路,為深度學習驅動的精準雜草管理提供了可復制的技術范例和扎實的實踐基礎,對于推動智慧農業的發展具有重要意義。
        相關新聞
        生物通微信公眾號
        微信
        新浪微博

        知名企業招聘

        熱點排行

          今日動態 | 人才市場 | 新技術專欄 | 中國科學人 | 云展臺 | BioHot | 云講堂直播 | 會展中心 | 特價專欄 | 技術快訊 | 免費試用

          版權所有 生物通

          Copyright© eBiotrade.com, All Rights Reserved

          聯系信箱:

          粵ICP備09063491號