由 Mambaout 驅動的雙通道 SENet 技術,用于 Φ-OTDR 振動事件的識別
《Optics & Laser Technology》:Mambaout-driven dual-channel SENet for Φ-OTDR vibration event recognition
【字體:
大
中
小
】
時間:2026年02月27日
來源:Optics & Laser Technology 4.6
編輯推薦:
振動信號分類優化與實時處理研究。提出基于多級量化與雙通道SENet的D-SENet-MambaOut框架,有效抑制噪聲并提升復雜場景下振動信號分類準確率至97.39%,同時保持實時推理速度。
劉念超|胡梓霞|趙一鳴|劉宏偉|王煥|楊然|梁勝
教育部發光與光學信息技術重點實驗室,國家物理實驗教學示范中心,北京交通大學物理科學與工程學院,北京,100044,中國
摘要
在振動監測過程中產生的大量數據,是由于相位敏感光時域反射儀(Φ-OTDR)的高采樣率和多傳感器節點特性所導致的。振動信號識別還受到熱噪聲和高斯白噪聲干擾的挑戰。為了解決這些問題,本研究提出了一種深度學習框架D-SENet-MambaOut,該框架結合了多尺度特征校準和遞歸圖(RP)變換。該框架首先通過二次裁剪預處理增強信號特征并抑制噪聲。接下來,采用多層次量化策略優化RP變換,將一維時間序列信號轉換為保留了獨特紋理的圖像。設計了一種雙通道SENet(D-SENet),利用弱增強和強增強的特征的通道加權融合機制來捕捉高維語義依賴性。實驗結果表明,D-SENet-MambaOut在復雜分類任務(如風、人造和挖掘)中表現出色,驗證準確率為97.39%,測試集準確率為95.60%,比基線模型提高了1%。雙通道下采樣結構將驗證損失標準差降低了18.6%,提高了模型的魯棒性。T-SNE可視化顯示,由于D-SENet的通道注意力機制,風類特征形成了更加緊湊的簇,分散度降低,從而實現了風類的零誤分類。盡管計算復雜度有所增加,但模型仍保持了每秒444個樣本的實時推理速度(平均每個樣本的識別時間為2.252毫秒),證明了其在噪聲環境中的效率和準確性。我們的開源實現可在以下鏈接獲取:
https://github.com/DooDooMan312/D-SE-Mambaout-Dual-channel-Squeeze-and-Excitation-Mambaout引言
分布式聲學傳感(DAS)是一種先進的傳感技術,通過仔細分析瑞利散射(RBS)光的實時變化來檢測光纖中的振動,包括相位和強度波動。自1993年問世以來,DAS基于相位敏感光時域反射儀(Φ-OTDR)[28]。因此,DAS能夠實現高精度的多點干擾檢測,空間分辨率可達米級。這種技術的優勢如下:首先是長距離監測,可以覆蓋數十公里,并且不受電磁干擾[1]、[25]、[26];其次是通過單模通信光纖實現經濟高效的大規模部署,避免了傳統傳感器的復雜性[2]。這些特點推動了其在地震監測[3]、城市交通監測[27]、管道完整性評估[4]和 perimeter 安全[5]、[6]等領域的應用。
DAS生成的大量數據需要智能處理方法。機器學習(ML)已成為自動化振動分析的關鍵工具,能夠完成信號去噪[7]、特征提取和事件分類等任務。早期的機器學習方法使用了時頻域分析:Xu等人[8]結合了變分模態分解(VMD)和親和傳播聚類,實現了96%的準確率。相比之下,Chen等人[9]使用了一種樹狀網絡(DD)優化器,達到了98.6%的分類準確率。在最近的研究中,我們的研究小組提出了一種分層聚類方法,該方法結合了自適應信號裁剪技術,顯著減少了標記需求,同時保持了88.68%的準確率[10]。深度學習(DL)在這一領域取得了突破性進展,能夠從原始數據中自動學習分層特征,從而無需手動特征工程。例如,Hu等人[11]將一維(1D)DAS信號轉換為二維(2D)圖像表示,使用基于HorNet的架構在六個振動類別中實現了94.25%的分類準確率。同時,Wang等人[12]開發了GASFConvNeXt-TF算法用于干擾識別。該算法利用Gramian角和場(GASF)變換將1D時間信號轉換為特征增強的2D圖像,展示了算法的快速處理能力和高識別精度,平均每個干擾的識別時間為0.103秒。此外,Wu等人[13]引入了一種3D注意力增強卷積神經網絡(3D-ACNN),能夠進行時空譜聯合分析,通過協作多維特征利用將識別準確率提高到98.67%。這些方法的綜合應用強調了DL在促進DAS系統端到端優化方面的變革能力。最近的研究表明,研究人員越來越多地采用維度增強策略(如表1所示),這些策略涉及將光纖通道中的時間信號投影到2D矩陣表示中,從而增強了特征的表現力,同時規避了傳統1D信號處理的固有局限性。
本研究提出了雙通道Squeeze-and-Excitation Mambaout(D-SE-Mambaout),這是一種專為Φ-OTDR系統中的振動識別設計的新型架構。該框架整合了三個創新組件,以解決振動特征提取和分類中的關鍵挑戰。這些組件利用了基于2D圖像的深度學習進展以及Φ-OTDR信號固有的時空間雙重性。
首先,對遞歸圖(RP)增強應用了多層次量化策略。該策略利用歸一化距離矩陣來提高周期性信號表示的紋理分辨率和噪聲魯棒性。其次,開發了雙通道Squeeze-and-Excitation網絡(D-SENet),結合了并行弱/強增強路徑和通道級注意力機制。這種配置有助于整合288維的高維特征,從而減少了單通道方法特有的信息損失。因此,這種配置提高了分類準確性(平均準確率為95.6%)和穩定性(波動性降低了31.2%)。第三,Mambaout架構通過雙通道下采樣結構實現了多尺度集成,提高了對復雜場景的適應性。這一點通過挖掘類別召回率提高了19.4%和接近實時的推理能力(644樣本/秒)得到了證明。
在三個振動數據集上的實驗驗證表明,D-SE-Mambaout具有優異的噪聲魯棒性(驗證損失標準差降低了18.0%)和任務適應性,在T-SNE可視化中特征聚類緊湊,人造和挖掘事件之間的區分邊界清晰。盡管計算時間增加了54.3%,但所提出的方法在性能效率和特征校準效果之間建立了良好的平衡,從而推動了Φ-OTDR應用中的振動識別技術進步。第2節詳細介紹了RP優化領域采用的方法。第3節進一步闡述了D-SENet和D-SE-Mambaout框架。第5節展示了三種Mambaout架構的實驗結果。第6節比較了該方法與以往類似研究的結果。研究的最后一節第7節提供了結論。
方法片段
該方法系統
Φ-OTDR系統如圖1所示。它基于偏振多樣性外部差分相干(PD-EDC)方法。偏振多樣性技術用于減弱偏振退化的影響。這種退化是由單模光纖中的雙折射現象引起的。雙折射可能導致攜帶振動信息的瑞利散射光與參考光的偏振狀態不匹配[20]。
原理
輸入圖像下采樣后得到的特征圖中的不同通道對應于不同的對象。通道注意力模型明確捕捉了通道之間的相互依賴性,通過網絡適應學習每個通道的重要性,并為每個通道分配不同的權重。這一過程增強了重要特征并抑制了不必要的特征。
如圖5所示,擠壓和激勵代表了兩個基本步驟
數據集的獲取
在實驗階段,通過使用吹風機隨機向傳感器光纖吹氣來模擬風噪聲;通過敲擊附近的光纜來模擬人為沖擊事件;通過挖掘埋藏的光纜上方的土壤來模擬挖掘事件。最終的數據采集設備收集了包含500個不同的風噪聲樣本、540個人為敲擊樣本和580個
訓練過程有效性分析
圖8展示了Mambaout架構模型在一個周期內的時間、訓練損失、驗證損失、訓練準確率變化以及總周期數=150時的變化。圖8(b)和(c)中的訓練曲線闡明了三種模型在動態學習率調度機制下的階段性學習特征。由于模型架構的差異
方法論和架構比較
為了說明這種增強RP的有效性,本研究采用了比較實驗設計,利用了不同的處理方法,并共享了數據集。實驗設計包括對三種不同處理方法的系統比較,包括處理時間、訓練過程有效性和最終測試結果。RP、Gram角場(GAF)和馬爾可夫轉移場(MTF)[11]、[14]。此外,為了提供額外的證據
SE與D-SE的性能-復雜性權衡
雖然D-SE相比SE引入了額外的計算,但其優勢在于減少了關鍵誤分類,而不僅僅是整體準確率。表14顯示了SE-MambaOut和D-SE-MambaOut在測試集上的成本-性能比較。在測試集上,D-SE的準確率從94.8%提高到95.6%,宏觀F1分數從94.863%提高到95.627%,同時錯誤總數從14個減少到11個(相對減少了21%)。這種改進主要來自于挖掘
結論
本文提出了一種用于分類多種振動信號的新方法,該方法基于Mambaout創新設計。SENet架構經過優化并與Mambaout結合形成了SE-Mambaout。此外,還設計了D-SENet模塊以支持雙通道輸入,從而實現了弱增強和強增強,最終形成了D-SE-Mambaout。實驗結果是在NVIDIA RTX 4080環境下獲得的,包含三種類型的1620個樣本
CRediT作者貢獻聲明
劉念超:寫作 – 審稿與編輯,撰寫 – 原始草稿,可視化,驗證,監督,軟件,資源,項目管理,方法論,調查,形式分析,數據整理,概念化。胡梓霞:驗證。趙一鳴:驗證。劉宏偉:驗證。王煥:驗證。楊然:驗證。梁勝:寫作 – 審稿與編輯,資金獲取,概念化。
利益沖突聲明
作者聲明他們沒有已知的競爭性財務利益或個人關系可能會影響本文報告的工作。
生物通微信公眾號
生物通新浪微博
今日動態 |
人才市場 |
新技術專欄 |
中國科學人 |
云展臺 |
BioHot |
云講堂直播 |
會展中心 |
特價專欄 |
技術快訊 |
免費試用
版權所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
聯系信箱:
粵ICP備09063491號