基于自適應對象NDWI閾值分割的多光譜遙感圖像淺水區域提取方法
《Computers & Geosciences》:Shallow water area extraction method for multispectral remote sensing imagery based on adaptive object NDWI thresholding
【字體:
大
中
小
】
時間:2026年03月02日
來源:Computers & Geosciences 4.4
編輯推薦:
淺水區提取方法基于自適應對象NDWI閾值,通過SLIC超像素分割降低噪聲影響,結合區域生長算法優化結果,有效提取多光譜遙感圖像中島嶼及近岸淺水區,實驗表明精度優于傳統算法。
董志鵬|劉彥雄|馮一凱|郭凱|陳一蘭|王彥莉
自然資源部第一海洋研究所,青島,266061,中國
摘要
從多光譜遙感圖像中提取淺水區域是衛星導出的水深測量(SDB)的關鍵組成部分。針對淺水區域圖像易受噪聲影響以及難以準確設置光譜提取閾值的問題,本文提出了一種基于自適應對象NDWI閾值的多光譜遙感圖像淺水區域提取方法。首先,使用簡單線性迭代聚類算法對圖像進行分割以生成超像素對象,并計算每個對象的歸一化差異水指數(NDWI)。其次,基于對象自適應閾值計算算法獲得淺水區域的最佳NDWI閾值,并根據最佳NDWI閾值提取初始淺水區域。最后,使用區域生長算法對初始淺水區域進行細化。本文提出的方法與一些先進的淺水區域提取方法進行了比較,實驗對象為六個島嶼和近岸區域,在不同的環境條件下進行測試。實驗結果表明,該方法優于其他淺水區域提取方法,能夠準確提取不同環境條件下的島嶼和沿海區域的淺水區域。
引言
近岸和島嶼是人類活動最集中的區域。它們的淺水地理空間數據為海洋科學研究、海洋工程和海洋軍事提供了重要基礎(He等人,2025;Dong等人,2025;Li等人,2025)。由于遙感衛星具有觀測范圍廣、重訪周期短和成本低的優點,衛星導出的水深測量(SDB)已成為獲取淺水地理空間數據的重要手段(Ma等人,2020;Zhang等人,2022)。在SDB過程中,從多光譜遙感圖像中提取淺水區域是一個關鍵步驟(Zhu等人,2025)。如何準確高效地提取淺水區域對SDB的準確性有重要影響。
遙感圖像的水體提取方法可分為兩類:傳統的水體提取算法和基于深度學習的提取算法(Li等人,2022c)。傳統的水體算法通常需要手動設計的水體指數,然后利用這些指數從遙感圖像中提取水體區域。常用的水體指數包括歸一化差異水指數(NDWI)(Mcfeeters,1996)、改進的NDWI(MNDWI)(Xu,2006)和對比差異水指數(CDWI)(Li等人,2021a)。傳統的水體提取算法可以從遙感圖像中獲得可接受的水體提取結果(Jiang等人,2021)。然而,這些算法對圖像噪聲和水體指數閾值敏感,導致魯棒性和通用性較差。
卷積神經網絡(CNN)是最流行的深度學習模型。許多基于CNN的遙感圖像水體提取研究已經開展(Li等人,2022a;Farooq和Manocha,2025;Nagaraj和Kumar,2024;Cao等人,2024)。例如,Li等人(2021b)設計了一種密集局部特征壓縮網絡來從不同類型的遙感圖像中提取水體。Wang等人(2020a)提出了一種結合Google Earth Engine和多尺度卷積神經網絡的方法,從Landsat圖像中提取城市水體。Li等人(2022b)將NDWI與無監督深度學習結合,實現了從高分圖像數據集、Sentinel-2和Landsat圖像中準確提取水體。Liu等人(2024)提出了基于ResNet50和三種注意力機制的R50A3-LWBENet網絡模型,用于從遙感圖像中提取湖泊水體。Luo等人(2022)采用假彩色處理和生成對抗網絡(GAN)來重建遙感圖像,然后使用改進的DeepLabV3+從重建的遙感圖像中提取水體。Kang等人(2021)設計了一種多尺度上下文提取網絡,用于從高分辨率光學遙感圖像中劃分水體。該網絡框架包括三個關鍵組件:多尺度特征編碼器、上下文特征提取模塊和特征解碼器。Zhong等人(2022)提出了一種噪聲消除變換網絡,用于自動從遙感圖像中提取湖泊水體。在該網絡中,設計了一個干擾衰減模塊來解決水體提取過程中非湖泊對象過度分割的問題。Li等人(2021c)提出了一種基于改進的U-Net模型的無人機高分辨率遙感數據城市水體提取方法。Sun等人(2024)改進了Xception模塊用于低級特征提取,并利用密集連接的空間金字塔池化(ASPP)模塊將多尺度數據融合到DeepLabV3+中的高級特征中。Qin等人(2022)采用改進的U-Net卷積神經網絡從珠海-1衛星高光譜遙感圖像中提取小型水體。Li等人(2019)采用全卷積網絡(FCN)從非常高空間分辨率的遙感圖像中提取水體。Wang等人(2020b)設計了一種端到端可訓練的模型,稱為多尺度湖泊水體提取網絡(MSLWENet),用于從遙感圖像中提取湖泊水體。MSLWENet使用殘差模塊和多尺度連接來提高湖泊水體提取的準確性。總體而言,基于CNN的遙感圖像水體提取算法在不同場景下可以獲得良好的水體提取結果,其魯棒性和通用性優于基于手動設計特征的傳統水體提取算法(Kang等人,2023;Wang等人,2021;Feng等人,2019)。然而,現有的基于CNN的水體提取算法僅區分水體和非水體,無法進一步區分淺水區域(水深不超過20米)和深水區域(水深大于20米)。SDB通常需要從遙感圖像中獲取淺水區域,然后對淺水區域進行水深反演。此外,目前還沒有公開的遙感圖像淺水區域提取數據集。因此,關于基于CNN的遙感圖像淺水區域提取的研究有限。
目前,在SDB過程中使用視覺解釋和基于NDWI的方法從遙感圖像中提取淺水區域(Le等人,2022;Xie等人,2023;Cao等人,2023;Li等人,2023;Xu等人,2024)。視覺解釋在提取淺水區域方面具有較高的準確性,但效率較低且自動化程度較低。基于NDWI的方法對圖像噪聲敏感,其提取淺水區域的準確性高度依賴于NDWI閾值。然而,最佳NDWI閾值往往難以獲得。
針對淺水區域圖像易受噪聲影響以及難以準確設置NDWI閾值的問題,本文提出了一種基于自適應對象NDWI閾值的多光譜遙感圖像淺水區域提取方法。在提出的方法中,使用簡單線性迭代聚類(SLIC)算法對圖像進行分割以生成超像素對象(Achanta等人,2012),從而消除了圖像噪聲對淺水區域提取的影響。然后,提出了一種基于對象的自適應NDWI閾值計算算法,以解決獲取最佳NDWI閾值的問題。與僅區分水體和陸地的傳統水體指數閾值計算方法不同(Günen和Atasever,2024),該方法首次使用SLIC超像素對象作為基本單元,并采用兩階段逐步過程來獲得淺水區域的最佳提取指數閾值。該閾值計算方法不需要初始參數設置,表現出出色的魯棒性和通用性。此外,與傳統的基于像素的處理方法相比,使用SLIC超像素對象作為基本單元消除了圖像噪聲的影響,并顯著降低了計算復雜性,提高了效率。
本文的創新和貢獻如下:
1)提出了一種基于對象的NDWI自適應閾值計算算法,以獲得不同場景下淺水區域的最佳NDWI閾值。
2)提出了一種基于自適應對象NDWI閾值的多光譜遙感圖像淺水區域提取方法。
3)在不同環境條件下,可以準確提取島嶼和近岸周圍的淺水區域。
本文的其余部分組織如下。第2節詳細描述了所提出方法的關鍵步驟的原理和實現過程。第3節介紹了實驗區域和數據,并分析和討論了實驗結果。第4節總結了所提出方法的結果,并討論了未來的研究計劃。
方法論
所提出的方法包括三個主要步驟。首先,對圖像進行分割以生成一些對象。然后計算基于對象的最佳NDWI閾值。最后,根據最佳對象NDWI閾值獲得初始淺水區域提取結果。實施所提出方法的整體流程圖如下(圖1)。
結果
為了全面驗證所提出方法的有效性,使用多種不同類型的沿海和島嶼礁石區域,將所提出的方法與一些先進的淺水區域提取算法進行了定性和定量比較實驗。
結論
針對淺水區域圖像易受噪聲影響以及難以準確設置NDWI閾值的問題,本文提出了一種基于自適應對象NDWI閾值的多光譜遙感圖像淺水區域提取方法。在提出的方法中,使用對象作為基本單元來克服圖像噪聲對淺水區域提取的影響。
作者貢獻聲明
董志鵬:撰寫 – 原稿編寫、可視化、驗證、方法論、調查、正式分析、數據管理、概念化。劉彥雄:撰寫 – 審稿與編輯、監督、資源管理、項目管理、調查、資金獲取。馮一凱:撰寫 – 審稿與編輯、監督。郭凱:正式分析、數據管理。陳一蘭:可視化、驗證。
代碼可用性
代碼/庫名稱:SWAExtractionV2。
硬件要求:配備Intel(R) Core(TM) i7-9750H CPU(2.60 GHz/2.59 GHz)的計算機。
編程語言:C++
所需軟件:Visual Studio。
程序大小:9.67 MB。
利益沖突聲明
作者聲明他們沒有已知的競爭性財務利益或個人關系可能影響本文所述的工作。
致謝
本工作部分得到了國家自然科學基金(項目編號42404056)、國家公共研究機構基本科學基金(項目編號2025Q03)、山東省自然科學基金(項目編號ZR2025MS651和ZR2023QD113)、自然資源部海洋空間資源管理技術重點實驗室(項目編號KF-2025-105)以及海洋等重點實驗室的支持。
生物通微信公眾號
生物通新浪微博
今日動態 |
人才市場 |
新技術專欄 |
中國科學人 |
云展臺 |
BioHot |
云講堂直播 |
會展中心 |
特價專欄 |
技術快訊 |
免費試用
版權所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
聯系信箱:
粵ICP備09063491號