<tt id="vwe5b"></tt>
      1. <tfoot id="vwe5b"><progress id="vwe5b"></progress></tfoot><abbr id="vwe5b"></abbr>

      2. 91人人妻,99偷拍,碰碰免费视频,亚洲中文字幕AV,丝袜a片,91纯肉动漫,中文无码日,伊人福利导航

        一種基于預訓練卷積神經網絡(CNN)的擴散框架,結合顏色傳輸技術用于低光照圖像增強

        《Digital Signal Processing》:A Pretrained CNN-Guided Diffusion Framework with Color Transfer for Low-Light Image Enhancement

        【字體: 時間:2026年03月02日 來源:Digital Signal Processing 3

        編輯推薦:

          低光圖像增強框架融合預訓練CNN與擴散模型,通過多光譜注意力機制提升細節恢復,并采用顏色傳輸機制糾正擴散生成的色調偏移,實驗驗證其有效性和優越性。

          
        涂俊芳|李偉|趙永燦|張坤彥
        河南大學人工智能學院,鄭州,450046,中國

        摘要

        本文提出了一種低光照圖像增強模型,該模型將預訓練的卷積神經網絡(pretrained CNN)與擴散模型相結合,并結合顏色傳遞機制來優化顏色一致性。該模型旨在提高低光照圖像的亮度和對比度,同時增強細節并保持自然色彩的真實性。首先,預訓練的CNN階段對原始低光照圖像的結構和顏色特征進行初步重建,為顏色傳遞提供先驗信息。接下來,預訓練CNN的輸出作為擴散模型的條件約束,指導其生成與條件輸入相對應的高質量增強圖像,從而恢復圖像細節。最后,為了解決擴散模型輸出中常見的色調偏移問題,引入了顏色傳遞機制,將預訓練CNN階段的顏色分布映射到擴散生成的圖像上,以提高整體顏色一致性。在真實世界的低光照公共數據集上的實驗結果表明,所提出的方法在細節恢復和顏色真實性方面具有明顯優勢,驗證了該框架的有效性和先進性。

        引言

        在現實世界中,經常遇到光照不足的場景,如夜間環境、光線昏暗的室內環境或背光場景[1]。在這些條件下,明亮區域和暗區域之間的亮度分布被壓縮,導致圖像呈現模糊或褪色的視覺效果[2]。這種現象不僅會模糊物體邊界,還會影響細部紋理的表示[3]。特別是在陰影區域或遠景背景中,目標物體難以區分。由于圖像的高頻成分集中了關鍵的視覺元素(如紋理和邊緣),因此在低光照條件下有限的曝光或傳感器性能不足,使得捕捉這些信息變得困難[4]。因此,低光照圖像通常表現出紋理減弱和邊緣輪廓缺失的問題,這嚴重削弱了增強算法的結構恢復能力。
        傳統的低光照圖像增強(LLIE)方法[5]、[6]、[7]、[8]、[9]、[10]在恢復場景亮度、調整對比度和增強細節方面有不同的側重點。基于Retinex理論和直方圖均衡化的技術旨在通過物理建模來改善亮度[11]。雖然這些方法在全局照明增強方面有效,但往往缺乏局部適應性,可能導致過度曝光或視覺失真。非線性增強方法,如Gamma校正和對數變換,使用固定的數學公式重新映射像素強度,從而放大較暗區域并提高局部對比度。然而,它們的全局性質限制了靈活性,難以同時平衡圖像中的明亮區域和暗區域。專注于細節恢復的方法,如拉普拉斯增強和保持邊緣的濾波,通常被納入基于融合的策略中,以銳化圖像細節并抑制噪聲。盡管這些技術在計算上簡單且邊緣增強效果顯著,但它們依賴于數值控制機制,這限制了增強的程度和平滑效果,最終限制了它們恢復復雜場景結構的能力。
        深度學習技術的出現解決了傳統LLIE方法中的一些固有局限性。通過將經典物理模型與數據驅動的方法相結合,如LLNet[12]和MBLEN[13]等研究不僅提高了圖像亮度,還顯著增強了場景結構的恢復。基于深度學習的低光照增強方法通常使用卷積神經網絡(CNN)或生成對抗網絡(GAN)[14],利用端到端訓練框架直接從低光照圖像中提取特征并進行增強。這些方法在亮度和對比度增強方面表現出強大的性能,并且也有助于提高視覺質量[15]。然而,大多數當前的深度學習方法本質上依賴于圖像擬合策略。直接在低光照退化的數據上進行訓練可能會在學習過程中引入不穩定性,可能導致過擬合問題。因此,這些模型在極低光照條件下往往難以恢復嚴重退化或缺失的結構信息。
        近年來,擴散概率模型在各種圖像合成和恢復任務中展示了出色的生成能力。通過利用漸進式去噪過程,這些模型能夠生成富含結構和紋理細節的高質量圖像。為了解決極低光照下常見的結構退化和紋理模糊問題,我們將LLIE重新定義為一種條件圖像生成任務[16]、[17]。目標是在不利光照條件下推斷和重建可能缺失的場景細節和微妙的結構信息。基于這一框架,我們提出了一種結合預訓練照明先驗和條件擴散模型的LLIE框架。在預訓練階段,我們對原始低光照圖像進行初步的結構和照明恢復,以獲得顏色先驗,并作為后續擴散過程的條件和輸入。盡管預訓練網絡使用局部卷積濾波器有效地建模空間信息,但其捕捉全局結構關系和幾何一致性的能力仍然有限。這在極暗區域尤為明顯,卷積神經網絡(CNN)難以恢復物體輪廓和細紋理,導致輸出模糊并帶有殘余噪聲——這種現象類似于低分辨率圖像場景中遇到的問題。因此,我們從圖像超分辨率方法中汲取靈感,優化條件擴散模型,解決深度學習基LLIE方法中常見的過度增強和紋理模糊問題。最后,為了減輕基于擴散的圖像生成中的固有顏色偏差[18],我們將預訓練階段獲得的顏色先驗轉移到擴散模型的輸出中,從而恢復合理且一致的顏色外觀。本工作的主要貢獻可以總結如下:
        1. 我們提出了一種新穎的級聯框架,將預訓練的CNN與擴散模型相結合。CNN提供了必要的結構和照明先驗,以指導基于擴散的增強,顯著提高了輸出的穩定性和可控性。此外,我們引入了一種多光譜注意力機制,明確增強了高頻細節的恢復,以最小的計算開銷提升了紋理真實性。
        2. 為了確保顏色的真實性,我們設計了一種顏色先驗傳遞策略,將預訓練CNN中的可靠顏色分布適應到擴散輸出中,有效校正色調偏差并保持自然顏色一致性。

        章節摘錄

        傳統的LLIE方法

        LLIE是圖像增強領域中的一個關鍵研究方向。傳統的LLIE方法主要是非學習型的方法,依賴于手工制作的圖像處理策略,如直方圖均衡化、Gamma校正和Retinex理論[5]、[6]。這些技術通過操縱像素分布來增強圖像的亮度和對比度。例如,直方圖均衡化和Gamma校正通過擴展動態范圍來改善整體視覺感知

        總結

        我們提出的模型的整體架構如圖1所示。預訓練的輸出Pcnn作為前向擴散過程的起點x0,逐漸添加高斯噪聲以獲得完全噪聲化的圖像xT。在反向過程中,U-Net根據當前輸入xt在每個時間步t預測噪聲?θ,并逐步將其去除。同時,Pcnn作為條件先驗來指導去噪過程。

        實驗設置和數據集

        我們首先獨立訓練預訓練的CNN,使用Adam優化器進行優化,初始學習率為1×10?4,批量大小為200,訓練周期為15個周期。為了確保預訓練階段的穩定性和可靠性,我們對損失權重參數αβ進行了敏感性分析,這些參數平衡了LpsdLcolor的貢獻。具體來說,αβα?∈?{0.1, 0.2, 0.3}和β?∈?{0.1, 0.2, 0.3, 0.5}的范圍內變化。(圖3)可視化了增強結果

        結論和未來工作

        本文提出了一種新穎的LLIE框架,該框架將預訓練的CNN與擴散模型相結合,并融入了專門的顏色傳遞機制。所提出的方法解決了低光照增強中常見的細節丟失和顏色失真問題。傳統的基于CNN的方法通常會產生過度平滑的輸出,紋理細節不足,而基于擴散的方法可能會引入顏色偏移和內容不一致性。

        CRediT作者貢獻聲明

        涂俊芳:概念化、方法論、寫作——原始草稿、可視化。李偉:方法論、監督。趙永燦:寫作——審閱與編輯、驗證。張坤彥:軟件、可視化、調查。

        利益沖突聲明

        我們聲明與任何可能不恰當地影響我們工作的人或組織沒有財務和個人關系,對于任何產品、服務和/或公司沒有專業或其他性質的興趣,這些產品、服務和/或公司可能會影響本文所述觀點或對手稿“用于低光照圖像增強的預訓練CNN引導的擴散框架與顏色傳遞”的評審。
        相關新聞
        生物通微信公眾號
        微信
        新浪微博
        • 搜索
        • 國際
        • 國內
        • 人物
        • 產業
        • 熱點
        • 科普

        知名企業招聘

        熱點排行

          今日動態 | 人才市場 | 新技術專欄 | 中國科學人 | 云展臺 | BioHot | 云講堂直播 | 會展中心 | 特價專欄 | 技術快訊 | 免費試用

          版權所有 生物通

          Copyright© eBiotrade.com, All Rights Reserved

          聯系信箱:

          粵ICP備09063491號