<tt id="vwe5b"></tt>
      1. <tfoot id="vwe5b"><progress id="vwe5b"></progress></tfoot><abbr id="vwe5b"></abbr>

      2. 91人人妻,99偷拍,碰碰免费视频,亚洲中文字幕AV,丝袜a片,91纯肉动漫,中文无码日,伊人福利导航

        VoMarkSplat:一種基于補丁和多卷積投票機制的魯棒水印技術,適用于3D高斯散射算法

        《Pattern Recognition Letters》:VoMarkSplat: Robust Watermarking for 3D Gaussian Splatting with Patch and Multi-Convolutional Voting

        【字體: 時間:2026年02月28日 來源:Pattern Recognition Letters 3.3

        編輯推薦:

          3D高斯splatting的版權保護方法,提出基于多數投票的框架VoMarkSplat,通過空間塊和多層卷積生成冗余證據,結合兩階段課程學習提升魯棒性和視覺質量,實驗顯示抗攻擊能力提升至96.29%并保持高保真。

          
        熊天宇|李林杰|李瑞|楊佳琪|張彥寧
        中國山西省西安市長安區東鄉路西北工業大學計算機科學系,郵編710129

        摘要

        3D高保真內容創建中3D高斯散射(3DGS)的興起迫切需要強大的版權保護方法。盡管現有技術可以嵌入不可見的水印,但其提取過程通常依賴于對渲染圖像的單一整體分析,這使它們容易受到常見的圖像失真和局部攻擊的影響。為了解決這個問題,我們提出了VoMarkSplat,這是一種新的水印框架,它采用了多數投票范式來實現強大的水印提取。我們的框架提出了兩種投票方案:一種是基于補丁的方法,利用空間冗余來抵御局部攻擊;另一種是多卷積方法,通過使用多種空間濾波器利用不同頻率帶的冗余,從而對全局失真具有抵抗力。為了最大化這些方案的有效性,我們進一步引入了兩階段課程訓練策略。該方法首先通過簡單示例的自定進度熱身來穩定學習,然后將模型集中在最具挑戰性的案例上,以最大化視覺保真度和信息準確性。廣泛的實驗表明,VoMarkSplat樹立了新的行業標準,提高了對各種攻擊的抵抗力——例如,在聯合攻擊下的準確率從93.38%提高到96.29%——同時實現了最高的比特精度(48位信息的精度為99.90%)和卓越的視覺保真度(16位信息的PSNR超過47分貝)。

        引言

        3D表示是計算機視覺和圖形學中的前沿技術,在電影制作、游戲開發和虛擬現實等多個領域發揮著重要作用。[1]該領域最有前景的方法之一是3DGS[2],它以其高保真度和實時渲染速度[3]、[4]、[5]徹底改變了3D內容創建。然而,隨著高價值的3DGS資產變得越來越容易獲取,未經授權使用的風險對創作者構成了重大威脅。這就提出了一個緊迫的問題:我們如何設計一種專門針對3DGS的強大版權保護方法?一種有效的策略是直接將秘密信息(即水印)嵌入3DGS模型中。一個成功的水印框架必須是安全的、不可見的,并且支持足夠的信息容量。至關重要的是,它還必須具有魯棒性:即使在渲染圖像經歷了壓縮、噪聲或裁剪等常見失真后,信息也必須能夠被準確提取。
        像GuardSplat[6]這樣的最新方法在效率和容量方面取得了顯著進展,特別是通過使用預訓練的CLIP引導解碼器[7]。然而,這些方法有一個根本的弱點:它們將渲染圖像視為一個單一的整體證據。它們的魯棒性主要依賴于使用數據增強來訓練單一解碼器。在推理時,它們仍然對整個圖像進行整體分析。這種對單一提取路徑的依賴在面臨挑戰性攻擊時成為了一個弱點;如果關鍵的全局特征被破壞,整個解碼過程可能會失敗,因為沒有機制可以從圖像中未受影響的部分形成共識。
        我們工作的核心見解是,一個帶有水印的圖像不僅僅是一個證據,而是一系列冗余證據的集合。水印信號不是孤立于一個點,而是分布在整個圖像中——在不同的空間區域和不同的頻率帶上。基于這一見解,我們將水印提取從一個脆弱的解碼任務重新定義為一個強大的共識問題。我們不是依賴一個“專家”的意見,而是詢問:我們能否從同一圖像中收集多個獨立的“證人”的意見,并使用他們的集體共識來確定真實的信息?
        在本文中,我們介紹了VoMarkSplat,這是一個通過多數投票范式實現這一原則的新框架,如圖1所示。我們從單個渲染視圖生成多個獨立的“投票”,并通過共識來確定最終信息,有效地過濾掉由局部或全局失真引起的錯誤。我們提出了兩種互補的方案來生成這些投票。第一種方案是空間投票,它將圖像劃分為一個補丁網格,每個補丁作為一個獨立的證人,從而對裁剪或遮擋等局部攻擊具有抵抗力。第二種是多卷積投票,它使用一組多樣的卷積濾波器(例如,作為低通和高通濾波器)處理圖像。由于不同的圖像失真(如模糊或噪聲)會破壞特定的頻率帶,每個過濾后的版本都提供了一個光譜上不同的“投票”,從而對這些攻擊具有抵抗力。
        為了確保水印足夠強大,能夠被這種共識過程檢測到,我們進一步引入了兩階段課程(TSC)訓練策略。該課程首先通過訓練簡單示例來建立穩定的基礎,然后再專注于最困難的案例。這迫使模型學習一種在最具有挑戰性的視圖和最困難的條件下仍然穩健存在的嵌入。正如我們的實驗所證明的,這種方法樹立了新的行業標準。VoMarkSplat實現了48位信息的99.90%比特精度,將視覺保真度提高到超過47 dB PSNR,并且最重要的是,將對抗聯合攻擊的抵抗力從93.38%顯著提高到了96.29%。
        總結來說,我們的主要貢獻包括:
      3. 我們提出了一種強大的水印范式,它從單個渲染圖像中的多個證據中構建共識,超越了對單一整體分析的依賴。
      4. 我們介紹了VoMarkSplat,這是一個具有兩種新穎投票方案的框架:一種基于空間補丁以實現局部魯棒性,另一種使用多尺度卷積以實現光譜魯棒性。為此,我們還提出了一種有效的TSC訓練策略。
      5. 我們的方法樹立了新的行業標準,在比特精度、視覺保真度以及對各種攻擊的抵抗力方面顯著優于現有工作。
      6. 相關研究

        相關工作

        3D表示。3D場景表示領域由于神經輻射場(NeRF)[8]的發展而取得了顯著進步,NeRF使用多層感知器(MLP)從圖像中學習場景的隱式函數。在體積渲染[9]和alpha合成[10]的基礎上,NeRF激發了大量針對稀疏視圖重建[11]、[12]、加速[13]、生成建模[14]和文本到3D合成[15]、[16]的工作。最近,3DGS[2]作為一個

        預備知識

        我們的工作基于3DGS進行場景表示,并采用了CLIP引導的水印策略。

        方法

        在GuardSplat的基礎上,VoMarkSplat引入了一種以多數投票共識為中心的強大水印提取新范式。雖然我們采用了預訓練的CLIP引導解碼器和SH感知信息嵌入的核心概念,但我們提出了兩種新的投票方案來提高對失真的抵抗力。此外,我們通過兩階段課程學習來增強優化過程,以訓練出更強的魯棒性和保真度。我們的框架概述如下

        實驗

        我們進行了一系列實驗來驗證我們提出框架的有效性。我們的評估旨在回答三個關鍵問題:(1)VoMarkSplat在信息容量、視覺保真度和抵抗力方面與現有最先進方法的性能如何?(2)我們提出的組件(投票方案和課程學習策略)各自的貢獻是什么?(3)我們的多卷積投票方案的最佳配置是什么?

        結論

        在本文中,我們介紹了VoMarkSplat,這是一種針對3DGS的新水印框架,解決了提取抵抗力的關鍵挑戰。我們的核心貢獻是從單一整體分析轉向多數投票范式。通過從多個證據中構建共識——無論是來自空間補丁以對抗局部攻擊,還是來自多尺度卷積以處理全局失真——我們的方法能夠從損壞的視圖中穩健地恢復水印。

        CRediT作者貢獻聲明

        熊天宇:撰寫——原始草稿、可視化、驗證、軟件、項目管理、方法論、調查、形式分析、數據管理、概念化。李林杰:撰寫——審閱與編輯。李瑞:撰寫——審閱與編輯、監督。楊佳琪:撰寫——審閱與編輯、監督。張彥寧:撰寫——審閱與編輯、監督。

        利益沖突聲明

        作者聲明他們沒有已知的競爭性財務利益或個人關系可能影響本文報告的工作。

        致謝

        這項工作部分得到了中國國家自然科學基金(編號62372377)的支持
        相關新聞
        生物通微信公眾號
        微信
        新浪微博
        • 搜索
        • 國際
        • 國內
        • 人物
        • 產業
        • 熱點
        • 科普

        知名企業招聘

        熱點排行

          今日動態 | 人才市場 | 新技術專欄 | 中國科學人 | 云展臺 | BioHot | 云講堂直播 | 會展中心 | 特價專欄 | 技術快訊 | 免費試用

          版權所有 生物通

          Copyright© eBiotrade.com, All Rights Reserved

          聯系信箱:

          粵ICP備09063491號