<tt id="vwe5b"></tt>
      1. <tfoot id="vwe5b"><progress id="vwe5b"></progress></tfoot><abbr id="vwe5b"></abbr>

      2. 91人人妻,99偷拍,碰碰免费视频,亚洲中文字幕AV,丝袜a片,91纯肉动漫,中文无码日,伊人福利导航

        用于解析類增量學(xué)習(xí)的局部自適應(yīng)補(bǔ)償方法

        《Neural Networks》:Locally Adaptive Compensation for Analytic Class-Incremental Learning

        【字體: 時(shí)間:2026年03月02日 來(lái)源:Neural Networks 6.3

        編輯推薦:

          針對(duì)類增量學(xué)習(xí)中的災(zāi)難性遺忘和穩(wěn)定性-可塑性權(quán)衡問(wèn)題,本文提出基于局部自適應(yīng)補(bǔ)償?shù)腖ACL方法,在解析類增量學(xué)習(xí)(ACIL)框架中引入鄰域感知的特征精煉補(bǔ)償機(jī)制,通過(guò)動(dòng)態(tài)利用局部鄰域特征增強(qiáng)表示魯棒性,有效緩解欠擬合問(wèn)題。實(shí)驗(yàn)表明LACL在CIFAR-100、ImageNet-100和ImageNet-Full上顯著優(yōu)于現(xiàn)有無(wú)示例方法,并隨增量階段增加優(yōu)勢(shì)增強(qiáng)。

          
        陳浩遠(yuǎn)|史諾貝|陳玲|李 Raymond S.T.
        中國(guó)珠海:北京師范大學(xué)-香港浸會(huì)大學(xué)數(shù)據(jù)科學(xué)跨學(xué)科研究與應(yīng)用廣東省重點(diǎn)實(shí)驗(yàn)室

        摘要

        類增量學(xué)習(xí)(Class-Incremental Learning, CIL)任務(wù)具有特殊性挑戰(zhàn)性,因?yàn)槿狈v史數(shù)據(jù),這通常會(huì)導(dǎo)致嚴(yán)重的災(zāi)難性遺忘,并使得模型在穩(wěn)定性和可塑性之間難以找到平衡。最近的分析型類增量學(xué)習(xí)(Analytic Class-Incremental Learning, ACIL)方法通過(guò)封閉形式更新來(lái)應(yīng)對(duì)遺忘問(wèn)題,但仍然容易過(guò)擬合且表示靈活性有限。為了克服這些限制,我們提出了局部自適應(yīng)補(bǔ)償學(xué)習(xí)(Locally Adaptive Compensation Learning, LACL)框架,該框架通過(guò)引入鄰域感知的補(bǔ)償機(jī)制來(lái)增強(qiáng)ACIL的效果。通過(guò)利用局部鄰域表示,LACL增強(qiáng)了補(bǔ)償過(guò)程,從而提高了表示的魯棒性,減少了過(guò)擬合現(xiàn)象,并更好地管理了穩(wěn)定性和可塑性之間的權(quán)衡。整個(gè)方法以封閉形式的遞歸方式構(gòu)建,保持了可解釋性和理論嚴(yán)謹(jǐn)性。在CIFAR-100、ImageNet-100和ImageNet-Full數(shù)據(jù)集上的實(shí)驗(yàn)表明,LACL在無(wú)樣本方法中實(shí)現(xiàn)了最先進(jìn)的性能,并且隨著增量階段的增加,其優(yōu)勢(shì)越來(lái)越明顯。我們的代碼可訪問(wèn)于:https://github.com/origi6615/lacl

        引言

        類增量學(xué)習(xí)(Class-Incremental Learning, CIL)是由Rebuffi等人(2017年)和Zhang等人(2020年)提出的一種學(xué)習(xí)范式,其中模型通過(guò)多個(gè)階段逐步進(jìn)行訓(xùn)練,每個(gè)階段引入一組新的、不相交的類別。這種設(shè)置因其實(shí)際應(yīng)用價(jià)值而受到越來(lái)越多的關(guān)注,尤其是在模型需要不斷適應(yīng)新類別而無(wú)需從頭開(kāi)始重新訓(xùn)練的情況下。CIL減少了重復(fù)訪問(wèn)整個(gè)數(shù)據(jù)集的需求,使得學(xué)習(xí)更加高效和可持續(xù)。它特別適用于數(shù)據(jù)和標(biāo)簽以時(shí)間或空間分布方式出現(xiàn)的現(xiàn)實(shí)世界環(huán)境。從概念上講,CIL類似于人類的學(xué)習(xí)過(guò)程,即個(gè)體在保留先前所學(xué)知識(shí)的同時(shí)逐步獲取新知識(shí)。
        盡管CIL具有許多優(yōu)勢(shì),但它面臨兩個(gè)根本性挑戰(zhàn):災(zāi)難性遺忘(Belouadah等人,2021年)和穩(wěn)定性-可塑性困境(Zhuang等人,2024年)。災(zāi)難性遺忘指的是模型在學(xué)習(xí)新任務(wù)后迅速丟失先前獲得的知識(shí),導(dǎo)致性能顯著下降。穩(wěn)定性-可塑性困境則是指在有效適應(yīng)新信息的同時(shí)保持先前知識(shí)的難度。
        現(xiàn)有的類增量學(xué)習(xí)方法可以根據(jù)其主要緩解災(zāi)難性遺忘的機(jī)制進(jìn)行分類。大致上,這些方法可以分為三類:基于偏差校正的方法、基于正則化的方法和基于重放的方法。基于偏差校正的方法主要通過(guò)輸出校準(zhǔn)或分類器重新平衡來(lái)減輕由于增量階段間類別不平衡造成的任務(wù)新鮮度偏差。基于正則化的方法限制了對(duì)過(guò)去任務(wù)中重要參數(shù)或激活值的更新,從而優(yōu)先考慮穩(wěn)定性。然而,這些限制不可避免地限制了學(xué)習(xí)新任務(wù)的靈活性,降低了模型的可塑性。基于重放的方法會(huì)存儲(chǔ)一部分過(guò)去樣本(示例),并在訓(xùn)練過(guò)程中重新使用這些樣本以強(qiáng)化先前知識(shí)。雖然有效,但它們引入了額外的內(nèi)存開(kāi)銷和潛在的數(shù)據(jù)隱私風(fēng)險(xiǎn)。
        最近,分析型類增量學(xué)習(xí)(Analytic Class-Incremental Learning, ACIL)作為一種有前景的替代方案被提出。ACIL將CIL重新構(gòu)建為封閉形式的遞歸更新,無(wú)需存儲(chǔ)歷史數(shù)據(jù)即可解決災(zāi)難性遺忘問(wèn)題。具體來(lái)說(shuō),ACIL首先使用反向傳播(Backpropagation, BP)在基礎(chǔ)階段訓(xùn)練一個(gè)主干網(wǎng)絡(luò),然后通過(guò)遞歸范式逐階段逐步訓(xùn)練線性分類器。這種遞歸范式利用了Guo等人(2001年)和Zhuang等人(2021年)提出的分析學(xué)習(xí)方法,這些方法使用封閉形式解訓(xùn)練網(wǎng)絡(luò),并具有權(quán)重不變性。這意味著每個(gè)階段遞歸訓(xùn)練的權(quán)重與同時(shí)使用全部數(shù)據(jù)訓(xùn)練的權(quán)重相同。然而,現(xiàn)有的分析方法仍然存在過(guò)擬合問(wèn)題,并且仍然受到穩(wěn)定性-可塑性困境的制約,主要是因?yàn)樗鼈儍H依賴于靜態(tài)的線性投影和映射。
        在這項(xiàng)工作中,我們提出了局部自適應(yīng)補(bǔ)償學(xué)習(xí)(Locally Adaptive Compensation Learning, LACL),它是分析型CIL的擴(kuò)展,增加了鄰域感知的特征細(xì)化作為額外的補(bǔ)償機(jī)制。通過(guò)利用每個(gè)階段內(nèi)的局部特征結(jié)構(gòu),LACL增強(qiáng)了表示的魯棒性,減輕了過(guò)擬合現(xiàn)象,并通過(guò)同時(shí)提高穩(wěn)定性和可塑性來(lái)解決穩(wěn)定性-可塑性困境。
        本工作的主要貢獻(xiàn)如下:
        1. 我們提出了LACL,這是一種結(jié)合了局部自適應(yīng)補(bǔ)償?shù)姆治鲂虲IL框架。
        2. 引入了基于鄰域的補(bǔ)償機(jī)制來(lái)解決分析學(xué)習(xí)中的穩(wěn)定性-可塑性困境。
        3. 通過(guò)結(jié)合局部結(jié)構(gòu)信息,緩解了封閉形式分析方法的過(guò)擬合問(wèn)題。
        4. 在CIFAR-100、ImageNet-100和ImageNet-Full數(shù)據(jù)集上的實(shí)驗(yàn)表明,LACL在無(wú)樣本方法中實(shí)現(xiàn)了最先進(jìn)的性能。

        部分內(nèi)容摘錄

        類增量學(xué)習(xí)

        持續(xù)學(xué)習(xí)(Continual Learning, CL)指的是模型能夠以順序方式獲取知識(shí)的能力,從而模擬了人類學(xué)習(xí)的某些方面。它包括幾種范式,如類增量學(xué)習(xí)(Class-Incremental Learning, CIL)、任務(wù)增量學(xué)習(xí)(Task-Incremental Learning, TIL)和領(lǐng)域增量學(xué)習(xí)(Domain-Incremental Learning, DIL)。其中,CIL被認(rèn)為是最具挑戰(zhàn)性和研究最廣泛的范式,因?yàn)槟P捅仨氃跊](méi)有先前任務(wù)數(shù)據(jù)的情況下不斷學(xué)習(xí)新類別。

        方法論

        所提出的LACL方法的框架如圖1所示。在基礎(chǔ)數(shù)據(jù)集上進(jìn)行傳統(tǒng)的基于反向傳播(Backpropagation, BP)的主干網(wǎng)絡(luò)訓(xùn)練后,我們將局部自適應(yīng)補(bǔ)償學(xué)習(xí)(Local Adaptation Compensation Learning, LACL)整合到分析型類增量學(xué)習(xí)(Analytic Class-Incremental Learning, ACIL)過(guò)程中。這種整合為每個(gè)階段的ACIL主流訓(xùn)練提供了更強(qiáng)大的表示能力,從而有效平衡了穩(wěn)定性和可塑性之間的權(quán)衡。

        數(shù)據(jù)集和實(shí)現(xiàn)細(xì)節(jié)

        我們?cè)谌齻(gè)廣泛使用的基準(zhǔn)數(shù)據(jù)集上評(píng)估了LACL的性能:CIFAR-100、ImageNet-100和ImageNet-Full。
        網(wǎng)絡(luò)架構(gòu)。遵循Zhuang等人(2022年)在ACIL中的實(shí)驗(yàn)設(shè)置,我們對(duì)CIFAR-100使用ResNet-32,對(duì)ImageNet-Full和ImageNet-100使用ResNet-18。
        基礎(chǔ)訓(xùn)練。在傳統(tǒng)的CIL協(xié)議下,我們使用隨機(jī)梯度下降(Stochastic Gradient Descent, SGD)對(duì)ResNet-32進(jìn)行160個(gè)周期的訓(xùn)練,對(duì)ResNet-18進(jìn)行90個(gè)周期的訓(xùn)練。

        超參數(shù)分析

        為了進(jìn)一步研究鄰域大小對(duì)局部自適應(yīng)補(bǔ)償機(jī)制的影響,我們分析了k最近鄰(Equation 14)中K的選擇如何影響性能。我們?cè)贑IFAR-100、ImageNet-100和ImageNet-Full的不同增量階段設(shè)置(分別表示為P5、P25和P50)中,將K的值從1變化到200,以考察其效果。
        如圖4所示,增加K通常會(huì)在早期階段帶來(lái)明顯的性能提升,因?yàn)楦蟮泥徲?/div>

        結(jié)論

        在這項(xiàng)工作中,我們提出了局部自適應(yīng)補(bǔ)償學(xué)習(xí)(Locally Adaptive Compensation Learning, LACL),這是一種新型的分析型類增量學(xué)習(xí)框架,旨在解決現(xiàn)有無(wú)樣本方法的局限性。通過(guò)將鄰域感知的特征細(xì)化納入補(bǔ)償流程,LACL增強(qiáng)了表示的魯棒性,減輕了過(guò)擬合現(xiàn)象,并在穩(wěn)定性和可塑性之間取得了更好的平衡。
        在CIFAR-100、ImageNet-100和ImageNet-Full上的廣泛實(shí)驗(yàn)表明

        CRediT作者貢獻(xiàn)聲明

        陳浩遠(yuǎn):撰寫——原始草稿、軟件實(shí)現(xiàn)、方法論設(shè)計(jì)、數(shù)據(jù)分析、概念化。史諾貝:數(shù)據(jù)可視化、驗(yàn)證、資源管理、數(shù)據(jù)分析。陳玲:項(xiàng)目監(jiān)督、項(xiàng)目管理、概念化。李 Raymond S.T.:撰寫——審稿與編輯、項(xiàng)目監(jiān)督、資金籌集、概念化。

        利益沖突聲明

        作者聲明他們沒(méi)有已知的財(cái)務(wù)利益或個(gè)人關(guān)系可能影響本文報(bào)告的工作。

        致謝

        本文部分得到了廣東省重點(diǎn)實(shí)驗(yàn)室IRADS(2022B1212010006)的支持。
        相關(guān)新聞
        生物通微信公眾號(hào)
        微信
        新浪微博
        • 搜索
        • 國(guó)際
        • 國(guó)內(nèi)
        • 人物
        • 產(chǎn)業(yè)
        • 熱點(diǎn)
        • 科普

        知名企業(yè)招聘

        熱點(diǎn)排行

          今日動(dòng)態(tài) | 人才市場(chǎng) | 新技術(shù)專欄 | 中國(guó)科學(xué)人 | 云展臺(tái) | BioHot | 云講堂直播 | 會(huì)展中心 | 特價(jià)專欄 | 技術(shù)快訊 | 免費(fèi)試用

          版權(quán)所有 生物通

          Copyright© eBiotrade.com, All Rights Reserved

          聯(lián)系信箱:

          粵ICP備09063491號(hào)