- 首頁(yè) 今日動(dòng)態(tài) 人才市場(chǎng) 新技術(shù)專欄 中國(guó)科學(xué)人 云展臺(tái) 云講堂直播 會(huì)展中心 特價(jià)專欄 技術(shù)快訊 免費(fèi)試用

-
生物通官微
陪你抓住生命科技
跳動(dòng)的脈搏
利用擴(kuò)散輔助蒸餾技術(shù)進(jìn)行基于多層感知器(MLPs)的自監(jiān)督圖表示學(xué)習(xí)
《IEEE Transactions on Artificial Intelligence》:Diffusion-Assisted Distillation for Self-Supervised Graph Representation Learning With MLPs
【字體: 大 中 小 】 時(shí)間:2026年02月28日 來(lái)源:IEEE Transactions on Artificial Intelligence CS6.4
編輯推薦:
DAD-SGM通過(guò)引入去噪擴(kuò)散模型作為輔助教師,有效解決自監(jiān)督圖表示學(xué)習(xí)中GNN與MLP的性能差距,提升MLP的泛化能力和魯棒性,實(shí)驗(yàn)驗(yàn)證優(yōu)于現(xiàn)有蒸餾方法。
圖神經(jīng)網(wǎng)絡(luò)(GNN)已成為分析非歐幾里得圖數(shù)據(jù)的強(qiáng)大工具。GNN通過(guò)消息傳遞機(jī)制捕捉復(fù)雜的圖結(jié)構(gòu),其中節(jié)點(diǎn)與其鄰居交換信息。這種消息傳遞機(jī)制提供了對(duì)分析圖結(jié)構(gòu)數(shù)據(jù)有益的空間歸納偏差。然而,隨著圖規(guī)模的增大,這種消息傳遞方法會(huì)帶來(lái)顯著的計(jì)算開銷[1]。為了解決這一可擴(kuò)展性問(wèn)題,研究人員探索了用更輕量級(jí)的多層感知器(MLP)替換GNN。雖然MLP缺乏消息傳遞所提供的結(jié)構(gòu)偏差,但它們具有更高的可擴(kuò)展性。為了結(jié)合GNN和MLP的優(yōu)勢(shì),研究人員越來(lái)越多地采用知識(shí)蒸餾[2]技術(shù),這是一種將GNN的特定任務(wù)知識(shí)轉(zhuǎn)移到MLP中的有效方法。對(duì)于半監(jiān)督節(jié)點(diǎn)分類,圖輔助神經(jīng)網(wǎng)絡(luò)(GLNN)[3]最小化了GNN教師模型和MLP學(xué)生模型之間的Kullback–Leibler散度。全頻GNN到MLP蒸餾(FF-G2M)[4]將教師模型的知識(shí)分解為高頻和低頻信號(hào),然后鼓勵(lì)學(xué)生模型模仿這兩種信號(hào)。對(duì)于鏈接預(yù)測(cè),無(wú)鏈接鏈接預(yù)測(cè)(LLP)[5]將圍繞每個(gè)(錨點(diǎn))節(jié)點(diǎn)的特定關(guān)系知識(shí)傳遞給學(xué)生MLP。這些GNN到MLP的蒸餾方法使MLP在目標(biāo)任務(wù)中能夠達(dá)到與GNN相當(dāng)?shù)男阅堋?/p>
生物通微信公眾號(hào)
知名企業(yè)招聘
今日動(dòng)態(tài) | 人才市場(chǎng) | 新技術(shù)專欄 | 中國(guó)科學(xué)人 | 云展臺(tái) | BioHot | 云講堂直播 | 會(huì)展中心 | 特價(jià)專欄 | 技術(shù)快訊 | 免費(fèi)試用
版權(quán)所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
聯(lián)系信箱:
粵ICP備09063491號(hào)