
-
生物通官微
陪你抓住生命科技
跳動的脈搏
基于視覺的自主節(jié)奏迭代學(xué)習(xí)方法,用于無監(jiān)督的時間序列動作定位
《ACM Transactions on Multimedia Computing, Communications, and Applications》:Visual Self-paced Iterative Learning for Unsupervised Temporal Action Localization
【字體: 大 中 小 】 時間:2026年02月27日 來源:ACM Transactions on Multimedia Computing, Communications, and Applications
編輯推薦:
近期,時空動作定位(TAL)在信息檢索領(lǐng)域備受關(guān)注。然而,現(xiàn)有監(jiān)督/弱監(jiān)督方法高度依賴大量標(biāo)注的時空邊界和動作類別,導(dǎo)致效率低下。雖然部分無監(jiān)督方法采用了迭代聚類與定位范式,但仍面臨聚類置信度不足和偽標(biāo)簽可靠性差的雙重挑戰(zhàn)。為此,本文提出一種新型自監(jiān)督迭代學(xué)習(xí)模型,同步提升聚類與定位訓(xùn)練效果。通過挖掘上下文魯棒視覺信息增強聚類置信度,并設(shè)計恒定與變速度增量實例學(xué)習(xí)策略,確保偽標(biāo)簽可靠性并進一步優(yōu)化定位性能。實驗表明,該模型在兩個公開數(shù)據(jù)集上顯著優(yōu)于現(xiàn)有方法。
該摘要是使用自動化工具生成的,并非由文章作者編寫或?qū)徍恕K荚趲椭l(fā)現(xiàn)、評估相關(guān)性,并幫助來自相關(guān)研究領(lǐng)域的讀者理解該工作。它旨在補充作者提供的摘要,后者仍然是論文的主要摘要。完整文章才是權(quán)威版本。點擊此處了解更多。
點擊此處對摘要的準(zhǔn)確性、清晰度和實用性進行評論。您的反饋將有助于改進未來的版本。
要查看此由AI生成的簡單語言摘要,您必須具有高級訪問權(quán)限。
生物通微信公眾號
知名企業(yè)招聘