AAAI杰出論文來了!港科大、同濟(jì)、浙師大等國內(nèi)高校獲獎(jiǎng)

AAAI杰出論文來了!港科大、同濟(jì)、浙師大等國內(nèi)高校獲獎(jiǎng)

編輯|張倩、陳陳

剛剛,AAAI 2026 官網(wǎng)公布了今年的「杰出論文」(相當(dāng)于最佳論文)獎(jiǎng)項(xiàng),共有 5 篇論文獲獎(jiǎng),其中有三篇由華人團(tuán)隊(duì)主導(dǎo),作者來自香港科技大學(xué)(廣州)、西湖大學(xué)、浙江大學(xué)、同濟(jì)大學(xué)、浙江師范大學(xué)、香港城市大學(xué)等多所國內(nèi)高校論文。

AAAI 由國際人工智能促進(jìn)協(xié)會(huì)主辦,是人工智能領(lǐng)域歷史最悠久、涵蓋內(nèi)容最廣泛的國際頂級(jí)學(xué)術(shù)會(huì)議之一,也是中國計(jì)算機(jī)學(xué)會(huì)(CCF)推薦的 A 類國際學(xué)術(shù)會(huì)議,每年舉辦一屆論文。

AAAI 2026 于 1 月 20 日至 27 日在新加坡舉行,總投稿數(shù)為 23,680 篇,錄用論文 4,167 篇,接收率為 17.6%論文

以下是獲獎(jiǎng)?wù)撐牡木唧w情況論文。

論文 1論文:ReconVLA: Reconstructive Vision-Language-ActionModel as Effective Robot Perceiver

AAAI杰出論文來了!港科大、同濟(jì)、浙師大等國內(nèi)高校獲獎(jiǎng)

展開全文

作者論文:Wenxuan Song, Ziyang Zhou, Han Zhao, Jiayi Chen, Pengxiang Ding, Haodong Yan, Yuxin Huang, Feilong Tang, Donglin Wang, Haoang Li

機(jī)構(gòu)論文:香港科技大學(xué)(廣州)、西湖大學(xué)、浙江大學(xué)、莫納什大學(xué)

論文鏈接論文

項(xiàng)目主頁論文

近年來,視覺 — 語言 — 動(dòng)作(VLA)模型的進(jìn)展,使機(jī)器人智能體能夠?qū)⒍嗄B(tài)理解與動(dòng)作執(zhí)行相結(jié)合論文。然而,實(shí)證分析發(fā)現(xiàn),現(xiàn)有的 VLA 模型在將視覺注意力分配到目標(biāo)區(qū)域時(shí)仍然存在明顯困難,其注意力往往呈現(xiàn)分散狀態(tài)。

為引導(dǎo)視覺注意力在正確目標(biāo)上的有效 grounding ,作者提出了 ReconVLA,一種采用隱式對(duì)齊范式的重建式 VLA 模型論文。

該方法以模型的視覺輸出為條件,引入擴(kuò)散 Transformer 來重建圖像中的注視區(qū)域(gaze region),而這一注視區(qū)域正對(duì)應(yīng)于被操作的目標(biāo)物體論文。通過這一過程,VLA 模型被促使學(xué)習(xí)更加細(xì)粒度的表征,并能夠準(zhǔn)確分配視覺注意力,從而更充分地利用任務(wù)相關(guān)的視覺信息,完成精確操作。

此外,作者構(gòu)建了一個(gè)大規(guī)模預(yù)訓(xùn)練數(shù)據(jù)集,包含來自開源機(jī)器人數(shù)據(jù)集的十萬余條軌跡和兩百萬條數(shù)據(jù)樣本,進(jìn)一步提升了模型在視覺重建任務(wù)上的泛化能力論文。大量仿真與真實(shí)環(huán)境中的實(shí)驗(yàn)結(jié)果表明,論文提出的隱式對(duì)齊方法具備明顯優(yōu)勢(shì),在精細(xì)操作能力和泛化表現(xiàn)上均有出色表現(xiàn)。

論文 2論文:LLM2CLIP: Powerful Language Model Unlocks Richer Cross-Modality Representation

作者論文:Weiquan Huang, Aoqi Wu, Yifan Yang, Xufang Luo, Yuqing Yang, Usman Naseem, Chunyu Wang, Qi Dai, Xiyang Dai, Dongdong Chen, Chong Luo, Lili Qiu, Liang Hu

機(jī)構(gòu)論文:同濟(jì)大學(xué)、微軟、麥考瑞大學(xué)

論文鏈接論文

論文主頁論文

CLIP 是一種具有奠基意義的多模態(tài)模型,它通過在數(shù)十億規(guī)模的圖像 — 文本配對(duì)數(shù)據(jù)上進(jìn)行對(duì)比學(xué)習(xí),將圖像與文本映射到同一表示空間論文。

受到 LLM 迅猛發(fā)展的啟發(fā),作者探討了如何利用 LLM 更強(qiáng)的語言理解能力與廣泛的世界知識(shí)來進(jìn)一步增強(qiáng) CLIP,尤其是在處理冗長且結(jié)構(gòu)復(fù)雜的描述文本時(shí)的表現(xiàn)論文。為此,他們提出了一種高效的微調(diào)框架,將 LLM 嵌入到預(yù)訓(xùn)練的 CLIP 中,而訓(xùn)練成本幾乎與常規(guī)的 CLIP 微調(diào)相當(dāng)。具體而言,該方法首先將 LLM 轉(zhuǎn)化為適配 CLIP 場景的「嵌入化」形式,隨后通過一個(gè)輕量級(jí)適配器將其與預(yù)訓(xùn)練的 CLIP 視覺編碼器耦合,該適配器僅需在數(shù)百萬規(guī)模的圖像 — 文本對(duì)上進(jìn)行訓(xùn)練。

AAAI杰出論文來了!港科大、同濟(jì)、浙師大等國內(nèi)高校獲獎(jiǎng)

借助這一策略,作者在無需大規(guī)模重新訓(xùn)練的前提下,相較于 EVA02、SigLIP-2 等當(dāng)前最先進(jìn)的 CLIP 變體,取得了顯著的性能提升論文。經(jīng) LLM 增強(qiáng)后的 CLIP 在多種下游任務(wù)上均表現(xiàn)出穩(wěn)定改進(jìn),包括線性探測(cè)分類、同時(shí)支持短文本與長文本(英文及多語言)的零樣本圖像 — 文本檢索、零樣本與有監(jiān)督的圖像分割、目標(biāo)檢測(cè),以及作為多模態(tài)大模型基準(zhǔn)中的分詞器使用。

論文 3論文:Model Change for Description Logic Concepts

作者論文:Ana Ozaki, Jandson S Ribeiro

機(jī)構(gòu)論文:奧斯陸大學(xué)、卡迪夫大學(xué)

論文鏈接論文:暫無

該論文雖已獲獎(jiǎng),但目前還未公開發(fā)布論文。

AAAI杰出論文來了!港科大、同濟(jì)、浙師大等國內(nèi)高校獲獎(jiǎng)

論文 4:Causal Structure Learning for Dynamical Systems with Theoretical Score Analysis

作者論文:Nicholas Tagliapietra, Katharina Ensinger, Christoph Zimmer, Osman Mian

機(jī)構(gòu)論文:博世 AI 中心團(tuán)隊(duì)、德國達(dá)姆施塔特工業(yè)大學(xué)、德國醫(yī)學(xué) AI 研究所 IKIM 等

論文鏈接論文

現(xiàn)實(shí)世界中的系統(tǒng)通常按照其內(nèi)在的因果關(guān)系在連續(xù)時(shí)間中演化,但這些動(dòng)態(tài)機(jī)制往往是未知的論文?,F(xiàn)有用于學(xué)習(xí)此類動(dòng)態(tài)的方法通常存在兩類問題:要么對(duì)時(shí)間進(jìn)行離散化處理,在面對(duì)不規(guī)則采樣數(shù)據(jù)時(shí)性能較差;要么忽略了系統(tǒng)背后的因果結(jié)構(gòu)。

為此,本文提出 CADYT,一種用于動(dòng)力系統(tǒng)因果發(fā)現(xiàn)的新方法,可以同時(shí)解決上述兩大挑戰(zhàn)論文。不同于當(dāng)前主流將問題建模為離散時(shí)間動(dòng)態(tài)貝葉斯網(wǎng)絡(luò)的因果發(fā)現(xiàn)方法,該研究建?;A(chǔ)是基于差分的因果模型,這種模型對(duì)連續(xù)時(shí)間系統(tǒng)的刻畫只需更弱的假設(shè),更符合真實(shí)系統(tǒng)的連續(xù)演化特性。

CADYT 采用精確的高斯過程推斷來建模連續(xù)時(shí)間動(dòng)力學(xué),從而在建模層面更貼近系統(tǒng)的真實(shí)生成過程論文。在算法設(shè)計(jì)上,本文提出了一種可落地的實(shí)現(xiàn)方案:通過結(jié)合馬爾可夫條件與最小描述長度(MDL)原則,采用貪心搜索策略來識(shí)別系統(tǒng)的因果結(jié)構(gòu)。

AAAI杰出論文來了!港科大、同濟(jì)、浙師大等國內(nèi)高校獲獎(jiǎng)

CADYT 能夠從連續(xù)時(shí)間動(dòng)力系統(tǒng)的軌跡數(shù)據(jù)中,發(fā)現(xiàn)未知的因果結(jié)構(gòu)論文。

實(shí)驗(yàn)結(jié)果表明,無論是在規(guī)則采樣還是不規(guī)則采樣的數(shù)據(jù)場景下,CADYT 都顯著優(yōu)于現(xiàn)有的先進(jìn)方法,能夠恢復(fù)出更接近真實(shí)底層動(dòng)力學(xué)機(jī)制的因果網(wǎng)絡(luò)結(jié)構(gòu)論文。

論文 5論文:High-Pass Matters: Theoretical Insights and Sheaflet-Based Design for Hypergraph Neural Networks

這篇獲獎(jiǎng)?wù)撐耐瑯舆€沒有放出論文鏈接,但從附錄論文中,我們獲悉了作者機(jī)構(gòu)信息論文

AAAI杰出論文來了!港科大、同濟(jì)、浙師大等國內(nèi)高校獲獎(jiǎng)

作者:Ming Li, Yujie Fang, Dongrui Shen, Han Feng, Xiaosheng Zhuang, Kelin Xia, Pietro Lio

機(jī)構(gòu)論文:浙江師范大學(xué)、香港城市大學(xué)、南洋理工大學(xué)、劍橋大學(xué)

論文鏈接論文:暫無

參考鏈接論文

本站內(nèi)容來自用戶投稿,如果侵犯了您的權(quán)利,請(qǐng)與我們聯(lián)系刪除。聯(lián)系郵箱:[email protected]

本文鏈接://m.cqlhyz.com/tags-%E7%B6%93(j%C4%ABng)%E7%B7%AF.html

?? /
欧美亚洲日韩国产综合每日更新,国产美女一级A作爱在线观看,亚洲欧洲国产1区二区,国产高清无码精油按摩