AAAI杰出論文來了!港科大、同濟、浙師大等國內(nèi)高校獲獎

AAAI杰出論文來了!港科大、同濟、浙師大等國內(nèi)高校獲獎

編輯|張倩、陳陳

剛剛,AAAI 2026 官網(wǎng)公布了今年的「杰出論文」(相當于最佳論文)獎項,共有 5 篇論文獲獎,其中有三篇由華人團隊主導,作者來自香港科技大學(廣州)、西湖大學、浙江大學、同濟大學、浙江師范大學、香港城市大學等多所國內(nèi)高校論文。

AAAI 由國際人工智能促進協(xié)會主辦,是人工智能領域歷史最悠久、涵蓋內(nèi)容最廣泛的國際頂級學術會議之一,也是中國計算機學會(CCF)推薦的 A 類國際學術會議,每年舉辦一屆論文。

AAAI 2026 于 1 月 20 日至 27 日在新加坡舉行,總投稿數(shù)為 23,680 篇,錄用論文 4,167 篇,接收率為 17.6%論文

以下是獲獎論文的具體情況論文。

論文 1論文:ReconVLA: Reconstructive Vision-Language-ActionModel as Effective Robot Perceiver

AAAI杰出論文來了!港科大、同濟、浙師大等國內(nèi)高校獲獎

展開全文

作者論文:Wenxuan Song, Ziyang Zhou, Han Zhao, Jiayi Chen, Pengxiang Ding, Haodong Yan, Yuxin Huang, Feilong Tang, Donglin Wang, Haoang Li

機構論文:香港科技大學(廣州)、西湖大學、浙江大學、莫納什大學

論文鏈接論文

項目主頁論文

近年來,視覺 — 語言 — 動作(VLA)模型的進展,使機器人智能體能夠將多模態(tài)理解與動作執(zhí)行相結合論文。然而,實證分析發(fā)現(xiàn),現(xiàn)有的 VLA 模型在將視覺注意力分配到目標區(qū)域時仍然存在明顯困難,其注意力往往呈現(xiàn)分散狀態(tài)。

為引導視覺注意力在正確目標上的有效 grounding ,作者提出了 ReconVLA,一種采用隱式對齊范式的重建式 VLA 模型論文。

該方法以模型的視覺輸出為條件,引入擴散 Transformer 來重建圖像中的注視區(qū)域(gaze region),而這一注視區(qū)域正對應于被操作的目標物體論文。通過這一過程,VLA 模型被促使學習更加細粒度的表征,并能夠準確分配視覺注意力,從而更充分地利用任務相關的視覺信息,完成精確操作。

此外,作者構建了一個大規(guī)模預訓練數(shù)據(jù)集,包含來自開源機器人數(shù)據(jù)集的十萬余條軌跡和兩百萬條數(shù)據(jù)樣本,進一步提升了模型在視覺重建任務上的泛化能力論文。大量仿真與真實環(huán)境中的實驗結果表明,論文提出的隱式對齊方法具備明顯優(yōu)勢,在精細操作能力和泛化表現(xiàn)上均有出色表現(xiàn)。

論文 2論文:LLM2CLIP: Powerful Language Model Unlocks Richer Cross-Modality Representation

作者論文:Weiquan Huang, Aoqi Wu, Yifan Yang, Xufang Luo, Yuqing Yang, Usman Naseem, Chunyu Wang, Qi Dai, Xiyang Dai, Dongdong Chen, Chong Luo, Lili Qiu, Liang Hu

機構論文:同濟大學、微軟、麥考瑞大學

論文鏈接論文

論文主頁論文

CLIP 是一種具有奠基意義的多模態(tài)模型,它通過在數(shù)十億規(guī)模的圖像 — 文本配對數(shù)據(jù)上進行對比學習,將圖像與文本映射到同一表示空間論文。

受到 LLM 迅猛發(fā)展的啟發(fā),作者探討了如何利用 LLM 更強的語言理解能力與廣泛的世界知識來進一步增強 CLIP,尤其是在處理冗長且結構復雜的描述文本時的表現(xiàn)論文。為此,他們提出了一種高效的微調框架,將 LLM 嵌入到預訓練的 CLIP 中,而訓練成本幾乎與常規(guī)的 CLIP 微調相當。具體而言,該方法首先將 LLM 轉化為適配 CLIP 場景的「嵌入化」形式,隨后通過一個輕量級適配器將其與預訓練的 CLIP 視覺編碼器耦合,該適配器僅需在數(shù)百萬規(guī)模的圖像 — 文本對上進行訓練。

AAAI杰出論文來了!港科大、同濟、浙師大等國內(nèi)高校獲獎

借助這一策略,作者在無需大規(guī)模重新訓練的前提下,相較于 EVA02、SigLIP-2 等當前最先進的 CLIP 變體,取得了顯著的性能提升論文。經(jīng) LLM 增強后的 CLIP 在多種下游任務上均表現(xiàn)出穩(wěn)定改進,包括線性探測分類、同時支持短文本與長文本(英文及多語言)的零樣本圖像 — 文本檢索、零樣本與有監(jiān)督的圖像分割、目標檢測,以及作為多模態(tài)大模型基準中的分詞器使用。

論文 3論文:Model Change for Description Logic Concepts

作者論文:Ana Ozaki, Jandson S Ribeiro

機構論文:奧斯陸大學、卡迪夫大學

論文鏈接論文:暫無

該論文雖已獲獎,但目前還未公開發(fā)布論文

AAAI杰出論文來了!港科大、同濟、浙師大等國內(nèi)高校獲獎

論文 4:Causal Structure Learning for Dynamical Systems with Theoretical Score Analysis

作者論文:Nicholas Tagliapietra, Katharina Ensinger, Christoph Zimmer, Osman Mian

機構論文:博世 AI 中心團隊、德國達姆施塔特工業(yè)大學、德國醫(yī)學 AI 研究所 IKIM 等

論文鏈接論文

現(xiàn)實世界中的系統(tǒng)通常按照其內(nèi)在的因果關系在連續(xù)時間中演化,但這些動態(tài)機制往往是未知的論文?,F(xiàn)有用于學習此類動態(tài)的方法通常存在兩類問題:要么對時間進行離散化處理,在面對不規(guī)則采樣數(shù)據(jù)時性能較差;要么忽略了系統(tǒng)背后的因果結構。

為此,本文提出 CADYT,一種用于動力系統(tǒng)因果發(fā)現(xiàn)的新方法,可以同時解決上述兩大挑戰(zhàn)論文。不同于當前主流將問題建模為離散時間動態(tài)貝葉斯網(wǎng)絡的因果發(fā)現(xiàn)方法,該研究建?;A是基于差分的因果模型,這種模型對連續(xù)時間系統(tǒng)的刻畫只需更弱的假設,更符合真實系統(tǒng)的連續(xù)演化特性。

CADYT 采用精確的高斯過程推斷來建模連續(xù)時間動力學,從而在建模層面更貼近系統(tǒng)的真實生成過程論文。在算法設計上,本文提出了一種可落地的實現(xiàn)方案:通過結合馬爾可夫條件與最小描述長度(MDL)原則,采用貪心搜索策略來識別系統(tǒng)的因果結構。

AAAI杰出論文來了!港科大、同濟、浙師大等國內(nèi)高校獲獎

CADYT 能夠從連續(xù)時間動力系統(tǒng)的軌跡數(shù)據(jù)中,發(fā)現(xiàn)未知的因果結構論文。

實驗結果表明,無論是在規(guī)則采樣還是不規(guī)則采樣的數(shù)據(jù)場景下,CADYT 都顯著優(yōu)于現(xiàn)有的先進方法,能夠恢復出更接近真實底層動力學機制的因果網(wǎng)絡結構論文

論文 5論文:High-Pass Matters: Theoretical Insights and Sheaflet-Based Design for Hypergraph Neural Networks

這篇獲獎論文同樣還沒有放出論文鏈接,但從附錄論文中,我們獲悉了作者機構信息論文。

AAAI杰出論文來了!港科大、同濟、浙師大等國內(nèi)高校獲獎

作者:Ming Li, Yujie Fang, Dongrui Shen, Han Feng, Xiaosheng Zhuang, Kelin Xia, Pietro Lio

機構論文:浙江師范大學、香港城市大學、南洋理工大學、劍橋大學

論文鏈接論文:暫無

參考鏈接論文

本站內(nèi)容來自用戶投稿,如果侵犯了您的權利,請與我們聯(lián)系刪除。聯(lián)系郵箱:[email protected]

本文鏈接://m.cqlhyz.com/tags-%E7%A2%BC%E6%94%BE.html

?? /
欧美亚洲日韩国产综合每日更新,国产美女一级A作爱在线观看,亚洲欧洲国产1区二区,国产高清无码精油按摩