自动化所开发出图主干网络模型
多年来,消息传递范式作为图神经网络(GNN)的基础,在广泛应用中取得了成功。尽管这种范式在多种任务中颇具潜力,但对图级任务(graph-level tasks)带来了一些挑战,如长程问题(long-range problem)、信息瓶颈(information bottleneck)、过度挤压现象(over-squashing phenomenon)、有限的表达能力(limited expressivity)。
中国科学院自动化研究所神经计算与脑机交互团队针对图级任务开发了图主干网络模型(Graph Trunk Network,GTR),旨在打破“以结点和边为中心”的传统思维方式,克服传统消息传递范式中的挑战。这一新框架的核心思想在于图级任务通常不需要像结点级任务一样为每个结点学习极其准确的表示。具体而言,新框架使用树分解(tree decomposition)算法在原始图中提取一棵骨架树,进而将骨架树分解为不同级别的主干(亦可称为“树干”),并运用长短期记忆(LSTM)网络沿着主干相应的路径学习各级主干的表示,最后结合各级主干的表示创建原始图的表示。深入的理论分析与全面的实验验证进一步证明了该模型在捕获长程信息和缓解过度挤压问题方面的优越性,为图级任务提供了新见解。
相关研究成果发表在IEEE Transactions on Pattern Analysis and Machine Intelligence上,相关代码已开源。研究工作得到国家自然科学基金委员会和中国科学院等的支持。美国康奈尔大学和微软亚洲研究院的科研人员参与研究。
消息来源:中国科学院官网