N1cest的个人博客分享 http://blog.sciencenet.cn/u/N1cest

博文

明皓亮研一下第七周周报

已有 257 次阅读 2025-4-20 15:58 |系统分类:科研笔记

本周完成工作:

1.看了一篇通用图大模型文章。

(arXiv 2024.08) AnyGraph: Graph Foundation Model in the Wild

2.项目里PID图生成代码集成到平台里了,进行了初步测试,改了许多bug。

3.修改了一下之前的论文。

本周问题汇报:

1.AnyGraph: Graph Foundation Model in the Wild

动机:现有图模型在跨领域泛化和快速适应新任务上表现不足。传统方法依赖大量微调,难以应对真实场景中分布偏移的挑战。受CV和NLP领域基础模型启发,提出了AnyGraph种基于MoE的图基础模型。

他核心创新点就是将MoE架构引入了图学习领域,并且融合了SVD和无参数GCN将特征与结构统一表示了。

方法核心:

1.MoE架构和专家路由机制AnyGraph包含多个独立的图专家模型,每个专家专注于特定子领域(如特定结构或特征类型),每个专家由多层MLP构成,舍弃复杂GNN结构以提升效率。他通过轻量级路由机制为输入图动态分配最相关的专家。具体而言,计算每个专家对当前图的正负边预测得分差异,结合训练频率正则化避免“赢家通吃”问题,确保各专家均衡参与训练。在推理时仅激活单个专家,计算资源消耗仅为传统模型的1/K,K是专家数量,显著降低了训练/推理成本。

2.统一特征与结构表示首先进行了SVD与GCN初始化,对邻接矩阵和节点特征分别进行奇异值分解(SVD),提取主成分特征后拼接,并通过无参数GCN注入高阶连接信息,生成统一的初始节点嵌入。然后进行特征对齐,翻转特征矩阵的SVD维度,使邻接矩阵的重要特征与节点特征的次要维度对齐,缓解异质性冲突。

3.训练优化与数据增强他进行了跨域混合训练,将多领域图数据混合训练,采用链接预测任务,通过批内负采样最大化正样本得分。还进行了周期性增强,定期重新生成初始嵌入(SVD+GCN)和路由结果,增加数据多样性,提升模型对噪声的鲁棒性。

他实验效果不错,而且方法效率很高。image.png

A~



https://wap.sciencenet.cn/blog-3622926-1482706.html


收藏 IP: 210.30.104.*| 热度|

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...
扫一扫,分享此博文

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2025-4-26 09:48

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部