在人工智能领域,世界顶级人工智能挑战赛OGB可以说是殿堂级赛事。而素有知识图谱「世界杯」之称的OGBL-wikikg2更是OGB中的高难度任务榜单。近日,度小满AI-Lab团队独创的新模型TranS不仅力压Meta AI实验室FAIR、蒙特利尔Mila实验室等一众国内外顶级AI科研机构,登顶OGBL-wikikg2任务榜单冠军,更创造了KGE算法新纪录。
度小满AI-Lab团队创造KGE算法新纪录
据悉,OGB是斯坦福大学发布的国际知识图谱基准数据集,也是图神经网络领域最权威、最具挑战性的「竞技场」,每年都有众多顶级研究机构和企业前来参赛。而度小满夺冠榜单为难度颇高的OGBL-wikikg2。该榜单数据来源于Wikidata知识库,涵盖现实世界约250万个实体之间的500多种不同关系,构成了1700多万个事实三元组。
三元组也就是知识图谱结构中的头实体、关系和尾实体,用来表示图结构中实体(节点)与关系(边)的一种事实性符号。参赛团队需要在海量且复杂的事实三元组中精准预测未知实体间的潜在关系,并挖掘出正确的新三元组。
度小满研发新模型TranS,突破传统分数模式
在这场「高手云集」的国际竞赛中,度小满数据智能部AI-Lab团队提出的创新性知识图嵌入(KGE)模型TranS,刷新了OGBL-Wikikg2基准数据集最高记录。值得一提的是,在现有成果基础上,度小满提出的全新KGE模型,有效地解决了复杂实体关系表示中的瓶颈问题,开启了知识图谱表示学习的新时代。
具体而言,知识图嵌入(KGE)是学习知识图中关系和实体的向量表示方法。现有的KGE方法取得了良好性能,但使用单一关系向量进行学习——将头实体转换为尾实体的方法无法处理较为复杂的关系。
今年年初,度小满AI团队系统性梳理了现有的图表示学习方法,在数据处理和算法优化等方面进行了数以千次的实验后,他们提出了两实体间多样化的关系合成模式,形成了现在的TranS模型。
新模型TranS突破了基于翻译的知识表示学习中传统分数模式,通过实体节点间关系向量的合成与推理提升复杂场景下知识图谱建模的能力,有效地解决了这些问题。同时,在同一实体对的不同关系表示上,远超TransE、InterHT、TripleRE、TransH、PairRE等现有方法。
一直以来,度小满始终专注于加强自身技术研发和技术创新实力,为行业发展不断助力;这次OGBL-wikikg2任务榜单冠军无疑是对度小满科技实力的最好证明。未来,度小满AI-Lab团队研发的新模型TranS将广泛运用于金融安全、风控管理等各大场景,对于推动金融服务行业的新发展有着重要作用。
免责声明:市场有风险,选择需谨慎!此文仅供参考,不作买卖依据。
责任编辑:kj005
文章投诉热线:156 0057 2229 投诉邮箱:29132 36@qq.com