arXiv:2501.17802v1 公告类型:新研究 摘要:人类在类比学习和知识迁移方面表现出色,更重要的是,他们具备独特的能力来识别合适的知识来源。从模型的角度来看,这提出了一个有趣的挑战。如果模型能够自主检索对解决问题有用的知识以进行迁移或决策,它们将从被动获取知识转变为主动访问和学习知识。然而,为模型填充知识相对简单——只需更多的训练和可访问的知识库即可。更为复杂的任务是教会模型哪些知识可以进行类比和迁移。因此,我们设计了一种名为LEKA的知识增强方法,用于知识迁移,它主动寻找能够丰富目标领域知识的合适知识源。LEKA方法从目标领域的文本信息中提取关键信息,从外部数据库中检索相关数据,并在特征空间和边缘概率度量上将检索到的数据与目标领域数据协调一致。我们通过跨多个领域的广泛实验验证了该方法的有效性,并展示了在降低计算成本、自动化数据对齐以及优化迁移学习成果方面相较于传统方法的显著改进。
arXiv:2501.17310v1 公告类型:新研究 摘要:猜测估算,即对数量进行近似估计的任务,是现实世界中常见的挑战。然而,这一任务在大语言模型(LLMs)和视觉语言模型(VLMs)的研究中却大多被忽视。我们引入了一个新颖的猜测估算数据集,MARBLES。该数据集要求人们估计有多少物品(例如,弹珠)可以放入容器(例如,一个一量杯的测量杯)中,既有带图片的情况,也有不带图片的情况。受社会科学概念“群体智慧”(WOC)——即从一群人的估计中取中位数——的启发,我们提出了一种用于LLM猜测估算的“WOC解码”策略。研究表明,LLMs/VLMs在猜测估算上表现良好,表明它们具备一定程度的“世界模型”,这是进行猜测估算所必需的。此外,与人类表现相似,WOC解码方法提高了LLM/VLM的猜测估算准确性。而且,在多模态条件下加入图片进一步提升了模型的表现。这些结果凸显了WOC解码策略对LLMs/VLMs的价值,并将猜测估算定位为评估LLMs/VLMs世界模型的探针。