Memory Mosaics [Zhang et al., 2025], networks of associative memories, have demonstrated appealing compositional and in-context learning capabilities on medium-scale networks (GPT-2 scale) and synthetic small datasets. This work shows that these favorable properties remain when we scale memory mosaics to large language model sizes (llama-8B scale) and real-world datasets. To this end, we scale memory mosaics to 10B size, we train them on one trillion tokens, we introduce a couple architectural modifications ("Memory Mosaics v2"), we assess their capabilities across three evaluation dimensions: training-knowledge storage, new-knowledge storage, and in-context learning. Throughout the evaluation, memory mosaics v2 match transformers on the learning of training knowledge (first dimension) and significantly outperforms transformers on carrying out new tasks at inference time (second and third dimensions). These improvements cannot be easily replicated by simply increasing the training data for transformers. A memory mosaics v2 trained on one trillion tokens still perform better on these tasks than a transformer trained on eight trillion tokens.


翻译:记忆马赛克 [Zhang et al., 2025] 作为一种关联记忆网络,已在中等规模网络(GPT-2 级别)和合成小数据集上展现出良好的组合性与上下文学习能力。本研究表明,当我们将记忆马赛克扩展至大型语言模型规模(llama-8B 级别)并在真实世界数据集上进行训练时,这些优良特性依然得以保持。为此,我们将记忆马赛克扩展至 100 亿参数规模,基于一万亿词元进行训练,并引入了若干架构改进("记忆马赛克 v2")。我们从三个评估维度系统评估其性能:训练知识存储、新知识存储与上下文学习。综合评估表明,记忆马赛克 v2 在训练知识学习(第一维度)方面与 Transformer 模型表现相当,而在推理阶段执行新任务(第二、三维度)方面显著优于 Transformer 模型。这种优势无法通过单纯增加 Transformer 的训练数据来复现。基于一万亿词元训练的记忆马赛克 v2 在这些任务上的表现,仍然优于基于八万亿词元训练的 Transformer 模型。

0
下载
关闭预览

相关内容

AI智能体时代中的记忆:形式、功能与动态综述
专知会员服务
35+阅读 · 2025年12月16日
【ICML2025教程】联想记忆的现代方法
专知会员服务
15+阅读 · 2025年7月13日
Llama-3-SynE:实现有效且高效的大语言模型持续预训练
专知会员服务
36+阅读 · 2024年7月30日
【ICLR2020-】基于记忆的图网络,MEMORY-BASED GRAPH NETWORKS
专知会员服务
110+阅读 · 2020年2月22日
论文浅尝 | 基于Universal Schema与Memory Network的知识+文本问答
图神经网络最近这么火,不妨看看我们精选的这七篇
人工智能前沿讲习班
37+阅读 · 2018年12月10日
【学生论坛】详解记忆增强神经网络
中国科学院自动化研究所
106+阅读 · 2018年11月15日
SNN,像你的大脑一样工作
中国科学院自动化研究所
80+阅读 · 2018年11月7日
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2月10日
Arxiv
0+阅读 · 1月13日
VIP会员
相关基金
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员