任丘市奥力斯涂料厂

你的位置:任丘市奥力斯涂料厂 > 联系奥力斯 >

北京橡塑专用胶厂家 陈天桥邓亚峰联手破解大模型记忆难题!4个月造SOTA系统,悬赏8万美元发起全球记忆挑战赛

点击次数:80 联系奥力斯 发布日期:2026-02-14 11:46:02
开年北京橡塑专用胶厂家,DeepSeek 论文火遍全网,内容聚焦大模型记忆。 有偶,谷歌近期也发布了篇被誉为" Attention is all you need " V2(Nested Learning: The Illusion of

管件胶厂家

开年北京橡塑专用胶厂家,DeepSeek 论文火遍全网,内容聚焦大模型记忆。

有偶,谷歌近期也发布了篇被誉为" Attention is all you need " V2(Nested Learning: The Illusion of Deep Learning Architectures)的重磅论文,核心同样指向记忆瓶颈。

就连近这只破圈的 AI 大龙虾—— OpenClaw(原名 Clawdbot),其亮点之依旧是记忆。

也就是说,记忆≈今年全球 AI 圈集体押注的技术风口≈皇冠明珠。

几乎所有你能想到的大模型团队,都在加班加点往自模型里塞记忆……

但这次,让我们把视线从这些科技巨头身上稍稍挪开,就会发现有支后起之秀同样不容小觑。

他们就是陈天桥和邓亚峰带队的EverMind。

为什么这样说呢?

且看产品,新发布世界长期记忆系统——EverMemOS,发布即 SOTA。

举破多项记忆基准测试的同时,还能远此前所有的基线法。

其次,它是真正能用的。

不是只会跑测试的"花架子",实际部署后果照样能。而且团队有底气有信心,技术代码全部开源。

为了便开发者使用,他们刚刚还门上线了云服务——现在只需个简单的 API,就能直接将前沿的大模型记忆能力装进自己的应用。

并且要知道,从 EverMemOS 正式立项到开源,团队只用了短短四个月时间,这是什么实力不多说。

不止如此,EverMind 是联手 OpenAI 等十多个技术社区豪掷英雄帖,发起届记忆起源大赛(Memory Genesis Competition 2026),号召全球顶人才前来共同书写记忆元年。

(突然燃起来了有木有!)

Anyway,下面我们娓娓道来。

大模型的记忆断裂 GAP

在展开聊聊 EverMemOS 为啥强之前,我们不妨先来思考个问题:当你使用大模型时,是不是总觉得有什么地不得劲?

前秒还聊得好好的,下秒就忘得干二净,要么就是拆东墙补西墙,这个记住了,另个又忘了。

奥力斯    PVC管道管件粘结胶价格     联系人:王经理    手机:18231788377(微信同号)    地址:河北省任丘市北辛庄乡南代河工业区/p>

归根结底,不是模型能力不够强,而是记忆不够用。

这就要回到大模型的底层架构上讲,众所周知,当前大模型普遍用的是Transformer架构,其记忆核心在于自注意力机制,也就是上下文窗口的信息缓存。

它会通过计当前窗口的 token 间关系,理解上下文含义,但实际运行中由于受限于物理内存资源,窗口长度是有限的,旦文本长度过窗口限制,信息就会被截断遗忘。

另外,随着对话变长,KV Cache 占用的显存也会逐渐膨胀。影响理率的同时,为了节省资源,现有的技术往往会选择压缩旧记忆,从而致记忆细节变得模糊。

这显然影响了用户的实际体验,举个例子 be like:

当你需要AI 协助写篇论文时, 从确定选题→检索相关文献→拟结构→写初稿→修改优化到后定稿,这当中势需要多轮交互,但 AI 压根记不住你之前写的内容,后输出的结果也只能是驴头不对马嘴。

那怎么办呢?学术界为此提出了三种技术案:

基于外部存储的记忆(External Storage based Memory)

这就类似于为大模型配备了个外部数据库,里面系统存储着用户相关的历史记录。当用户提问时,系统就会先去数据库里搜索相关文档,再将其和问题起喂给 AI。

但这并非真正的记忆,而是在考场上临时翻阅教材。

基于模型参数的记忆(Model Parameter based Memory)

该案本质是将记忆通过训练内化成模型的部分,通过微调 SFT 或持续预训练,让模型在看到某个问题时,就能迅速通过参数内部权重指向正确答案。

DeepSeek 的新成果便是用的这个思路,但再训练的成本且容易遗忘,不适个化和短期记忆。

基于隐状态的记忆(Latent State based Memory)

通过保存模型的中间理状态(如 KV Cache),达成类人的短期记忆或工作记忆。

它非常适用于理解复杂的对话语境,但换言之,它是次的,只能短暂存在,法记忆。

其中业界用的比较多的法,还是RAG(检索增强生成),也就是基于外部存储的记忆。

但 RAG 同样缺点明显。先,其工作式是将长文本切成个个片段,会破坏信息的连贯,让模型难以理解复杂的因果关系。

其次 RAG 依赖向量相似度检索,擅长找语义相近的内容,但在时序匹配上不足;另外 RAG 知识是相对静态的,如果要新信息,则需要昂的成本支持。

基于此北京橡塑专用胶厂家,EverMemOS应运而生。

学习大脑记忆机制,成了

启发于脑科学技术的研究成果,盛大直以来非常重视长期记忆域的研究。早在 2024 年 10 月,盛大团队就对外发布了长期记忆域的纲文章《Long Term Memory-The Foundation of AI Self-Evolution》。

基于盛大多个团队在该域的持续积累,EverMind 在 2025 年 8 月正式启动 EverMemOS 项目,并于 11 月对外正式发布开源版本。

EverMemOS 是 EverMind 造的款 AI 记忆基础设施,对比同赛道团队,似乎姗姗来迟。

Mem0、Zep 等产品早都能追溯到 2024 年,现在商业化成功的开发者框架 Letta(原 MemGPT)也是 2023 年就开始起步。

EverMemOS 却交出了亮眼的答卷:晚入场,但果弯道车。

从技术角度看,它同时继承了基于外部存储和基于隐状态两种路径。不过业内并非没有尝试过此类案,但 EverMind 显然在记忆提取的度和逻辑致上实现了优的平衡。

原因在于 EverMind 抓住了精髓,用邓亚峰的话说,就是:

通过 EverMemOS,我们赋予智能体个活的、不断演化的历史。

这里的关键词其实是"活的"。那么如何能保存鲜活的记忆呢?人类大脑。

这就引出了 EverMind 的特思路——生物启发。

具体来讲,EverMemOS 通过模拟人类记忆的形成并转化为计框架,利用三阶段层层递进以实现大模型长期记忆的存储和提取:

Step 1:情景轨迹构建。

对应人脑的海马体和内嗅皮层,可以将连续的对话内容拆分成个个立的记忆单元(MemCell),每个单元里不仅记录有完整的聊天内容,还包括些关键事实、时信息等。

Step 2:语义整。

类比新皮层(前额叶皮层 + 颞叶皮层),系统会将内容相关的记忆单元归类在起,形成主题化的记忆场景(MemScene),同时还会新用户画像,区分用户的长期稳定偏好和短期临时状态。

Step 3:重构式回忆。

这步对应的是前额叶皮层和海马体的协同机制,当用户提问时,系统就会在记忆场景的引下进行智能检索,只挑选出要且足够的记忆内容,用于后续的理任务。

由此,AI 学会像人类样记忆——这不仅是知识的数据库存储,是认知系统的度整。如此来,即便是在多个 Agent 之间,也能实现信息的传递。

至于果如何,咱们还是眼见为实,万能胶生产厂家看看基准测试结果。

团队选取了 4 个主流记忆基准测试,以及多种大模型记忆增强法。所有法都基于同基础大模型(GPT-4o-mini 或 GPT-4.1-mini)进行测试。

结果也很明显,EverMemOS 大获全胜,越现有记忆系统和全上下文模型。

其中在LoCoMo上,准确率直接跃来到 93.05,尤其是在多跳理和时序任务上表现突出,分别提升 19.7 和 16.1,同时 token 使用量和计成本得到大幅度降低。

在多会话对话评估LongMemEval里,EverMemOS 同样以 83 的准确率位居榜,说明在面对跨度大、信息量的场景中,EverMemOS 依旧能够检索和关联到过去的信息,并且通过持续交流还会不断进化完善自己。

HaluMem由 MemTensor 和电信研究院联发布,是业界个面向 AI 记忆系统的操作幻觉评估基准。而 EverMemOS 在保证记忆完整的同时,也显著了幻觉现象。

在PersonaMem v2里,EverMemOS 在九个复杂场景中依旧全场佳,保证了度个化和行为致。

足以见得,EverMemOS 是相当全能的枚选手,记好、搜得准,关键还运行速度快、成本还够低,长可突破百兆上下文限制。

边帮大模型减负,边帮大模型补记忆力,堪称大模型版安补脑液(bushi)

不仅云,还要赢

诚然,技术扎实是回事,能不能让开发者用起来则是另外回事。

EverMind 觉得,开源还不够,直接上云服务。

省去中间繁杂的基础设施搭建,从开发者到 EverMemOS,只需要完成简单的两行 API 代码调用,就能实现多项记忆操作,包括:

记忆摄入:从消息和交互中提取和存储记忆;

记忆检索:使用筛选选项(例如按元数据字段)检索已存储的记忆;

记忆搜索:利用关键字驱动的混检索式搜索记忆;

对话元数据:设置或新对话元数据以改进提取和检索行为。

有两种使用 EverMemOS 的式,EverMemOS Cloud和开源版本。前者使用托管 API,便也快,且核心引擎会自动新到新版本,后者则由用户自己运维。

开源版本需要自行准备部署环境:

云服务上手快,简洁,探索空间却很大:配置记忆空间→获取 API 密钥→保存记忆→使用记忆,即可轻松体验当前业界能 SOTA 的 Memory 系统。

△选择 EverMemOS 云服务或开源版本的理由

目前云服务已经正式开放内测申请,填写正确的邮箱地址后即可享受费服务。(申请入口:https://console.evermind.ai/)

不过正如邓亚峰所说,要想掌握 AI,多学不如多用。在部署好 EverMemOS 后,不妨来参加 EverMind 举办的记忆起源大赛。

EverMind 把舞台也给大站式搭好了~

比赛将从 1 月直持续到 4 月,现已面向全球开发者开放注册通道和云平台,需要注意要在2 月底之前完成项目提交。具体将分为三大赛道:

1、记忆 + 智能体:

要求构建具备长期、进化能力的智能体,例如个人数字孪生、内容创作者工作流程、销售 /CRM 协作助手、医疗保健 / 疗智能体、教育伙伴、多智能体协作等。将选出 5 名获者,每人励 5000 美元。

2、平台插件:

基于 VSCode、Chrome、Slack、Discord、Notion、Obsidian 或 LangChain 等框架或 SDK 为 EverMemOS 建立扩展操作系统生态。将选出 7 名获者,每人励 3000 美元。

3、操作系统基础设施:

帮助优化 EverMemOS 的核心,例如核心修改、能调优、架构改进等。将选出 3 名获者,每人励 3000 美元。

另外还将根据总成绩结线下活动表现,选出额外的总(额外 1 万美元)、人气开发者(额外 5000 美元)和 2 个 Aha 案例(额外 3000 美元)。

总金池达 8 万美元,另外每位获者还将拥有收益分成机会和社区头衔。其中顶贡献者还可有机会获得全职 offer,以及受邀加入 EverMind 担任技术顾问。

所有参赛选手都将接受来自 EverMind 工程团队的直接师指,多比赛细节可见赛事官网。(https://evermind.ai/activities)

连接智能的关键在记忆

那么后,我们再来看看 EverMind 究竟意欲何为?毕竟又是发新技术、新平台,又是办比赛,这套组拳下来,野心可不小。

先从供给侧讲,EverMind 正在试图用 EverMemOS 重新定义大模型记忆的技术路线。

EverMemOS 没有沿着原来已有的技术案延展,而是实实地摸索出了条以脑科学 +AI的特路径,而且它的技术成熟度出乎意料地扎实,说明 EverMemOS 还只是 EverMind 布局的冰山角。

事实上,据 EverMind 透露,他们已经开始构造整套的混解决案,其中底层是信息处理模块,上层则是在强化学习的驱动下,通过调用模型参数来实现对信息的使用。

当初做 EverMemOS 的时候,直接挑战难的多对多协作场景,而非基础的 1v1 人机对话场景,就是因为他们把目光放在了长远的标准重塑上。

△用 EverMemOS,让 Agent 拥有记忆

其次从需求侧讲,举办比赛面是为了扩大团队的影响力,将技术广出去,让行业得以复用,另面也是为了通过秀肌肉吸纳多相关域人才,然后反哺 EverMind 的全链路技术研发。

这点,从赛道设计中便可看出。三个赛道依次代表应用层、中间层、基础设施,覆盖到了用户所有的开发环节,凸显出 EverMind 对可循环应用生态的核心考量。

其实 EverMind 从开始就定位明确。它并不满足于成为个 RAG 工具或向量数据库,而是志在于做通向下代人工智能的基础设施,即长期记忆系统(Long Term Memory OS),赋予 AI 个化、主动,以及通过持续学习(Continual Learning)自我演化(Self Evolving)的能力。

EverMind 希望能够成为大模型记忆的书写者,去亲自定义记忆是如何被创建、组织、检索和演化的。

而往大的视角看,EverMind 的野心也折射出了个行业共识——

智能来到比拼长期记忆的下半场。

人类智能主要由因果理和长期记忆能力构成,如果说 OpenAI-o1、DeepSeek-R1 为 AI 带来了理能力,那么长期记忆然是下代 AI 应该拥有的核心能力。

它将突破大模型的上下文局限,帮助 Agent 具备个化特,并持续进化出层次的长期认知,这都是下代 AI 须有的特。在模型能力日益同质化的背景下,哪 Agent 能率先搭载能记忆系统,就意味着哪能够真正拉开差距,拥有留住用户的护城河。

当然要实现这点,不可能只靠个团队单斗,而需要整个生态协同发展,那么谁能成为这个生态的,就显得格外重要。

从某种程度讲,这恰恰是盛大的舒适区。

在互联网时代,盛大就靠着平台生态证明了自己的能力边界,而在如今新轮 AI 时代里,盛大依旧能将过去的战略经验迁移过来,只是这次它选择的是记忆。

所以毋庸置疑,由盛大孵化的 EverMind 将成为这个域里不可忽视的抹力量,它的野心与实力堪配。

此行然不易,但我们或许已然可以期待,在不久后的将来,有多如同 EverMind 的探路者携手共进,来真正揭开 AI 长期记忆迷宫的角。

赛事报名:https://evermind.ai/activities

云服务入口:https://console.evermind.ai/

论文链接:https://arxiv.org/abs/2601.02163

代码仓库:https://github.com/EverMind-AI/EverMemOS

官网地址:https://evermind.ai/

键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—  完  —

� � 点亮星标 � �

科技前沿进展每日见北京橡塑专用胶厂家

相关词条:铝皮保温施工     隔热条设备     钢绞线    玻璃棉卷毡    保温护角专用胶