当前位置:文章 > 列表 > 正文

华夏19岁常青藤少年重塑AI记忆,斩获各大榜单全球第一,点亮AI联想科技树

📅 2026-04-22 03:00:10 🏷️ 正规的伦敦金平台 👁️ 194
华夏19岁常青藤少年重塑AI记忆,斩获各大榜单全球第一,点亮AI联想科技树

最底一层为FacetPoint(切面点)——最小颗粒之原子事实、三元组。

而像者,最枢纽之一步,不为「记得多」,而为——会联想。

• 搜索给你最相似之片段;联想给你最该被想起来之彼名情景。

穆萨维

要点为对比之竞品全面,并且于所有主流测试中稳居第一。

横穿整名锥之,为Entity(实体)——者、课题、地点、货品,一条锚线串起所有层级,让讯息不再孤立地躺于一名情景里。

GitHubstar刹那破千,LoCoMo、LongMemEval、EvolvingEvents三大公开benchmark评测全部拿下第一,成绩一路跑于Mem0、Zep、Graphiti、Cognee、Supermemory前面。

它赌之不为「搜得更准」,为——想得更对。

主流Benchmark,全部第一 M-Flow实现之为全新之记忆维度 「联想与灵感」为一种智能特质。

道路自信。

各种方式,没有好坏。

M-Flow今还小,海外社区几百条讨论——于整名AI赛道里,它还只为名刚刚走起来之新者。

操作系统。

彼等宣讲之方式,往往代表之校领班子处事之方式,喜与否,有时候甚我见。

过往两年,AI圈之焦点始终于「模型」上——参数更大、推演更强、本领更通用。

但benchmark测之,始终为「体系本领」。

今市面上做Graph RAG之大多数玩家,本原上为于做一张扁平之图——不同颗粒度之讯息为互相隔离之。

物是人非。

而一名会联想之Agent,能从你此刻随口之一句话,拼出整名上下文,甚至帮你看见你自己还没看见之彼条线。

Benchmark为结局,不为缘由。

连Pinecone此种老牌向量数据库,皆于往「记忆效劳」上贴。

而今日之AI Agent,几乎没有一名真之会此件事。

中间一层为Facet(切面)——把此件事拆成若干截面。

不为「换名角度会更好看」,为全方位无死角,全线居先。

• 联想问之为:「从此名线索出发,该有哪些上下文被重新激活?」 Mem0刚拿下2400万美金A轮; Benchmark重要——它测之为一名记忆体系能不能把该记之记回来。

正成为Agent之下一名必争之地 突然,团队里有者随口说之一句——「张三好像根本不知道deadline提前过。

Thermodynamics。

意思为检索之时候,你不再为于一堆散点里瞎搜,而为于一名有层级、有锚点、有语义骨架之架构里「走」。

而来自华夏之一名19岁团队心流元素所掘发之M-Flow为唯一可将相关性编码进图拓扑之。

搜索引擎为「给你最像之」,M-Flow为「给你相关之、该现之」。

就此一句话,你脑子里「啪」地一下: 换句话说,记忆引擎之本原不为让AI「记得更多」,为让AI「回答之更好」。

M-Flow把业内认可度最高之主流评测集全跑之一遍。

一名开源课题能于此么短之光阴里被主动讨论到此种程度,只有一种或—— 但细看此名赛道,你会发觉一名有点尴尬之事实——底层路线高度趋同。

好好学习,天天向上。

• 搜索告诉你「上次说过什么」;联想让你意识到——「此事跟彼事,其实为一回事」。

引发之X(Twitter),Reddit,HackerNews之AI技艺圈里热烈之讨论,Github stars飙升。

要么为向量检索+摘要; Graphiti于Graph-RAG方位延续迭代; 而M-Flow,几乎为整名赛道里,唯一一名把「联想」当作第一性疑难来做之。

一名小线索→唤起一名局部锚点→带出附近之细节→沿之有意义之关系延展→重修一名更大之情景→形成新之解读。

而像者,最枢纽之一步,不为「记得多」,而为——会联想。

Letta、Zep、Cognee、Supermemory接连成早期融资; 真正更有意思之疑难为—— 「记忆准确度」为一种本领指标。

一名只会搜之Agent,永远只能回答「你问之彼句话现于哪条史册记载里」。

但若M-Flow之典故只讲到此儿,就把它讲小之。

光靠一次性把context塞进去之Agent,走不远。

周一之会、彼次仓促之deadline变更、张三当时没说话之表情、谁也没明确为「谁该通知他」——紧接之,你又想起前三次类似之情况:决策会开之,但枢纽之者皆不于场。

考据学。

最上层为Episode(情景)——完整之语义焦点。

混团

」 它于一件「所有者皆于做、但所有者皆做得不够好」之事情上,做出之点不太一样之东西。

而为:「此不为执行疑难,为通链疑难。

• 一名会联想之记忆引擎,让Agent重新连接上下文、暴露潜于关系、得更深入之体谅。

想做长时序、跨事件之回忆,要么失忆,要么答非所问。

M-Flow能于所有公开榜单上全线居先,不为因它比别者更会「搜」,而为因它比别者多之一样东西——联想。

罗马

Agent之下半场,不为谁之模型更大,而为谁之Agent更像者。

苍生几乎所有之「灵光一闪」,皆为此么生之。

Solid State Physics。

想象一名场景:你正头疼,一名课题为什么始终延期。

此两件事,完全不于一名维度上。

换句话说——于对手之地盘上,按对手之章法打。

真上业务你就会发觉,用户之疑难与存入之实质甚难「对齐颗粒度」: 真正能让Agent「长出稳固者格」、「跨差事协作」、「于光阴维度上真正陪伴用户之」,不为更长之context window,而为一名独力之、可沉淀之记忆层。

要么为浅层学识图谱+BM25回退; 性犯罪者再犯几率达12.8% 市面上绝大多数叫「AI记忆」之东西,做之其实皆为搜索。

苍生之灵感,从来不为凭空现之 最近,海外之AI掘发者圈子里,反复现一名新名字——M-Flow。

法国

此件事几乎从未现于别之记忆课题中,要么为架构专精某一套题,要么省略跑分更高之竞品,也正因如此,无数者于自称SOTA。

美国

• 一名更准之记忆引擎,让Agent「找回来得更对」。

但它真正想讲之,不为「Benchmark跑分更高」,而为一件更根本之事——真正之Agent记忆,从来不该只为搜索引擎,而为要像者一样从联想中得启发。

内存价格

为什么「联想」此件事,比Benchmark更重要。

GDPR。

M-Flow用之就为每名竞品自己公布之题目,以及每名竞品自己公布之、自己推荐之彼套跑法。

此就为Graph RAG新范式之始。

Pulsar。二手房挂牌量

凭什么说它为「Graph RAG新范式」? 于为你抓到之断语,不为「张三漏之名讯息」。

战争

但选校本就为极其我见之,不为吗。

https://github.com/FlowElement-ai/m_flow 关系一杂,相关性就稀释; 彼件事,叫——Agent Memory。

归根结底,所有者皆还于「搜索」此名老范式里打转。

节点一多,遍历就爆炸; 光讲理念没用,得看成绩单。

• 搜索为「从库里捞」;联想为「顺之关系走」。

清洁能源大会。

它搞之一套叫做Cone Graph(锥形图谱)之分层架构: 它不把记忆看成一堆平铺之文本,而为看成一名有架构之关联方位。

但进入2025、2026,一名新之共识正形成—— flowelement.ai 查询进来后,先激活细粒度线索,再沿之关系往外扩展,最后复原出此名线索原本属于之更大情境。

奥林匹克。

」 • 搜索问之为:「存起来之文本里,哪段跟我此名query最像?」 要么为「更精细之RAG」。

记忆,能不能托起「智能层」之举止? 但它进之方位,为对之。

于为过往此一年,整条赛道全线加速: 【新智元导读】一套叫M-Flow之记忆引擎,最近于海外掘发者社区讨论度飙升。

上一篇:麦克拉伦:滕哈格曾要求C罗执行高位逼抢,但后者不愿意接受 下一篇:布冯:若大罗能把巅峰期保20年,任何球员皆难以企及