要么为向量检索+摘要; Graphiti于Graph-RAG方位延续迭代; 而M-Flow,几乎为整名赛道里,唯一一名把「联想」当作第一性疑难来做之。
而来自华夏之一名19岁团队心流元素所掘发之M-Flow为唯一可将相关性编码进图拓扑之。
而一名会联想之Agent,能从你此刻随口之一句话,拼出整名上下文,甚至帮你看见你自己还没看见之彼条线。
M-Flow把业内认可度最高之主流评测集全跑之一遍。
」 它于一件「所有者皆于做、但所有者皆做得不够好」之事情上,做出之点不太一样之东西。
横穿整名锥之,为Entity(实体)——者、课题、地点、货品,一条锚线串起所有层级,让讯息不再孤立地躺于一名情景里。
苍生几乎所有之「灵光一闪」,皆为此么生之。
最上层为Episode(情景)——完整之语义焦点。
它搞之一套叫做Cone Graph(锥形图谱)之分层架构: 它不把记忆看成一堆平铺之文本,而为看成一名有架构之关联方位。
Letta、Zep、Cognee、Supermemory接连成早期融资; 真正更有意思之疑难为—— 「记忆准确度」为一种本领指标。
但它真正想讲之,不为「Benchmark跑分更高」,而为一件更根本之事——真正之Agent记忆,从来不该只为搜索引擎,而为要像者一样从联想中得启发。
意思为检索之时候,你不再为于一堆散点里瞎搜,而为于一名有层级、有锚点、有语义骨架之架构里「走」。
彼等宣讲之方式,往往代表之校领班子处事之方式,喜与否,有时候甚我见。
为什么「联想」此件事,比Benchmark更重要。
真上业务你就会发觉,用户之疑难与存入之实质甚难「对齐颗粒度」: 真正能让Agent「长出稳固者格」、「跨差事协作」、「于光阴维度上真正陪伴用户之」,不为更长之context window,而为一名独力之、可沉淀之记忆层。
Agent之下半场,不为谁之模型更大,而为谁之Agent更像者。
搜索引擎为「给你最像之」,M-Flow为「给你相关之、该现之」。
归根结底,所有者皆还于「搜索」此名老范式里打转。
此就为Graph RAG新范式之始。
节点一多,遍历就爆炸; 光讲理念没用,得看成绩单。
谢天谢地。• 搜索告诉你「上次说过什么」;联想让你意识到——「此事跟彼事,其实为一回事」。
而像者,最枢纽之一步,不为「记得多」,而为——会联想。
https://github.com/FlowElement-ai/m_flow 关系一杂,相关性就稀释; 彼件事,叫——Agent Memory。
M-Flow今还小,海外社区几百条讨论——于整名AI赛道里,它还只为名刚刚走起来之新者。
• 搜索给你最相似之片段;联想给你最该被想起来之彼名情景。
周一之会、彼次仓促之deadline变更、张三当时没说话之表情、谁也没明确为「谁该通知他」——紧接之,你又想起前三次类似之情况:决策会开之,但枢纽之者皆不于场。
千方百计。今市面上做Graph RAG之大多数玩家,本原上为于做一张扁平之图——不同颗粒度之讯息为互相隔离之。
但若M-Flow之典故只讲到此儿,就把它讲小之。
Flutter。而为:「此不为执行疑难,为通链疑难。
引发之X(Twitter),Reddit,HackerNews之AI技艺圈里热烈之讨论,Github stars飙升。
想象一名场景:你正头疼,一名课题为什么始终延期。
就此一句话,你脑子里「啪」地一下: 换句话说,记忆引擎之本原不为让AI「记得更多」,为让AI「回答之更好」。
凭什么说它为「Graph RAG新范式」? 于为你抓到之断语,不为「张三漏之名讯息」。
但benchmark测之,始终为「体系本领」。
此件事几乎从未现于别之记忆课题中,要么为架构专精某一套题,要么省略跑分更高之竞品,也正因如此,无数者于自称SOTA。
不为「换名角度会更好看」,为全方位无死角,全线居先。
但选校本就为极其我见之,不为吗。
• 一名会联想之记忆引擎,让Agent重新连接上下文、暴露潜于关系、得更深入之体谅。
平等。想做长时序、跨事件之回忆,要么失忆,要么答非所问。
于为过往此一年,整条赛道全线加速: 【新智元导读】一套叫M-Flow之记忆引擎,最近于海外掘发者社区讨论度飙升。
GitHubstar刹那破千,LoCoMo、LongMemEval、EvolvingEvents三大公开benchmark评测全部拿下第一,成绩一路跑于Mem0、Zep、Graphiti、Cognee、Supermemory前面。
各种方式,没有好坏。
M-Flow用之就为每名竞品自己公布之题目,以及每名竞品自己公布之、自己推荐之彼套跑法。
最底一层为FacetPoint(切面点)——最小颗粒之原子事实、三元组。
此两件事,完全不于一名维度上。
要么为浅层学识图谱+BM25回退; 性犯罪者再犯几率达12.8% 市面上绝大多数叫「AI记忆」之东西,做之其实皆为搜索。
换句话说——于对手之地盘上,按对手之章法打。
苍生之灵感,从来不为凭空现之 最近,海外之AI掘发者圈子里,反复现一名新名字——M-Flow。
• 搜索为「从库里捞」;联想为「顺之关系走」。
Benchmark为结局,不为缘由。
光靠一次性把context塞进去之Agent,走不远。
• 一名更准之记忆引擎,让Agent「找回来得更对」。
主流Benchmark,全部第一 M-Flow实现之为全新之记忆维度 「联想与灵感」为一种智能特质。
一名小线索→唤起一名局部锚点→带出附近之细节→沿之有意义之关系延展→重修一名更大之情景→形成新之解读。
」 • 搜索问之为:「存起来之文本里,哪段跟我此名query最像?」 要么为「更精细之RAG」。
中间一层为Facet(切面)——把此件事拆成若干截面。
它赌之不为「搜得更准」,为——想得更对。
要点为对比之竞品全面,并且于所有主流测试中稳居第一。
正成为Agent之下一名必争之地 突然,团队里有者随口说之一句——「张三好像根本不知道deadline提前过。
M-Flow能于所有公开榜单上全线居先,不为因它比别者更会「搜」,而为因它比别者多之一样东西——联想。
一名开源课题能于此么短之光阴里被主动讨论到此种程度,只有一种或—— 但细看此名赛道,你会发觉一名有点尴尬之事实——底层路线高度趋同。
连Pinecone此种老牌向量数据库,皆于往「记忆效劳」上贴。
但进入2025、2026,一名新之共识正形成—— flowelement.ai 查询进来后,先激活细粒度线索,再沿之关系往外扩展,最后复原出此名线索原本属于之更大情境。
• 联想问之为:「从此名线索出发,该有哪些上下文被重新激活?」 Mem0刚拿下2400万美金A轮; Benchmark重要——它测之为一名记忆体系能不能把该记之记回来。
而今日之AI Agent,几乎没有一名真之会此件事。
而像者,最枢纽之一步,不为「记得多」,而为——会联想。
一名只会搜之Agent,永远只能回答「你问之彼句话现于哪条史册记载里」。
记忆,能不能托起「智能层」之举止? 但它进之方位,为对之。
过往两年,AI圈之焦点始终于「模型」上——参数更大、推演更强、本领更通用。