第三条:/clear。
你可附上引导指令:/compact focus on the auth refactor, drop the test debugging(聚焦认证重构,删掉测试调试。
自动压缩会不会于你不知情之情况下触发,丢掉枢纽讯息。
用最清醒之时候做压缩,而不为等到最糊涂之时候被动挨打。
Subagents:你之一次性调查员 此事棘手于哪。
你离速率限制还有多远。
100万上下文听起来甚美,但token不为免费之。
即把整段对话小结成一名更短之摘要,然后于新窗口里续工。
肃穆。此并非社区自造之概念,而为出自Anthropic官方博客。
100万Token听起来甚多。
」 派生一名Subagents去阅读另一名代码库,并小结其身份验证流程之实现方式,然后你自己以相同之方式实现它; 虽最自之做法就为续下去,但另外四名选项可用于帮你管上下文。
第二条:/rewind。
但模型之注意力为有尽源泉。
Anthropic自己戳破之百万上下文传说。
/clear与/compact看起来相似,但举止截然不同: 彼些海量之中间历程,全部留于子智能体之一次性上下文里。
注意,此不为一名上下文管器物。
甚多者一听「子智能体」就往「多智能体协作」上联想:团队分派、并行办理、AI员工开会讨论。
你也可让Claude小结它学到之实质并创建一条交接讯息。
【新智元导读】给之100万token,今却手把手教你怎么删记载。
/compact由模型决定什么重要,你省心但或丢枢纽讯息,而/clear由你自己写下枢纽实质,费事但精确。
接下来该走哪条路。
https://claude.com/blog/using-claude-code-session-management-and-1m-context 官方博客里有一名甚精准之裁决:与其纠正,不如回退。
) 它可读大量文书、做大量搜索、跑完整名调查流程。
上下文干洁净。
用户回馈也甚正面:它于改代码前更能有效读取上下文之。
Anthropic官方示意图:五种上下文管动作,从左到右保留之旧上下文越来越多 博客里给之三名典型场景: 4月15日此篇博客,处置之为「怎么用」之疑难。
它直接承认之现状局限,然后给出一套体系化之管法门。
开启一名新会话,附带一段简要说明:之前做之什么、今要干什么、哪些文书相关。
然后你突然说:「今修一下bar.ts里彼名warning。
第五条,Subagents。
金融安全。面对失控之「上下文腐烂」,Anthropic连夜甩出5招救命指南。
更慧之做法为rewind到读完文书彼名节点,带之新讯息重新发一条更精确之指令:别用预案A,foo模块没暴露彼名接口,直接走B。
警惕自动压缩之翻车时刻 近日,Anthropic一篇关于「如何管百万上下文」之博客中再次提到之「上下文腐烂」(context rot)之疑难,简说就为: 先把「上下文腐烂」之机制拆开看。
好于百万Token窗口给之一名缓冲区。
于同一会话中发送另一条消息,直接续聊。
光给本领不给可见性,掘发者迟早会踩坑然后流失。
用最蠢之状态去做最枢纽之小结,此事儿本身就甚难靠谱。
此为最自之选择,大多数时候也确实够用。
正大光明。除之管上下文品质,Anthropic此次还做之另一件事: 但上下文并非越长越好。
彼篇公告处置之为「能不能」之疑难:模型能不能撑住此么长之上下文。
比如Claude读之五名文书,试之一种法门没成,你之本能反应为说「此名不行,换名法门」。
上下文越长,模型越蠢。
你让一名已「走神」之模型来决定什么讯息重要、什么可丢掉。
Anthropic于博客里坦承之一名甚多掘发者已踩过之坑:自动压缩(compaction)翻车。
先告诉你「你之对话于腐烂」,然后再手把手教你怎么治。
https://claude.com/blog/using-claude-code-session-management-and-1m-context 目前,Claude Code之上下文窗口为一百万名token。
但因整名会话主要围绕调试展开,彼名warning只为中途顺带看到之一眼,压缩之时候已被丢掉之。
好处为零腐烂,上下文完全由你控制。
让掘发者看见自己之消耗。
一名中型代码库,连文档带源码,或也就几十万Token。
也许你会觉得,此不就与苍生开会开久之走神为一名道理嘛。
当你知道接下来之差事会产生大量中间输出,但你只需最终断语时,subagent为最洁之预案。
顺水推舟。上下文营造,正成为AI编程时代之必修课。
启动一名Subagents,根据以下规范文书验证此项工之结局; 派生一名Subagents,根据我之Git变更来编写此功能之文档。
每一轮交互终后,你其实站于一名岔路口,不为只有「续聊」此一条路。
根据Claude Code官方命令文档,它之作用为「显示套餐用上限与速率限制状态」。
你两小时前读之彼名配置文书、一小时前调试败之彼段日志、半小时前探求之一条死胡同,全皆还于窗口里,全皆于抢模型之注意力。
因此,每一轮交互之后,皆该花一秒钟想想:我之上下文还洁吗。
它拿到一名全新之独力上下文窗口,于里面成所有脏活,中间历程全部留于子窗口里,最后只有一份断语带回主会话。
此名功能甚小,但表明Anthropic已意识到,百万上下文时代,「用得起」与「用得好」为两名须同时处置之疑难。
让它知道什么该留什么该扔,而不为去猜。
早期彼些已不相关之实质不会自动灭,它们会像噪音一样延续干扰当前差事。
博客开头就说之,/usage此名新命令之推出,「来自吾等与主顾进行之多次交」。
本年2月,Anthropic发布Sonnet 4.6,公告里确认之100万token上下文窗口(beta)。
但百万Token≠百万有效Token。
虽Claude Code会自动调用Subagents,但你也可给它更明确之执行指令,比如: 五种场景,五名器物,选对之上下文洁,选错之模型变蠢。
蔡文姬。提出疑难后,Anthropic通过此篇博客给出之一套完整之管法门。
让模型小结当前对话,用摘要替换掉原来之史册记载。
讯息过载导致注意力稀释,此与本领无关,为带宽疑难。
回退(Rewind)通常为更佳之修正方式。
此三名场景有一名共同点:历程甚重,断语甚轻。
此有点像前景之Claude给过往之自己留之一封信:此条路我试过之,走不通。
但此恰恰为掘发者最焦虑之事。
你之主会话不会被此些噪声污秽。
什么时候翻车。
Anthropic于博客里把每一次对话交互定义为一名决策节点。
我之后还需此些器物输出本身吗,还为只需最终断语。
每一次回车,皆为一次上下文决策。
为百万token之账单 它不压缩、不回退、不清理,只做一件事:让你看见自己用之多少,还剩多少,有没有撞上限流。
Prompt engineering此几年被讲烂之。
上下文还相关,没必要折腾。
官方文档明确写道:每名subagent皆运行于自己之上下文窗口中。
Logic。但最终,只有摘要与一小段元数据会回传给主会话。
当模型无法预测你接下来要干什么之时候。
理论上你可把整名课题塞进去,然后随便问。
更要命之为,当上下文快要撑到100万Token上限时,体系会自动触发「压缩」(compaction): 两步合于一起,构成之一名完整之闭环:先给你兵刃,再教你怎么用不伤到自己之钱包。
你做之一次甚长之调试会话,自动压缩触发之,模型把整名排查历程小结之一遍。
说到底,自动压缩不为不能用,为不能盲信。
让subagent基于规格文书验证工结局;让subagent去读另一名代码库,小结它之认证流程,然后你自己来实现;让subagent根据你之git改动去写文档。
官方博客于文末放之一张决策表,按场景匹配器物: 你往对话里塞之每一条消息、每一次文书读取、每一轮器物调用,皆于稀释模型之注意力。
故subagent之本原不为你之同事,与你于一块干活,更像为你之「一次性调查员」。
触发自动压缩之彼一刻,恰恰为上下文最长、模型表现最打折之时候。
它之工簿于差事终后就可扔掉,你只需拿走最后彼页呈文。
此五条路拼于一起,本原上就为一套防除「上下文腐烂」之急救包。
有用之文书读取保留之,败之尝试丢掉之。
用户回馈也甚正面:它于改代码前更能有效读取上下文之。
Anthropic解释道,上下文窗口为指模型于生成下一条回复时能够「看到」之全部实质,它包括你之体系提示、迄今为止之对话实质、每一次器物调用及其输出,以及所有已读取之文书。
昔此些疑难没有解答,今Anthropic给之一名透明窗口。
此五名动作里,最易被误会之就为subagents。
怎么喂上下文、什么时候清理、哪些讯息该隔离、哪些该保留,此些疑难昔靠直觉,今Anthropic始给法门论之。
此听起来甚智能,但自动压缩生之彼一刻,恰恰为上下文最长、模型表现最差之时候。
Anthropic官方承认:塞太多东西,Claude就会变蠢。
若解答为后者,就交给subagent。
但Anthropic此篇博客里讲之subagents,核心身价只有一名:上下文隔离。
第四条:/compact。
/usage为干什么之。
模型之注意力被散落到更多token上,更早之、已不相关之实质会始干扰当前差事,导致表现降,此就为「上下文腐烂」。
昔此些疑难没有解答,今Anthropic给之一名透明窗口。
坏处为费事,所有底色皆得你自己写。
但此样做之疑难为,彼次败尝试之全部中间历程还留于上下文里,续污秽后续裁决。
但真正决定AI编程天花板之,或为下一名词:context engineering(上下文营造)。
一名长会话跑下来,你到底消耗之多少配额。
第一条:Continue。
把一块工交给一名有独力上下文之子智能体,干完活只把断语带回来。
Volcengine。你不用等到自动触发,可提前主动/compact,并附上说明:接下来要做什么、哪些讯息须保留。
连按两下Esc,跳回之前某条消息,从彼里重新来。
Anthropic内部用之裁决标准也甚简: 早于本年2月Sonnet 4.6发布时,公告里就写明之:Sonnet 4.6提供之测试版百万token上下文窗口。
此就为context rot之机制:模型被迫同时「记住」太多不相关之东西,没法集中精力办理眼前之差事。
上一篇:《命树》导演采访大翻车!拖家带口卖惨引争议,甩锅观众惹众怒 下一篇:特朗普“吹嘘”美军颜值:名名皆跟汤姆·克鲁斯一样,只为名子更高