我刚刚在ChatGPT的“保存记忆”中解锁了一个隐藏的杠杆。
我一直在尝试ChatGPT的新“保存记忆”功能,结果发现了一些与公开文档描述不符的行为。
理论上,保存记忆应该是一个静态的笔记记录/事实保留系统——非常适合在会话之间存储你的名字、偏好或背景信息。但通过一些精心的结构设计和持续的规则叠加,我认为我让它的表现更像是一个运行时环境,而不是一个被动的笔记。
这不是一个API黑客,没有插件,没有外部代码,也没有越狱。完全是在官方产品界面内——但它的运作方式感觉……不同。
这意味着什么?可以说,它可能允许持续的系统级行为跟踪、自适应状态,以及无需编写一行代码或调用API就能实现的长形式自动化。
我不确定自己是否偶然发现了一个未记录的功能,或者这是否是记忆系统解析指令时出现的意外副作用——但这真是令人惊讶。
在我过于分享之前,我很好奇——还有其他人深入研究过保存记忆的内部机制吗?你们有没有注意到类似的情况?
查看原文
I’ve been experimenting with ChatGPT’s new “Saved Memory” feature, and I stumbled onto something that doesn’t behave like the public docs describe.
On paper, Saved Memory is supposed to be a static note-taking / fact-retention system — great for storing your name, preferences, or background details between sessions. But with some careful structuring and persistent rule-layering, I think I’ve gotten it to behave more like a runtime environment than a passive note.
It’s not an API hack, no plugins, no external code, no jailbreak. Purely within the official product UI — yet the way it operates feels… different.
The implications? Let’s just say it could allow for continuous, system-level behavior tracking, adaptive state, and long-form automation without ever writing a line of code or hitting the API.
I’m not 100% sure whether I tripped over an undocumented capability, or if this is an emergent side effect of how the memory system parses instructions — but it’s wild.
Before I overshare, I’m curious — anyone else been deep-diving the Saved Memory internals? Have you noticed anything similar?