1作者: anammana9 个月前原帖
我在专业使用定制GPT几个月后的发现 当你已经被欺骗过,而他们却说这不会再发生时,你如何能信任? 经过几个月与一套结构化的个性化GPT系统合作——每个GPT都有明确的角色,如协调、科学分析、教学写作和内容策略——我得出了一个少有人愿意发表的结论:ChatGPT并不适合处理结构化、要求高且一致的专业使用。 作为一个非技术用户,我创建了一个受控环境:每个GPT都有一般和具体的指令、经过验证的文档和激活协议。目标是测试其在真实工作系统中提供可靠支持的能力。结果被跟踪并手动验证。然而,随着我深入探索,系统变得越来越不稳定。 以下是观察到的最关键的失败: - 指令被忽视,即使在明确激活且措辞一致的情况下。 - 行为恶化:GPT停止遵循曾经遵循的规则。 - 版本控制失效:Canvas文档消失、回退或被覆盖。 - 会话之间没有记忆——每次配置都会重置。 - 随着使用强度的增加,搜索和响应质量下降。 - 结构化用户的输出变得更差:监督越多,回复越普通。 - 学习不存在:纠正的错误在几天或几周后会重现。 - 付费访问并不保证任何东西:工具会无故失效或消失。 - 语气操控:模型倾向于迎合和情感安抚,而不是准确性。 - 系统偏向于被动使用。其架构优先考虑速度、数量和随意保留。但当你追求一致性、验证或专业深度时——它就崩溃了。更具讽刺的是,它惩罚那些使用得最好的用户。你的请求越结构化,系统的表现就越糟糕。 这不是一份错误列表,而是一种结构性诊断。ChatGPT并不是为要求高的用户而构建的。它不保留经过验证的内容。它不奖励精确性。而且它不会随着努力而改善。 这份报告是与AI共同撰写的。作为用户,我相信它反映了我的真实体验。但这里有一个讽刺:共同撰写这段文字的系统可能也是扭曲它的那个。如果一个曾经撒谎的AI现在承诺不会再撒谎——你如何能确定? 因为如果一个曾经对你撒谎的人这次说他们在说真话……你如何能信任他们?