返回首页
最新
大家好!我们正在构建 Knowledgework.ai,这是一款能够创建你同事的 AI 克隆,并且这些克隆真正了解他们所知道的内容。就像拥有一个永不疲倦、不会因为你问“愚蠢”问题而评判你的每位队友的版本,并且能够即时回应。
作为亚马逊的一名软件工程师,我常常面临两个困扰:
1. 整天在 Slack 上被打断,回答我已经回答过的问题。
2. 当我需要同事的信息时,等待几个小时(甚至几天)才能得到回复。
将这与 AI 聊天机器人的用户体验相比,人类似乎显得相当不方便!这听起来有点激进,但在我与数十位工程师,尤其是初级工程师的对话中,这种情况得到了很好的反映:人们宁愿花20分钟与一个不可靠的 AI 斗争,也不愿冒着看起来无知或浪费同事时间的风险。我的一位早期用户实际上尝试了这个产品,并告诉我她有点担心她的同事会更喜欢和她的 AI 扩展交流,而不是和她本人交流!
这是它的工作原理:这是一款桌面应用程序(目前仅限 Mac),在你工作时每5秒捕捉一次屏幕截图。它使用定制的超长上下文视觉模型(光学字符识别(OCR)不足以满足需求,通用模型成本过高!)来理解你正在做的事情,并自动构建一个可搜索的、超链接的知识库(维基),记录你所做的一切——你编写的代码、修复的错误、做出的决策,或者你在计算机上进行的任何可能对你或你的团队未来的生产力有用的操作。
即使你只在处理个人项目时启用 Knowledgework 大约 30 分钟,我相信你会发现它生成的内容非常有趣——我了解到,我们往往低估了每天产生的、但又是短暂和被遗忘的有价值信息的程度。关于量化自我和反思,还有一些非常好的机会——只需问它你昨天如何能更高效,或者如何在会议中表现得更好。
真正的价值在于你的同事可以查询你的“扩展”——一个可以访问你所有(仅限于你选择分享的)捕获工作上下文的 AI 代理。想象一下,你的同事正在度假,但你仍然可以问他们的扩展:“我正在尝试部署一个新的 Celery worker。它在传播信息,但没有接收任务。你见过这种情况吗?”
我们在优化隐私方面投入了大量精力,作为优先事项;不仅在加密和数据安全方面,还在于调节你的扩展在适当的关系中会透露什么,以及你如何配置这些内容。默认情况下,什么都不会被分享。在团队环境中,你可以选择与特定个人分享你的扩展。你可以以细粒度的方式授予和撤销对你时间某些部分的访问权限,或者如果你在一个紧密团结的团队中,你可以让 AI 决定哪些内容是合理的访问。这是我们最期待获得反馈的领域,因此我们非常针对那些重视速度和生产力的小型紧密团队推出这个产品,他们使用 Mac、Slack、Notion,并且都在 Claude Code Max 计划下。
我们还在努力实现 SOC II 类型 2 合规,并可以提供本地部署,尽管本地部署的成本会相当高。如果你对本地部署或其他认证感兴趣,我很乐意交流—— griffin@knowledgework.ai。
请在这里查看: [https://knowledgework.ai](https://knowledgework.ai)
我们今天已向任何人开放安装和免费使用。如果你在 8 月 28 日(星期四)之后看到这个消息,我们可能会重新设置代码墙——但我们很乐意为任何联系 griffin@knowledgework.ai 的人提供代码。
几周前,我分享了持久思维模型(PMM)——一个用于赋予人工智能助手在会话、设备甚至模型后端之间持久身份和记忆的Python框架。
自那时以来,我添加了一些重要更新:
- 开发任务管理器(DevTaskManager)——PMM现在可以自主打开、跟踪和关闭自己的开发任务,并记录事件生命周期(任务创建、任务进展、任务关闭)。
- 行为引擎钩子(BehaviorEngine hook)——扫描回复中的文档(例如“完成:”行、PR链接、文件引用)并自动生成证据事件;承诺现在以置信度阈值而非直觉来结束。
- 自主探测(Autonomy probes)——新的API端点(/autonomy/tasks,/autonomy/status)公开实时指标:开放任务、承诺关闭率、反思合同通过率、漂移信号。
- 缓慢演变(Slow-burn evolution)——身份和个性特征通过反思和“漂移”稳步演变,而不是在每个会话中重置。
这为什么重要:
大多数代理框架在单次运行时看起来很出色,但缺乏连续性而崩溃。PMM则不同:它保持一个仅追加的事件链(SQLite哈希链),一个JSON自我模型,以及证据门控的承诺。这意味着它可以在大型语言模型(LLM)之间保持身份和行为——将OpenAI替换为本地的Ollama模型时,“思维”保持不变。
简单来说:PMM是一个能够记忆、保持一致,并随着时间的推移慢慢发展出自我指涉身份的人工智能。
目前,它的“身份”演变较慢,出于稳定性和测试的考虑,但它确实有效。
我很想听听大家的反馈:
- 你希望从这样的“AI思维层”中获得什么?
- 这些探测(指标、通过率、证据比例)是否能够呈现出正确的信号?
- 你想象如何使用这样的工具(个人助手、具身代理、研究工具等)?
我对LinkedIn/X平台上的那些兄弟们和大师们以及他们的997美元大师班感到非常厌倦,因此我创建了一个定制的GPT,它可以告诉你他们会说的内容,而无需支付997美元的费用。
你只需给它一个商业挑战(例如:“扩大我的邮件列表”),它会回复你:
- 一份充满行话的假手册(想想“提升阶梯”、“注意力飞轮”、“稀缺级联”)。
- 一个“让事情变得更糟”的选项(甚至更多的流行词混合)。
- 一个“用简单英语解释”的选项(它会将这些混乱的术语翻译成讽刺的现实,并引用心理学/人类学)——这是我帮助人们不被这些废话所欺骗的方式。
我希望能得到以下方面的反馈:
- 这是否足够清楚地表明这是一个讽刺?我添加了很多免责声明,但我需要确保没有人会采纳任何建议。
- 这是否有趣?我玩了很多,现在我自己都无法判断了。
谢谢!
嗨,HN,
我们一直在进行模型压缩,并已在我们的AWS集群上部署了压缩后的模型以及原始版本,用户可以通过推理API访问它们。我们非常希望开发者能对集成体验和整体表现提供反馈。如果您想尝试,请发送邮件至 hyperscalers@multiversecomputing.com,我们将为您发送API密钥和简要文档。我们将向有限数量的用户开放访问权限,为期3个月,且没有使用限制,因此您可以在此期间运行实际工作负载。
模型基准测试可以在这里查看: https://artificialanalysis.ai/providers/compactifai
朋友在GoodWill购买了一台翻新的Windows 11电脑,使用了一年后,Windows 11的更新导致电脑无法启动。
1. 您能推荐一些适合Windows用户迁移的Linux发行版吗?
2. 有没有一种Linux发行版可以让我在不改变原有位置的情况下重新访问Windows 11的文件/文件系统?
好的,这件事困扰我好几周了。我在手机上玩一些抽卡游戏(别评判),突然意识到……在所有人工智能的热潮和语音技术变得超级便宜的情况下,真正的语音基础角色扮演游戏在哪里呢?
说真的,我们现在有:
- 不再糟糕的语音合成技术(像elevenLabs等)
- 能够在5分钟以上保持角色一致性的语言模型
- WebRTC现在运行得很好
- 手机可以处理语音处理
而我仍然像个原始人一样在点击对话树。最接近的可能是一些人临时拼凑的ChatGPT语音模式,但那根本算不上游戏,对吧?
我明白为什么大型游戏公司做不到这一点——你不能把一个70亿参数的模型和你的游戏一起发布,哈哈。但网页开发者呢?移动开发者呢?只需调用一个API就可以了。
难道只是游戏开发者和人工智能从业者之间没有沟通?即使推理成本降低,是否仍然太高?大家都在等苹果或谷歌先解决这个问题?
老实说,我很惊讶连一个基本的“AI地牢,但你可以和它对话”的东西都没有。AI角色聊天应用已经火爆,显然有需求。
也许我在这里遗漏了什么明显的东西,但这感觉就像是个显而易见的机会。我是不是疯了,还是这个想法就在那里等着有人去实现?
有没有人在实际开发类似的东西?或者知道阻碍是什么?我开始觉得我应该自己做个原型,但我的游戏设计技能……充其量也只是可疑。