由于现在看起来80%的Hacker News都集中在人工智能行业,我正在寻找一个关注其他领域的优秀技术论坛。你能分享一下你最喜欢的非人工智能相关的论坛吗?
返回首页
一周热榜
想收集一些关于因人工智能被解雇的人的故事。不是那种通用的“重组”,也不是新闻稿中所说的,而是因为人工智能的真实原因。有没有相关的证据?
“嗨,Hacker News,
我一直觉得 Docker 对于简单的 Python 部署来说有些过于复杂。它体积庞大,对于非技术用户来说也很复杂,通常会导致一个 10KB 的脚本生成超过 500MB 的镜像。
这就是我创建 Pygantry 的原因。
它是一个基于 Python venv 的极简“容器”引擎,但具有可移植性和可重定位性。
主要特点:
- 轻量级:一个完整的“打包”应用通常小于 20MB。
- 零配置:无需守护进程,无需 root 权限,无需复杂的 Dockerfile。
- 可移植:构建一次,打包后可以在任何有 Python 解释器的地方运行。
- 创始人友好:内置许可和隐身模式,适合那些正在创业的人。
我创建这个工具是为了简化我自己的 VPS 部署。我很想听听你们对架构的反馈,以及你们在工作流程中如何应对“Docker 疲劳”。
我们是一家YC W23的公司,专注于为工程实验室构建人工智能代理。我们的客户需要重复进行类似的分析,而代理在每次会话中都像一张白纸一样处理。
我们考察了Mem0、Letta/MemGPT以及其他类似的记忆解决方案。它们解决的是不同的问题:存储对话中的事实——“用户偏好Python”,“用户是素食者”。这是一种带有语义搜索的键值记忆,虽然有用,但并不是我们所需要的。
我们需要的是一种能够从用户行为中隐式学习模式的系统。当客户连续三次将阈值从85%修正为80%时,代理应该能够在下次会话中自动识别这一点。当一个团队总是使用更严格的过滤条件重新运行时,系统也应该能够捕捉到这一模式。
因此,我们围绕一个简单的想法构建了一个内部API:用户的修正是最有价值的数据。我们不是简单地摄取聊天信息并希望大型语言模型(LLM)能提取出有用的信息,而是捕捉结构化事件——代理生成了什么,用户更改了什么,他们接受了什么。后台作业定期运行LLM,以提取模式并为每个用户/团队/组织构建一个带有置信度加权的偏好档案。
在每次会话之前,代理会获取该档案,并随着时间的推移变得更加智能。
我看到的差距是:
Mem0 = 记忆存储 + 检索。无法学习模式。
Letta = 自我编辑代理记忆。更接近,但没有从行为中隐式学习。
缺失的是一个偏好学习层,它观察用户如何与代理互动,并构建一个不断演变的模型。就像一个用于代理个性化的推荐引擎。
我为我们的领域构建了这个系统,但这种方法是领域无关的。我很好奇其他人在他们的代理中是否也遇到了同样的瓶颈。乐意详细分享架构、提示和置信度评分的方法。
嗨,HN,
我有一台3D打印机,但我在CAD方面的能力很差。使用大型语言模型(LLMs)进行编码对我来说非常有效,因此我一直在尝试将类似的工作流程应用于CAD/建模。
对于简单的功能性部件(夹具、支架、适配器、小型夹具),我可以使用LLM和OpenSCAD进行循环:它编写OpenSCAD代码,我进行编译/渲染,渲染几个视图,LLM“查看”这些图像,然后我们迭代直到看起来合适。这已经很有帮助,但很快就遇到了瓶颈。任何超出简单参数化原始体的内容都变得很痛苦(复杂几何形状、精确接口、装配、公差/配合等)。
我对两件事很感兴趣。首先:你认为我们什么时候能够生成与专业水平相当的模型,类似于LLMs目前在编码方面所能做到的?其次:这种工作流程在实践中会是什么样子?它会主要保持参数化(OpenSCAD/约束),还是会更像是在SolidWorks/Fusion等工具中具有交互式“CAD副驾驶”的功能,可以通过截图+点击的方式编辑特征树?或者完全不同,比如文本转化为具有约束和检查的完整特征历史。
如果你已经在做这个,今天哪些工具/工作流程能取得最佳效果,它们又在哪些方面存在不足?
谢谢!
嗨,HN,
我和我的团队正在构建 Tabstack,旨在处理 AI 代理的网络层。今天,我们分享了 Tabstack Research,这是一个用于多步骤网络发现和综合的 API。
在许多代理系统中,从单一页面提取结构化数据与回答需要跨多个来源阅读的问题之间存在明显的区别。第一种情况目前得到了相对较好的支持,而第二种情况通常不然。
大多数团队通过结合搜索、抓取和总结来处理研究。这在规模扩大时变得脆弱且成本高昂。你最终需要管理浏览器编排,移动大量原始文本仅仅是为了提取几个主张,并编写自定义逻辑来检查问题是否真正得到了回答。
我们构建了 Tabstack Research,将这一推理循环移入基础设施层。你只需发送一个目标,系统会:
- 将其分解为针对不同数据孤岛的子问题。
- 根据需要使用抓取或浏览器自动化进行网络导航。
- 在综合之前提取并验证主张,以保持上下文窗口专注于信号。
- 检查与原始意图的覆盖情况,并在检测到信息缺口时进行调整。
例如,如果搜索企业政策发现数据分散在多个子服务中(如 Teams 数据存储在 SharePoint 中),引擎会检测到这一缺口并自动调整以寻找缺失的文档。
我们的目标是返回应用程序可以直接依赖的内容:一个带有内联引用和直接链接到源文本的结构化对象,而不是一系列链接或一个黑箱摘要。
上面链接的博客文章详细介绍了引擎架构和扩展代理浏览的技术挑战。
我们提供一个免费层,每月包含 50,000 个积分,您可以在没有信用卡的情况下进行测试: [https://console.tabstack.ai/signup](https://console.tabstack.ai/signup)
我非常希望能听到您对这种方法的反馈,并回答您关于该技术栈的任何问题。
使用Anthropic API运行OpenClaw,结果一天内消耗了大约50美元。<p>其他OpenClaw用户的情况如何?有没有人找到有效的降低成本的方法(例如模型分层、缓存等)?
大家好,
我正在建立一个名为Persona的平台,旨在将电子邮件调度委托给人工智能。最近,我一直在努力吸引第一批用户,但这确实很具挑战性。
我已经尝试了大家常说的典型策略:冷邮件、LinkedIn InMail、精准定位、写出不错的文案。但结果大多是死胡同,打开率很低,几乎没有回复。
在这个阶段,我并不想听到那些在博客或reddit上常见的建议。我特别想知道那些非常规或不明显的做法,哪些在早期确实对你们有效,尤其是那些当时看起来有点粗糙、奇怪或反直觉的做法。
如果你经历过这个阶段,什么方法真正有效并帮助你获得了第一批用户呢?
我很好奇其他人是如何处理这个问题的:我在某些任务中使用Claude,编程时用Cursor,研究时用ChatGPT,快速查找时用Perplexity。<p>问题是它们之间并不知道我与其他工具讨论过的内容。<p>我发现自己不得不反复重新解释相同的背景,或者从Notion文档中复制粘贴。<p>对于那些大量使用AI工具的朋友们:<p>- 你们是如何管理不同工具之间的共享上下文的?<p>- 你们目前的工作流程是怎样的,以保持AI的“记忆”一致?<p>- 你们找到过什么有效的解决方案吗?<p>特别希望听到那些需要多个人在不同AI会话中访问相同知识库的团队的经验。