1作者: heavenlxj26 天前原帖
嗨,HN, 我们最近做出了一个有意识的决定,将我们的人工智能产品从 Kinkora 更名为 Conut。 这并不是出于市场营销或美学的考虑,而是源于我们对创作者所面临的真实问题理解的转变。 在我们首次推出时,我们主要关注提示——帮助用户从特定模型中获得更好的结果。随着时间的推移,我们注意到了一种模式: 大多数摩擦并不是来自于启动生成,而是来自于生成之后发生的事情。 人们希望能够: - 比较不同模型的输出 - 增强或扩展生成的图像 - 将结果转化为视频或新变体 - 在不从头开始的情况下进行迭代 仅仅依靠提示并不能解决这些问题。 因此,在重新品牌的同时,我们: - 重新设计了部分用户界面,围绕迭代而非一次性生成 - 增加了对更多模型和创意模式的支持 - 开始构建一种编辑器风格的工作流程,使生成后的控制成为一流体验 Conut 仍处于早期阶段,但方向已经更加明确: 人工智能作为一个创意工作空间,而不是一个提示框。 欢迎提问或提出批评,特别是来自任何在创意或人工智能领域构建工具的人士。
3作者: ecotto12326 天前原帖
嗨,HN, 我创建了 Sidecar([https://sidecar.bz](https://sidecar.bz)),因为我在为我的上一家初创公司维护社交媒体存在感时遇到了问题。我花了很多时间尝试创作内容,但经常感到无从下手或精疲力竭,最终导致营销失败。 它是如何工作的:Sidecar 不再依赖猜测写什么,而是连接到你现有的社交媒体账户(Threads、Bluesky、Mastodon、Facebook、Instagram),分析你过去的帖子,以了解哪些内容实际上有效。 它利用这些数据生成数周的新文本内容,模仿你成功的帖子,然后你可以一次性批量安排发布。 我很想听听你对 Sidecar 的看法。如果你想测试 AI 功能,可以使用代码 HNLAUNCH 获得一个月的免费试用。
2作者: WillNickols26 天前原帖
大家好!我们是Will和Jorge,我们开发了LAD(语言辅助设计),这是一个SolidWorks插件,利用大型语言模型(LLMs)根据对话输入生成草图、特征、装配和宏命令(<a href="https://www.trylad.com/" rel="nofollow">https://www.trylad.com/</a>)。 我们来自软件工程背景,像Claude Code和Cursor这样的工具已经占据了主导地位,但在几个月前探索CAD系统时,我们意识到在任何主要的CAD系统中,都没有办法将文本提示输入转换为建模输出。在我们的测试中,LLMs在创建3D对象方面的表现不如编写代码,但我们认为它们在未来几个月和几年内会有很大提升。 为了解决这个问题,我们创建了LAD,这是一个SolidWorks插件,可以将对话输入和上传的文档/图片转换为零件、装配和宏命令。它包括: - LLM可以调用的多个工具,用于创建草图、特征和其他零件对象。 - LLM可以调用的装配工具,将零件转化为装配。 - LLM可以使用的文件系统工具,用于创建、保存、搜索和读取SolidWorks文件及文档。 - 宏命令编写/运行工具,以及SolidWorks API文档搜索,以便LLM能够使用宏命令。 - 自动截图和特征树解析,为LLM提供当前状态的上下文。 - 检查点功能以回滚不必要的编辑,以及权限设置以确定哪些命令需要用户许可。 您可以在<a href="https://www.trylad.com/" rel="nofollow">https://www.trylad.com/</a>试用LAD,并告诉我们哪些功能可以使其对您的工作更有帮助。我们非常期待您的反馈!
1作者: akopich26 天前原帖
作者在此。事情开始于我觉得虚拟函数和相关的堆分配成本太高。后来我意识到,std::any 不适用于仅可移动类型,更不用说它的 SBO 存储不可配置。同时,microsoft/proxy 仅对简单类型使用 SBO。于是事情就这样发展了…… Woid 是一个极具可定制性的高性能类型擦除的头文件库。它提供了类似于 std::any、std::function 的容器,以及用于非侵入式多态的工具。 主要特点: - 性能 - 值语义 - 支持仅可移动类型 - 鸭子类型 - 极端可定制性 在我目前的基准测试中,它的性能超过了 std::any、std::function、基于继承的多态以及一些知名库,如 function2、boost::te 和 microsoft/proxy。 我希望确保比较是公平的,因此,您对如何更好地调整现有库的建议非常欢迎。 ```cpp struct Square { double side; double area() const { return side * side; } }; struct Shape : woid::InterfaceBuilder ::Fun<"area", [](const auto& obj) -> double { return obj.area(); } > ::Build { auto area() const { return call<"area">(); } }; auto a = Shape{Square{1.5}}.area(); ``` 当然,我在这里回答您的问题。
1作者: okaris26 天前原帖
在2026年的第一周,我意外地连续使用了Cursor和Google Antigravity,并不是计划中的,而是因为我比预期更快地耗尽了两个Cursor Ultra订阅,决定尝试Antigravity的免费版本。 我的正常使用费用大约是每月60到100美元。然而,几天内费用飙升至500美元以上,仪表板预测每月约1600美元。最大模式是关闭的,用户界面始终显示200k的上下文窗口。 我最终拼凑出的事实是,Cursor维护了一个大型的隐藏提示状态。除了可见的对话历史外,这还包括工具痕迹、代理状态、推理框架和大量的代码库上下文。这个状态是通过Claude的缓存功能进行提示缓存的,每次请求时,完整的缓存前缀都会被重放。 Anthropic在每次读取缓存时都会收费,即使这些内容在实际推理之前被总结或截断。 以下是我日志中的一个具体例子: - 实际用户输入约4000个token - 缓存读取token约2100万个 - 总计收费token约2200万个 - 单次调用费用约12美元 这并不仅限于Opus。我在Sonnet中也看到了相同的模式。 支持团队解释说,这与底层API的计费方式相匹配。在我看来,问题不在于准确性,而在于可见性。费用已经与我在产品中能看到或推理的任何内容脱钩。我无法检查缓存大小、理解重放行为或设置有意义的保护措施。 于是我取消了订阅,并借此机会尝试Google Antigravity。 免费版本比我预期的更易用。它提供对Opus 4.5的访问,这仍然是我在非琐碎编码工作中的首选模型。对于简单到中等复杂度的任务,它通常能顺利完成。限制不够透明(免费→专业→超高级的描述非常抽象),但当你达到限制时,至少会收到明确的冷却消息,告诉你Opus何时会再次可用。 当Opus用尽时,Antigravity会回退到Gemini模型。这对于比较很有用。在处理混乱、不断演变的代码库时,Gemini Flash、Pro和Thinking在架构决策上始终失去一致性,产生的临时更改不尊重现有约束。 其中一些是模型质量的问题,但并非全部。Cursor的代理在收集相关代码库状态、形成计划和一致执行方面做得更好。Antigravity的代理感觉较薄弱,我发现自己花更多时间审查和纠正差异,以保持不变性。 还有一些小问题。标签补全被宣传为无限制,但我无法可靠地使用它。回到基本的自动补全让我意识到我的工作流程是多么依赖良好的标签补全。在用户体验方面,Antigravity感觉更慢。也许不是原始延迟,但响应的流动和动画方式并没有让我保持在Cursor的同一循环中。 总体结果是:Antigravity的免费版本是一个不错的起步和实验选项,尤其是当预算有限时。我还不会为此付费。Cursor仍然是一个强大的产品,但不透明的缓存和计费行为使得在大规模使用时很难推理成本。 为了提供一些背景,我在inference.sh上自己构建一个代理运行时,专注于显式状态、持久执行和可靠的深度代理与复杂工具使用。因此,我可能比大多数人对代理编排、隐藏状态以及这些设计选择如何影响成本的差异更加敏感。 这整个经历强化了我已经相信的一点:在代理系统中,隐藏状态是危险的。隐藏状态与不透明的计费结合在一起更糟。如果用户无法看到状态,他们就无法推理成本。如果他们无法推理成本,他们就不会信任系统。 现在,如果你正在进行一些没有做过一千次的工作,这些编码代理都不是“设置后就可以忘记”的。你仍然需要保持掌控。