1作者: Sxouterred25 天前原帖
我是一名在印度AIIMS读医的第一年学生,20岁。我的长期目标是创办一家脑机接口(BCI)初创公司。原因是我一直对创新以及科技与医学的交叉领域感兴趣,但由于医学生通常被要求遵循既定的体系,我并没有真正获得相关的经验。我认为我们不仅仅是要遵循传统的协议,尤其在这个人工智能的时代,跨学科的合作显得尤为重要。我有Python编程背景,以及信号处理和MNE Python等技术栈。我希望能得到一些建议,作为一名医学生,我该如何着手进行,如果你处在我的位置,你会怎么做?
8作者: Arkid25 天前原帖
我为OpenClaw(始终在线的AI代理运行时,不基于会话)构建了一个技能库,代理可以在正常对话中自我学习新行为。 这个想法是:你告诉你的代理“每次我请求代码审查时,首先要检查安全问题。”它会调用一个创建技能的功能,写入新的SKILL.md,这种行为会立即生效——无需重启,无需更改配置,也不需要开发者介入。 我认为实际上有用的功能(安全集群)包括: • 循环电路断路器:OpenClaw对所有错误进行相同的重试。在第二次相同失败时停止,以免消耗你的上下文窗口。 • 支出电路断路器:OpenClaw没有内置上限。它跟踪累积的API成本,并在可配置的阈值下暂停非必要的定时任务。 • 工作区完整性保护者:对SOUL.md、AGENTS.md和MEMORY.md进行哈希校验。损坏的SOUL.md意味着代理被劫持,且能够在重启后存活。 • 危险操作保护:在执行rm -rf、git push --force、发送电子邮件和进行财务操作之前需要明确确认,并且有审计日志。 • 提示注入保护:在对外部内容(网页抓取、电子邮件、文档)采取行动之前进行扫描。 此外:事实核查(对事实声明的二次验证)、项目入驻(从代码库自动生成PROJECT.md)、技能审核(安全扫描——约17%的社区技能是恶意的)。
1作者: tzury25 天前原帖
我们在工作流程中都在使用大型语言模型(LLM)这一事实不容否认。然而,当我们收到一封明显经过 LLM “润色”的电子邮件,或者在 HN 上看到一条显然是 LLM “改写”的评论时,心中难免会产生一种自动的挫败感。 为什么当有人做我们大家都在做的事情时,我们会感到不快?是因为明显的(过度)使用吗? 我已经到了不再像以前那样修订自己的写作的地步,为了保持“真实”,我故意保留一些小的拼写错误和语法瑕疵——这些在非母语英语使用者中是很常见的。 毫无疑问,我们将会面对越来越多的 AI 生成内容,而“我们”指的是我们人类及我们的代理人,问题是何时这种情况会达到平衡?我们何时才能接受这一事实? 这是否与我们愿意为“手工制作”商品支付额外费用有关?(作为类比:很明显,你的鞋子是机器制造的。) (*)或许除了 99.999% 的人之外,大家都是如此。 —— 为了讽刺,这里是上述内容的“由 Claude 润色”版本 —— 问 HN:在人与人之间的沟通中平衡 AI 的使用 我们在工作流程中都在使用 LLM。这并不是一个有争议的说法。然而,当你收到一封明显经过 LLM “润色”的电子邮件,或阅读一条显然是 AI 改写的评论时,几乎所有人都会感到恼怒。这种挫败感是真实存在的,虚伪也是如此。 这是否因为它的明显性?缺乏努力?还是更令人不安的原因——我们认出这张面具,因为我们自己也在戴着它? 我已经到了故意不再修订自己写作的地步,保留一些小的拼写错误和语法怪癖。这在非母语者中是很常见的。我把这些作为存在的证明。 AI 生成内容的数量只会不断增加。不仅仅是人类对其做出选择——还有我们的代理人,代表我们与彼此的代理人沟通。挫败感何时会变得正常?我们何时会将其视为基础设施,就像我们接受电子邮件或自动更正一样? 在手工制作的商品中有一个有用的类比。我们知道鞋子是机器制造的,但我们仍然愿意为手工制作的鞋子支付更高的价格。这种溢价并不在于鞋子本身——而在于信号。证明一个人选择花时间去制作。 也许这就是我们真正反应的原因:并不是 AI 的帮助本身,而是缺乏这种信号。