返回首页

一周热榜

1作者: __patchbit__6 天前原帖
我看到有提到一所医院使用机器人从人类身上抽血,成功率为94%(向下取整)。对于政策制定者和医院管理者来说,关于在对人类和生物体操作机器人时可接受的失败率,有什么指导建议?
1作者: koistya6 天前原帖
我最近在一个名为 Verist 的小型开源项目上进行开发,想在这里分享一下,以便获得一些早期反馈。 让我感到困扰的并不是如何构建 AI 功能,而是之后的一切:解释某个事件发生的原因、几周后再现该事件,或者在不以微妙方式破坏事物的情况下更改提示/模型。 日志在某种程度上有所帮助,但远远不够。代理框架对我来说感觉太隐晦了。而模型升级则实在让人感到害怕,输出会发生变化,且不总是能明确知道变化的原因或位置。 因此,我最终构建了一个非常小巧、明确的内核,在这里每一个 AI 步骤都可以被重放、比较和审查。可以把它想象成一种类似 Git 的工作流程,用于 AI 决策,但并不试图成为一个框架或运行时。 这不是一个代理框架,不是聊天界面,也不是平台,只是一个专注于明确状态、审计事件以及重放和比较的 TypeScript 库。 代码库:<a href="https://github.com/verist-ai/verist" rel="nofollow">https://github.com/verist-ai/verist</a> 我特别想知道这里的其他人是否在将 AI 功能投入生产时遇到过类似的问题,或者觉得这是否有些过于复杂。欢迎提问或提出批评。
1作者: harbinger-sec4 天前原帖
我对标准大型语言模型(LLM)接口收集的数据量感到沮丧,因此我构建了一个简约且注重隐私的替代方案。 主要特点: - 私密的人工智能对话,零数据保留。 - 账户和账单身份存在,但提示和响应内容不存在。 - 仅在内存中处理 · 无聊天记录 · 不会使用您的数据进行训练。 - 免费选项,无需信用卡信息。 - 短小、简洁的域名,便于分享:wraith.sh 目标:提供一种真正私密的方式,使用LLM进行敏感的头脑风暴、草拟或随意交流,而不留下任何记录。 我非常希望能收到关于用户界面/用户体验的反馈,特别是任何我可以添加的隐私保护功能的建议。 在这里试用: [https://wraith.sh](https://wraith.sh)