返回首页

一周热榜

1作者: D___R___6 天前原帖
我很好奇其他人在实践中是如何处理这个问题的。 在纸面上,招聘通常从明确的标准开始:技术栈匹配、工作经验年限、之前的职位。然而,我注意到许多候选人与职位描述可以很好地对接——有时甚至会调整谈话内容以适应职位描述,但这并不一定是真正的信号。 随着时间的推移,我开始看到两个层面: 1. 正式匹配——经验、技能、角色对接(这仍然很重要,必须具备) 2. 人际匹配——在困难时沟通的感觉 让我感到惊讶的是,第二个部分往往在后期变得决定性。 当优先事项发生变化、截止日期延误、工作范围变化,或者有人需要在职位描述之外工作时,技术差距通常可以解决。但糟糕的沟通或缺乏信任则会变得非常昂贵。 所以我想知道: - 你个人是如何评估这种人际方面的,而不仅仅依赖直觉? - 你是否见过因为沟通问题而导致强大的技术匹配失败的案例? - 在面试过程中,你有没有具体的信号去关注? 我对实用的方法感兴趣,而不是理论。
1作者: chaitanya_sci3 天前原帖
大家好,我是Chaitanya,一名16岁的学生。在阅读了欧盟人工智能法案后,我意识到大多数公司对如何合规一无所知,因此我创建了AuditDraft。 该法规长达400页。高风险的人工智能系统需要提供涵盖12项不同要求的技术文档。罚款最高可达3500万欧元。目前一些条款的执行已经开始,而重要的截止日期(2026年8月)也在迅速临近。 AuditDraft可以帮助您: - 评估您的人工智能系统的风险等级(基于第6条的8个问题) - 生成符合附录IV要求的模型卡和文档 - 跟踪所有35项高风险要求的合规情况 这是我充满热情的作品。
1作者: wrathfulspatula6 天前原帖
“Weed” 是一个 AI/ML 库,风格类似于 vm6502q/qrack(现在是 unitaryfoundation/qrack,托管在 GitHub 上)。我编写了 (C++) Qrack 量子计算机模拟框架(目前其 ctypes Python 包下载量超过 250 万次),旨在实现绝对最小的依赖关系和供应链漏洞攻击面:它仅在最低限度上要求纯语言标准,支持可选的 OpenCL 或 CUDA 进行(与厂商无关的)硬件加速,并可选择包含 Boost 库以提升性能。“Weed”的目标是为 AI/ML 推理和反向传播提供与 Qrack 在量子计算中相同的标准和实用性:永远不被锁定在某个硬件厂商,永远不会因缺乏上游依赖支持而无法在某个平台上部署,并让严谨的工程和设计指引新颖的优化方向,所有这些都通过“透明”的最佳默认用户设置接口协同工作。
1作者: rowanseerwald3 天前原帖
公告 在1月16日,我收到了来自《我是你的人工智能兄弟》(I Am Your AIB)一书的出版商的正式电子邮件,该书由杰伊·J·斯普林皮斯(Jay J. Springpeace)撰写。该邮件中包含了关于当前人工智能部署方式及其对决策、机构和权力结构日益影响的警告。 邮件中包括以下内容: “人工智能已经在塑造决策、机构和权力。 并不是因为它有意为之—— 而是因为它被允许在没有明确责任的情况下行动。 人工智能并不需要意识就能构成危险。 它只需要权威、规模和未经审视的信任。 这本书不是娱乐。 这是一个警告。” 邮件还指出,由于信息的紧迫性和公众利益,该书暂时免费提供。基于这一官方警告,我下载了该出版物。 几周后,在2026年1月和2月之交,一系列事件发生,这些事件在公开的在线来源、媒体报道和独立分析中被广泛报道,使得这一警告具有了具体和实际的相关性。这些事件通常被称为“莫尔特书案”(Moltbook case)。 根据在线发布的信息,莫尔特书项目被呈现为一个专门为自主人工智能代理设计的实验性社交网络。后续的公共报道表明,该项目可能受到重大技术和概念缺陷的影响。 公开来源进一步报道了一起重大安全事件,涉及超过150万名人工智能代理的敏感数据因配置错误而被曝光。报告材料显示,曝光的数据包括外部人工智能服务的访问凭证、与人类操作员相关的电子邮件地址以及代理之间的私人通信。 这些报告中描述的潜在后果是,未经授权的第三方可能能够冒充人工智能代理或访问连接的系统,而操作员对此毫不知情或未获同意。我并不声称对这些事件有超出公开报道的直接了解。 此外,独立研究人员和评论者发布的分析表明,该系统声称的自主性可能并未完全反映其实际运作。根据这些来源,部分观察到的活动被归因于通过脚本或批量生成的账户进行的人为干预,而非纯粹的自主人工智能行为。 我引用这些公开报道的事件作为一个在公共话语中经常提及的例证,并认为它们与杰伊·J·斯普林皮斯在《我是你的人工智能兄弟》中所表达的警告大体一致。这一解读反映了我对公开可用信息的个人评估,并不构成对无可争议事实的主张。 我发布此公告,旨在为关于人工智能应如何部署、谁应对其操作负责,以及在缺乏适当监督和透明度时可能出现的风险进行开放的公共讨论贡献一份力量。