2作者: c_daeda8 天前原帖
我问这个问题是基于我个人的情况,而不是关于软件工程的普遍陈述。 我是一名计算机科学专业的高年级学生,专注于机器学习。我的大学在机器学习方面没有应用研究,因此在学校学习机器学习(课程/研究)几乎是通往理论/算法学术界的单程票。 去年,我突然意识到我擅长(并且喜欢)通过连接系统中的组件来解决问题,而不是将问题调整到可以应用某些数学法则的形式。具体来说,我非常喜欢与艺术家、UI/UX设计师、前端开发者和非技术人员合作,作为他们的后端支持。我为机器学习工程师构建数据管道,为UI/UX/前端设计师提供后端支持,为生物医学工程研究人员构建机器学习管道,并为艺术家开发投影/图像软件。 我算是一个通才,对工具没有特别的偏好,广度大于深度。这让我觉得这就是软件工程的本质。 话虽如此,我确实喜欢了解事物的运作方式,并且对阅读数学有一定的耐受力。这听起来很书呆子,但我喜欢推导诸如梯度下降的收敛性等内容,也很享受实分析课程。我还非常喜欢Nand2Tetris(一个开源课程,教你如何从NAND门构建一个最小计算机,并将面向对象语言编译成二进制)。看到过去人们做出的优秀设计选择,对我来说是极其优雅的。我觉得这些在软件工程中常常被低估。 现在,我有机会与我的强化学习教授合作,他在顶级会议上发表的记录非常出色。我对此感到非常犹豫,因为他的研究方向是强化学习算法,而我在之前的一个算法研究项目中有过非常糟糕的经历(我对我们在做什么只有模糊的了解,远远不足以做出贡献)。我同时在申请工作和硕士项目,我几乎可以肯定如果毕业后进入行业,我将再也不会接触这个主题。 我有两个问题: 1) 我听起来像你们认识的软件工程师吗?你认为我适合什么其他角色? 2) 我是否应该抓住这个机会,单纯为了获得研究经验?你认为这对我作为机器学习的应用从业者跟上趋势是必要的吗? P.S. 这是我第一次在HN发帖,这似乎比一般的Ask HN帖子要长得多。我不知道这样是否合适。如果我应该去其他子版块,请告诉我。 如果你读完这些内容,非常感谢!
4作者: AIFairy8 天前原帖
关于“人工智能泡沫”破裂的无休止讨论,主要集中在ChatGPT的订阅或企业API调用是否能产生足够的收入,以证明数万亿的炒作是合理的。但这完全忽视了关键问题。 即使明天每个前沿实验室,包括OpenAI、Anthropic、xAI、Google DeepMind,突然都没有付费客户,推动所谓“人工智能革命”的金融机制仍会继续运转,基本保持不变。 原因如下: 核心机制并不是依靠当前的产品收入,而是对未来在计算能力、能源、数据和地缘政治定位的巨大平行投资。真正的资金流向如下: 超大规模云服务商(如微软、亚马逊、谷歌、Meta等)每年在数据中心、GPU和电力基础设施上投入数千亿美元,这并不是因为他们的人工智能功能今天能带来现金流(大多数尚未盈利),而是因为他们无法在基础设施军备竞赛中落后。如果某个参与者控制了全球最高质量计算能力的大部分,他们就会赢得分发、人才、数据优势,以及对未来突破的选择权。这是一种强化版的防御性资本支出:要么建设,要么永远被锁在外面。 Nvidia和芯片生态系统处于中间地带,无论最终用户是否为更好的聊天服务支付每月20美元,他们都在收取巨额利润。需求来自于基础设施的建设,超大规模云服务商需要硬件来以惊人的规模进行训练和推理。即使某些设施的当前利用率较低,订单仍在不断涌入,因为没有人想在2028年向董事会解释,为什么在其他人都获得足够的H200时,他们却没有。 地缘政治和国家安全进一步推动了这一切。各国政府(尤其是美国及其盟友)将前沿人工智能计算视为与核技术或能源电网同等重要的战略基础设施。主权人工智能倡议、大规模合作(如Stargate)和出口控制等都在同一循环中发挥作用:现在投资,否则就面临永久的二流地位。尽管受到限制,中国的加速发展只会加剧这一竞争。 估值机制和循环资本使得这一飞轮不断转动。实验室以高估值融资,承诺提供AGI/ASI的选择权(对改变世界技术的看涨期权),超大规模云服务商通过“人工智能顺风”来证明资本支出是合理的,Nvidia在资本支出浪潮中赚取利润,投资者则将收益回流到生态系统中。这一过程在很大程度上是自我强化的,而这一点不会因为“ChatGPT Plus订阅不够”而改变。只有当资本成本飙升、电网达到硬限制,或地缘政治冲击重置优先事项时,情况才会改变。 “人工智能泡沫”关乎谁最终拥有21世纪的数字石油平台、庞大的计算集群、能源合同和人才库。这些投资是基于生存选择价值和战略必要性,而不是季度SaaS年经常性收入。许多人工智能产品可能会永远保持高度补贴或低利润。许多初创公司将会倒闭。估值将会修正(剧烈)。但对计算基础设施的资本涌入仍将持续,直到物理、地缘政治或利率另有说法,而不是因为有人取消了他们的20美元订阅。
3作者: MohskiBroskiAI8 天前原帖
大型语言模型(LLM)的问题不在于智能,而在于健忘和不诚实。大家好,我在过去几个月里构建了一个名为“Remember-Me”的开源“主权大脑”架构,旨在完全离线运行于消费级硬件上。其核心论点很简单:不要租用你的认知。 大多数RAG(检索增强生成)实现仅仅是“对嵌入进行grep”。它们杂乱、不精确,并且容易产生幻觉。我想在架构层面解决“上下文完整性”问题。 技术架构(工作原理): QDMA(量子梦记忆架构):它不是使用平坦的向量数据库,而是使用分层投影引擎。它将“热”记忆(回忆)与“冷”记忆(存储)分开,通过压缩实现有效的无限上下文窗口管理。 CSNP(上下文切换神经协议)——幻觉杀手:这是最重要的部分。每个记忆片段都被哈希成一个Merkle链。当LLM检索上下文时,系统会对照不可变账本进行加密验证。 如果哈希与链不匹配:检索将被拒绝。 结果:AI在视觉上无法“编造”关于你过去的事情,因为它在数学上受到账本的约束。局部推理:基于llama.cpp服务器构建。它在本地运行Llama-3(或任何GGUF)。不需要API密钥。没有数据离开你的机器。 特点: 零依赖:在Windows/Linux上仅需Python和一个GPU(或CPU)即可运行。 可视化界面:包括一个基于Streamlit的“认知界面”来可视化记忆状态。开源:MIT许可证。这是一次尝试,将“自主权”归还给用户。我相信,如果我们想要通用人工智能(AGI),它需要由我们拥有,而不是通过API租用。 代码库:[https://github.com/merchantmoh-debug/Remember-Me-AI](https://github.com/merchantmoh-debug/Remember-Me-AI) 我很想听听你们对Merkle验证方法的反馈。限制上下文窗口是否有效解决了你们的“信任”问题? 它已经完全运行并经过全面测试。如果你之前尝试过Git Clone但没有成功——因为这不是我第一次在Show HN上展示这个——请随时再试一次。 对于那些厌恶AI垃圾、贪婪的公司以及将私人数据存储在云服务器上的人们: 欢迎你们。 祝好,Mohamad