3作者: NotAnOtter4 个月前原帖
Stack Overflow曾经是2010年代初期技术问题和解释的避风港。然而,某个时候,管理团队的态度发生了变化,开始任命一些成员,他们开始以薄弱的理由拒绝和删除评论。比如,问一个8年前已经被问过的问题就会导致你的问题被删除,完全忽视了在这8年间技术可能发生的变化。这个网站不仅整体上充满毒性,而且使用起来也很困难。在2010年代末,搜索你的问题加上“stack overflow”成了主要的使用方式。大型语言模型(LLM)成为了Stack Overflow的最后一根稻草,使用数据也反映了这一点。为什么要费心搜索并仔细措辞你的问题,结果却在8小时后得到一个尖酸刻薄的回答,而Claude可以在5秒钟内给你一个大致相同准确度的答案呢? 那么,Reddit是否也会走上Stack Overflow的老路?各个子版块的管理者们已经毒性十足很久了。政治相关的子版块培养了群体思维,冷门话题则排斥那些信息不足的成员等等。Reddit的管理员,网站雇佣的那些人,通常也对用户持反对态度。无缘无故地禁止成员,缺乏或根本没有对禁令的解释,基本上就是用铁拳和橡皮脑袋进行管理。 Reddit填补了与Stack Overflow不同的市场空缺,更加注重娱乐性。但我觉得它采用的同样错误的管理模式将在大约5年内导致同样的衰亡。 你怎么看?
1作者: rh1214 个月前原帖
数十亿美元的投入,以及对几年内实现通用人工智能(AGI)的巨大宣传。是否有人认为目前基于深度学习/神经网络的人工智能方法最终会走入死胡同,无法兑现其承诺?如果是的话,为什么? 我意识到这个问题的定义有些模糊。毫无疑问,目前的方法将继续改进并取得成果,因此可能不容易界定“死胡同”。 在这个背景下,我想看看是否有人认为当前的方向是错误的,并且不会带我们到达最终目标。