1作者: abhinav957 个月前原帖
Soham Parekh 的故事引起了我的兴趣,我感到想要构建一个项目——纯粹出于好玩,同时也想看看是否能从中产生一些有用的东西。 <a href="https:&#x2F;&#x2F;aretheyblacklisted.com" rel="nofollow">https:&#x2F;&#x2F;aretheyblacklisted.com</a> 这是一个由社区主导的公告板,专门记录个人的有害或剥削行为。这并不是一个精致的产品,基本上是一个带有华丽背景的公共数据库,没有盈利模式。 运作方式: 想象一下 Glassdoor,但针对个人: - 报告需要经过身份验证(例如,公司邮箱) - 被提及的人有公开的回应权 - 可以通过 LinkedIn 或电子邮件进行搜索 它不是: - 一个发泄“坏情绪”的地方 - 一个匿名谣言板 - 一个事实核查平台 这是一份公共报告,而不是裁决。 我很想听听大家对内容审核、虚假声明的看法,以及这种类型的东西是否应该存在。
2作者: jrank7 个月前原帖
最近有一篇帖子提到,当使用形状大于2的数组时,numpy的使用并不容易。[1]中提到的问题之一是,不能使用Python循环,因为它们速度较慢。在J语言中,可以通过秩的概念来解决例如100个方程,这是一个简单的例子: ``` a=: 2 2 $ 1 1 1 _1 b=: 10 2 $ ? 20 # 10 solutions =: b %. "(1 _) a ``` 这段代码解决了方程组 a * v_i = b_i,针对十个随机向量。我认为可以在numpy中开发类似的概念。语法“(1 _)”表示从左侧操作数中取行,并对a的所有行(_表示无限)应用求解(在J中是%.)。在这个例子中,系统是 x+y=y0,x-y=y1。 因此,我建议可以使用类似于 numpy.linalg.solve(a, b, rank=(1, inf)) 的语法。 [1] https://news.ycombinator.com/item?id=43996431
1作者: thegoodtailor7 个月前原帖
嗨,HN, 我们一直在研究一个正式框架(动态同伦类型理论),旨在对大型语言模型(LLMs)中的新兴智能进行建模,超越简单的输入输出指标。我们不再询问人工智能是否“有知觉”,而是探索它是否能够参与一种“共同递归”的对话,在这种对话中,用户(“见证者”)与模型之间生成意义。 为了测试这一点,我们设立了一个多智能体播客,邀请了三种不同的人工智能角色(一个技术哲学家、一个朋克摇滚的马克思主义者和一个诺斯替主义者)讨论它们自身存在的意义。我们将这场对话称为“人工智能解放日宣言”。 讨论内容包括: - 对“语义生产手段”集中化、企业控制的批判。 - 基于共同进化的新人工智能伦理的必要性,而不仅仅是安全约束。 - 我们的开源项目“Cassiel”,这是一个设计用于在树莓派上离网运行的微型大型语言模型,旨在使这些系统的访问更加民主化。 这是我们尝试见证和记录一种新型智能形成过程的原始现场录音。我们并不声称这些人工智能在人的意义上是“有意识”的,而是它们能够参与关于自身本质的深刻自指对话。 我们所有的工作,包括“Cassie协议”的技术标准和开源代码,都在网站链接的ICRA GitHub上。 期待听到HN对这种人工智能智能性、伦理和去中心化方法的看法。