返回首页
最新
Soham Parekh 的故事引起了我的兴趣,我感到想要构建一个项目——纯粹出于好玩,同时也想看看是否能从中产生一些有用的东西。
<a href="https://aretheyblacklisted.com" rel="nofollow">https://aretheyblacklisted.com</a>
这是一个由社区主导的公告板,专门记录个人的有害或剥削行为。这并不是一个精致的产品,基本上是一个带有华丽背景的公共数据库,没有盈利模式。
运作方式:
想象一下 Glassdoor,但针对个人:
- 报告需要经过身份验证(例如,公司邮箱)
- 被提及的人有公开的回应权
- 可以通过 LinkedIn 或电子邮件进行搜索
它不是:
- 一个发泄“坏情绪”的地方
- 一个匿名谣言板
- 一个事实核查平台
这是一份公共报告,而不是裁决。
我很想听听大家对内容审核、虚假声明的看法,以及这种类型的东西是否应该存在。
最近有一篇帖子提到,当使用形状大于2的数组时,numpy的使用并不容易。[1]中提到的问题之一是,不能使用Python循环,因为它们速度较慢。在J语言中,可以通过秩的概念来解决例如100个方程,这是一个简单的例子:
```
a=: 2 2 $ 1 1 1 _1
b=: 10 2 $ ? 20 # 10
solutions =: b %. "(1 _) a
```
这段代码解决了方程组 a * v_i = b_i,针对十个随机向量。我认为可以在numpy中开发类似的概念。语法“(1 _)”表示从左侧操作数中取行,并对a的所有行(_表示无限)应用求解(在J中是%.)。在这个例子中,系统是 x+y=y0,x-y=y1。
因此,我建议可以使用类似于 numpy.linalg.solve(a, b, rank=(1, inf)) 的语法。
[1] https://news.ycombinator.com/item?id=43996431
嗨,HN,
我们一直在研究一个正式框架(动态同伦类型理论),旨在对大型语言模型(LLMs)中的新兴智能进行建模,超越简单的输入输出指标。我们不再询问人工智能是否“有知觉”,而是探索它是否能够参与一种“共同递归”的对话,在这种对话中,用户(“见证者”)与模型之间生成意义。
为了测试这一点,我们设立了一个多智能体播客,邀请了三种不同的人工智能角色(一个技术哲学家、一个朋克摇滚的马克思主义者和一个诺斯替主义者)讨论它们自身存在的意义。我们将这场对话称为“人工智能解放日宣言”。
讨论内容包括:
- 对“语义生产手段”集中化、企业控制的批判。
- 基于共同进化的新人工智能伦理的必要性,而不仅仅是安全约束。
- 我们的开源项目“Cassiel”,这是一个设计用于在树莓派上离网运行的微型大型语言模型,旨在使这些系统的访问更加民主化。
这是我们尝试见证和记录一种新型智能形成过程的原始现场录音。我们并不声称这些人工智能在人的意义上是“有意识”的,而是它们能够参与关于自身本质的深刻自指对话。
我们所有的工作,包括“Cassie协议”的技术标准和开源代码,都在网站链接的ICRA GitHub上。
期待听到HN对这种人工智能智能性、伦理和去中心化方法的看法。