返回首页
最新
我有很多人工智能订阅,包括ChatGPT、Claude、Perplexity和Gemini。我的工作流程变成了:先问Claude,然后将同样的问题粘贴到ChatGPT中进行验证,如果需要来源,再问Perplexity。五个标签页,不断复制粘贴。
Council只需将你的提示同时运行在多个模型上,并并排显示响应。就这么简单。
在构建这个过程中,我注意到了一些事情:
1. 模型之间的意见分歧比我预期的要大得多。问任何稍微主观或最近的问题,你会得到有意义的不同答案。这让我对将任何单一回应视为“答案”变得更加怀疑。
2. 不同的模型有不同的失败模式。Claude往往比较谨慎,喜欢保留余地。GPT即使错误也很自信。Perplexity提供来源,但有时会误解它们。将它们放在一起可以清晰地看到这些模式。
3. 对于代码,我实际上喜欢获得2-3种不同的方法。即使其中一种明显更好,看到替代方案也有助于我理解权衡。
技术方面:使用Next.js,OpenRouter进行模型访问,流式响应并行处理。麻烦的部分是处理当模型以不同速度响应时的用户界面——你不希望布局跳来跳去。
尝试这个不需要登录。欢迎反馈,特别是关于哪些地方有问题或让人烦恼的。
<a href="https://usecouncil.app/" rel="nofollow">https://usecouncil.app/</a>
ChatGPT 应用程序 SDK 的学习曲线较陡,尤其是在 OAuth 方面,您是提供者,而 ChatGPT 是客户端(而不是反过来)。这可能会让您感到困惑。
<p>本技能教您如何正确构建 ChatGPT 应用程序:</p>
<pre><code> - MCP 服务器设置(Node.js/Python)
- 使用 PKCE 和动态客户端注册的 OAuth
- 使用 window.openai API 开发小部件
- 20+ 常见问题及解决方案
</code></pre>
如何安装:
<p>npx skills add https://github.com/vdel26/skills</p>
<p>GitHub:</p>
<p>https://github.com/vdel26/skills</p>
<p>希望能收到关于在构建 ChatGPT / MCP 应用程序时遇到的遗漏问题的反馈。</p>
嘿,HN,
这是一个使用 Go 1.26 的实验性 simd/archsimd 包的 CSV 解析器。
我想看看新的 SIMD API 在实际中的表现。CSV 解析主要是“在缓冲区中查找这些字节”——加载 64 字节,进行比较,获取位置的位掩码。最有趣的部分是正确处理块边界(引号和行结束符可能会跨块分割)。
- 可以作为 encoding/csv 的替代品
- 在 AVX-512 上,未加引号的数据速度提高了约 20%
- 带引号的数据速度较慢(仍在优化中)
- 对于非 AVX-512 的情况提供标量回退
需要设置 GOEXPERIMENT=simd。
[https://github.com/nnnkkk7/go-simdcsv](https://github.com/nnnkkk7/go-simdcsv)
欢迎对边缘案例或 SIMD 实现提供反馈。
在过去的几个月里,我一直在重新思考动态语言运行时如何与现代硬件进行交互。最终的成果是ProtoCore及其首个主要实现ProtoJS。
大多数动态运行时(如Python、Ruby,甚至是JS引擎)通过全局解释器锁(GIL)或复杂的内存屏障来处理并发,因为在多个线程之间管理可变状态是非常困难的。
在ProtoCore中,我采取了不同的路径,基于三个支柱:
1. 默认不可变性:所有核心数据结构都是不可变的。我们不使用锁,而是通过结构共享来提高内存效率。这在本质上消除了对象级别的数据竞争。
2. 硬件感知内存模型:对象与缓存行对齐(64字节单元),以防止伪共享并优化缓存局部性。
3. 标记指针:我们为小整数使用56位嵌入负载,这意味着大多数数值操作不需要堆分配。
为了验证这一架构,我构建了ProtoJS。它使用QuickJS进行解析,但用ProtoCore原语替换了整个运行时。这允许真正的工作线程执行(“延迟”),在不复制或涉及GIL相关争用的情况下,共享不可变对象。
当前状态:
- ProtoCore:100%测试通过率(50/50测试),并于今天完成了全面的技术审计。
- ProtoJS:第一阶段完成,展示了真正的并行执行和低于1毫秒的垃圾回收暂停。
我是一名电子工程师(现在是一名大学教授),我想看看应用低级硬件原理是否能够解决高级并发的“混乱”。
我很想听听你对这种以不可变性为首的系统编程方法的权衡看法。
ProtoCore(引擎):https://github.com/numaes/protoCore
ProtoJS(JS运行时):https://github.com/gamarino/protoJS
嗨,HN,
我是Tullie,Shaped的创始人。之前,我在Meta AI担任研究员,负责Instagram Reels的排名工作,并且是PyTorch Lightning的贡献者。
我们创建ShapedQL是因为我们注意到,虽然检索(找到1000个项目)已经被向量数据库商品化,但排名(找到最佳的10个项目)仍然是一个基础设施问题。
要构建一个合适的推荐流或具有长期记忆的RAG系统,通常需要组合一个向量数据库(如Pinecone/Milvus)、一个特征存储(如Redis)、一个推理服务,以及数千行Python代码来处理业务逻辑和重新排名。
我们构建了一个引擎,将这些整合为一种单一的SQL方言。它将声明式查询编译为高性能的多阶段排名管道。
工作原理:
ShapedQL不是简单的SELECT,而是在推荐系统中以四个阶段进行操作:
1. 检索:通过混合搜索(关键词 + 向量)或协同过滤获取候选项。
2. 过滤:应用硬约束(例如,“库存 > 0”)。
3. 评分:使用实时模型对结果进行排名(例如,p(click)或p(relevance))。
4. 重新排序:应用多样性逻辑,以确保您的代理/用户不会看到10个几乎相同的结果。
语法:以下是一个RAG查询的示例。这替代了大约500行标准的Python/LangChain代码:
```sql
SELECT item_id, description, price
FROM
-- 检索:在多个索引中进行混合搜索
search_flights("$param.user_prompt", "$param.context"),
search_hotels("$param.user_prompt", "$param.context$")
WHERE
-- 过滤:硬性业务约束
price <= "$param.budget" AND is_available("$param.dates")
ORDER BY
-- 评分:实时重新排名(个性化 + 相关性)
0.5 * preference_score(user, item) +
0.3 * relevance_score(item, "$param.user_prompt")
LIMIT 20
```
如果您不喜欢SQL,您也可以使用我们的Python和TypeScript SDK。我很想知道您对语法和抽象层的看法!