返回首页
最新
你好,HN,
我创建了一个名为 socket-call 的 TypeScript 库(因为缺乏更吸引人的名字),其目标是能够像调用普通函数一样调用 socket.io 事件。
你可以这样声明你的服务器端:
```typescript
const listenEvents = (services: UserServices) => ({
login: async (username: string) => {
services._socket.data.user = { username };
console.log(`用户 ${username} 已登录`);
setInterval(() => {
services.showServerMessage(`你仍然登录着 ${username}!`)
}, 1000);
return `你现在已登录 ${username}!`;
},
});
```
然后在客户端,你可以像正常的异步 JavaScript 函数一样调用它们(你也可以创建客户端事件处理程序):
```typescript
const user = socket.addNamespace<UserEmitEvents, UserListenEvents>(
'/user'
);
user.login(username.value).then((message) => {
console.log('服务器确认消息:', message);
});
user.showServerMessage = (message) => {
console.log('服务器发送的消息:', message);
};
```
我在自己的项目中使用这个库,并希望能收到关于它的反馈 :-)
嗨,HN,
我开发了PromptForge——一个轻量级的SaaS工具,旨在帮助开发者和技术团队以最小的摩擦生成优化的GPT-4提示。
核心理念是:与其每次手动编写提示,不如选择一个用例,填写几个结构化字段,立即获得一个高质量的提示,准备好用于ChatGPT或API。
功能:
- 结构化输入 → 提示输出
- 选择你的用例和模型
- 保存和管理提示历史
- 通过API与OpenAI GPT-4o兼容
- 干净的用户界面,使用Lovable和Supabase构建
我注意到在团队中,提示工程变得臃肿且不一致——PromptForge旨在简化和标准化这一过程,特别是针对重复任务或内部工具。
该应用目前已上线,欢迎试用:
<a href="https://forge-ai-interface.lovable.app/" rel="nofollow">https://forge-ai-interface.lovable.app/</a>
我非常希望听到你的想法和反馈,特别是在以下方面:
- 用户体验(是否足够快速和直观?)
- 你期望的开发团队用例
- 任何看起来缺失或过于复杂的功能
感谢你抽时间查看!
– Fabian
AI大型语言模型从图像中获取的最大上下文之一是其元数据,但这一点被极大地低估了。虽然PNG和JPEG格式都提供元数据,但在分享时很容易被剥离,而且对于基于AI的工作流程来说,它们的元数据非常有限,提供的有用条目也很少。此外,这些格式已经相当古老(1995年和1992年),是时候为我们的AI时代进行升级了。
请认识MEOW(元数据编码优化网页文件)——一种开源图像文件格式,基本上可以看作是增强版的PNG,我也喜欢称之为完美的文件格式。
MEOW不是将元数据与图像一起存储,而是使用最低有效位(LSB)隐写术直接将其编码到图像像素中——将数据隐藏在你肉眼无法察觉的最低有效位中,这样也不会显著增加图像的大小。因此,如果你使用任何形式的无损压缩,它仍然会保留。
我注意到,大多数“创新”的图像文件格式由于缺乏采用而消亡,但MEOW与PNG完全兼容。你可以直接将一个.MEOW文件重命名为.PNG,并在普通图像查看器中打开。
以下是每个像素中嵌入的内容:
- 边缘检测图 - 预计算的边界,以便AI不浪费时间去判断物体的起止位置。
- 纹理分析数据 - 表面图案、粗糙度、材料属性等已被映射。
- 复杂度评分 - 告诉AI模型不同区域需要多少处理能力。
- 注意力权重图 - 突出显示模型应集中计算的区域(如面孔、文本、重要物体)。
- 物体关系数据 - 检测到的元素之间的空间连接。
- 未来扩展空间 - 为AI想要添加的内容保留的位(或用于训练LORA或标记的注释)。
当然,所有这些都是可编辑和可配置的,并且在压缩、分享,甚至截图和重发的过程中都能保留 :p
当你将任何图像格式转换为.meow时,它会自动生成大多数AI特定的特征和数据,从图像中提取的信息,使其工作效果更佳。
期待大家对这个项目的想法、建议或创意 :)
我在编写聊天机器人的过程中感到失望。我希望能够实现以下功能:<p>我写一个文件,在文件中注释我期望代码在此时此刻应该执行的内容。当我运行代理以构建或编译这些描述时,<p>它当然应该提供我所列出的功能。如果它觉得有必要创建我未指定的其他代码部分,它应该注释说明为什么做出这个决定,以及它所生成的代码的作用。<p>从本质上讲,我希望有一个代理,能够让我以一种文献编程的方式来处理非文献编程的工作流程。https://en.wikipedia.org/wiki/Literate_programming<p>如果你有一些想法可以帮助我实现这个目标,请分享。如果你认为永远不可能产生这样的东西,也请告诉我(尽管我认为这是可行的)。<p>请注意,我不想要一个在我输入时进行交互的机器人,我想要一个人工智能构建步骤。为什么?因为我打字非常快且没有错误,早年我曾做过数据录入工作。交互式机器人让我变慢,而且大多数时候输入效果不佳。<p>我敢打赌这可能是可行的,很多人可能会想,为什么这个家伙不直接做X或Y,但问题在于——到目前为止,我所经历的都是不令人满意的交互式机器人,而在研究这个问题时,世界上最受欢迎的搜索引擎也让我感到失望,所以希望这里的人能解释一下如何才能实现我想要的。
看看我的语义缓存项目吧!<p>它旨在轻松集成到现有的LLM工作流程中,您可以将其用作代理,缓存会将未命中的请求转发到指定的上游,而不进行修改,并自动用响应更新缓存。<p>您还可以使用提供的Python库将其用作旁路缓存。<p>它通过计算输入查询的嵌入向量,并将其与已见的查询+响应对进行匹配,使用的是向量存储。<p>所有操作都在内存中进行,因此速度非常快 :)
我开发了一个工具,可以模拟9种不同的残疾,让开发者体验到13亿人每天在网上面临的挑战。仅仅是ADHD(注意力缺陷多动障碍)的模拟就会改变你设计界面的方式。这个工具是免费的,试用只需2分钟。