返回首页
最新
在谷歌搜索中提交介于 -1 和 1 之间的数值时,我收到“您的搜索没有匹配任何文档”的提示。这是一个错误,还是我在写这个查询时不准确?
我想花一点时间表达我对Hacker News的感激之情。我已经在这里潜水/成为成员多年,这个社区在我职业和个人生活中都是一个宝贵的资源。
虽然互联网的许多部分变得喧闹或表面化,但Hacker News依然是网络中的一个独特角落。这里的讨论始终提供深度、知识的好奇心,以及一种在其他地方难以找到的清新礼貌。
感谢每一个深思熟虑地贡献、分享知识的人,使这个社区成为互联网中最好的地方之一。
祝大家编程愉快!
我编写了一个单文件的 Python 脚本,允许你通过命令行运行 LLM 提示,支持模板化、结构化输出以及将提示串联在一起的功能。
当我发现谷歌的 Dotprompt 格式(前置信息 + Handlebars 模板)时,我意识到这正是我一直想要的:将提示视为可以像 Unix 风格那样串联的第一类程序。谷歌在 Firebase Genkit 中使用了 Dotprompt,而我想要的是更简单的方式——直接在命令行上运行 .prompt 文件。
以下是它的样子:
```
---
model: anthropic/claude-sonnet-4-20250514
output:
format: json
schema:
sentiment: string, positive/negative/neutral
confidence: number, 0-1 score
---
分析情感:{{STDIN}}
```
运行示例:
```
cat reviews.txt | ./runprompt sentiment.prompt | jq '.sentiment'
```
我认为有趣的几点:
* 结构化输出模式:使用简单的 `field: type, description` 语法在前置信息中定义 JSON 模式。LLM 会可靠地返回有效的 JSON,你可以将其传递给其他工具。
* 提示串联:将一个提示的 JSON 输出作为模板变量传递给下一个提示。这使得构建多步骤的智能工作流变得简单,就像普通的 shell 管道一样。
* 零依赖:它是一个单独的 Python 文件,仅使用标准库。只需下载并运行它。
* 提供者无关:支持 Anthropic、OpenAI、谷歌 AI 和 OpenRouter(通过一个 API 密钥访问数十个模型)。
你可以用它来自动化一些任务,比如从非结构化文本中提取结构化数据、从日志生成报告,以及构建小型智能工作流,而无需启动整个框架。
期待你的反馈,欢迎提交 PR!
也许对于某些模型,比如ChatGPT使用的模型,这些回复的生成成本更低?