返回首页
最新
问题:我有一个包含多个组件的项目,每个组件都有自己的构建步骤。解决方案:serdev 根据请求的路由构建并提供组件,同时监视变化以触发重建。
我已经深入参与人工智能代理和大型语言模型(LLMs)的工作一段时间了。在最近的求职过程中,我发现自己不断向不同的助手解释我的技能和经验。与此同时,我也在为我的网站创建内容,以帮助招聘团队更好地了解我的能力,从而做出明智的决策。
MCP开始获得关注,我看到了减少工作量的机会。因此,我建立了一个MCP服务器,可以有效地传达我作为求职者的资格。这个服务器充当一个由人工智能驱动的简历,提供对我专业背景的理解,以及一套工具、提示和资源,帮助探索我的技能和经验。
代码是开源的,因此你可以创建自己的人工智能驱动的简历服务器。请查看这里: [https://github.com/jhgaylor/node-candidate-mcp-server](https://github.com/jhgaylor/node-candidate-mcp-server)。
在求职过程中,我将我的MCP服务器与其他工具(如Notion、Hirebase和Gmail)结合使用,以建立潜在客户数据库、撰写求职信并跟踪我的求职进展。
他们恨耶稣,因为他告诉了他们真相。<p>另见:被标记的黑客新闻帖子所引发的斯特赖桑效应:https://www.youtube.com/watch?v=rkhrf5MNYRk<p>我不会让我的帖子被标记。我会被听到。
我最近更新了 llm-exe,这是一个专门为简化使用大型语言模型(LLMs)创建应用程序而构建的模块化 TypeScript 库。该包允许您在不更改底层代码的情况下调用来自不同提供商的 LLM。
该库专注于结构化、轻量化和模块化的设计,使开发人员能够轻松地从可重用组件组装复杂的工作流程:
- **提示(Prompts)**:提供结构化模板,用于管理复杂的提示,并内置 Handlebars 支持。
- **解析器(Parsers)**:将原始 LLM 响应(字符串)转换为结构化数据的组件,支持 JSON、数组、枚举提取和自定义解析逻辑。
- **LLM 提供商(LLM Providers)**:为各种提供商抽象的接口,包括 OpenAI、Anthropic、xAI、Google Gemini、AWS Bedrock 和 Ollama,允许在不更改实现逻辑的情况下无缝切换。
- **执行器(Executors)**:LLM 执行器接收一个 LLM、一个提示、可选的解析器,并封装在一个类型良好的函数中。LLM 执行器是一个容器,可以用来调用具有预定义输入和输出的 LLM;在执行时可以提供额外的值。LLM 执行器的输入和输出类型分别由提示和解析器决定。
- **工具(Utilities)**:用于常见任务的辅助工具,如提示调试、缓存和管理对话状态。
以下是您可能创建结构化执行器的示例:
```typescript
import { createLlmExecutor, createChatPrompt, createParser, useLlm } from 'llm-exe';
const llm = useLlm("openai.gpt-4o-mini");
const prompt = createChatPrompt<{input: string}>('将短语 "{{input}}" 翻译成法语、西班牙语和德语,并以无序的 markdown 列表返回结果。');
const parser = createParser('listToArray');
const translateExecutor = createLlmExecutor({ llm, prompt, parser });
// 结果的类型为 string[]
// 输入类型也经过良好定义!
const result = await translateExecutor.execute({ input: "Hello, world!" });
console.log(result);
// 输出: ["Bonjour le monde!", "¡Hola, mundo!", "Hallo, Welt!"]
```
请查看这里的文档和更多示例:llm-exe.com。我期待您的反馈或贡献!
嗨,HN,
我们开发了AgentShield,这是一个Python SDK和命令行工具,用于在AI代理执行潜在风险操作(如外部API调用或执行生成的代码)之前添加安全检查点。
问题:代理调用任意URL或运行未经检查的代码可能导致数据泄露、SSRF(服务器端请求伪造)、系统损坏等问题。
解决方案:AgentShield拦截这些操作:
- <i>guarded_get(url=...)</i>:在发起请求之前,检查URL是否符合政策(阻止内部IP、HTTP等)。
- <i>safe_execute(code_snippet=...)</i>:在执行之前,检查代码中是否存在风险模式(如os导入、eval、文件访问等)。
它通过简单的API调用来评估操作是否符合可配置的安全政策。它包含了针对常见风险的默认政策。
开始使用:
安装:
```
pip install agentshield-sdk
```
获取API密钥(命令行):
```
agentshield keys create
```
在Python中使用:
```python
from agentshield_sdk import AgentShield
# shield = AgentShield(api_key=...)
# await shield.guarded_get(url=...)
# await shield.safe_execute(code_snippet=...)
```
完整的细节、文档和完整的自述文件请访问 <a href="https://pypi.org/project/agentshield-sdk/" rel="nofollow">https://pypi.org/project/agentshield-sdk/</a>。
我们之所以开发这个工具,是因为随着代理能力的增强,确保代理交互的安全性显得尤为重要。现在仍处于早期阶段,我们非常希望能听到您对该方法、可用性和政策的反馈。