返回首页
最新
大家好,
我在PolyMCP中添加了一个技能系统,以解决大规模MCP服务器常见的问题。
当工具数量增加时:
- 代理在加载原始模式时消耗令牌
- 工具发现变得嘈杂
- 不同的代理需要不同子集的工具
- 编排逻辑泄漏到提示中
技能是经过整理的、结构化的MCP工具集,并附有文档。代理只加载它们所需的技能,而不是完整的工具模式。
技能是通过从MCP服务器发现工具并自动分类生成的。
示例:从Playwright MCP服务器生成技能:
```
polymcp skills generate --servers "npx @playwright/mcp@latest"
```
HTTP MCP服务器:
```
polymcp skills generate \
--servers "http://localhost:8000/mcp" \
--output ./mcp_skills
```
标准输入MCP服务器:
```
polymcp skills generate \
--stdio \
--servers "npx -y @playwright/mcp@latest" \
--output ./mcp_skills
```
在代理中启用技能:
```python
agent = UnifiedPolyAgent(
llm_provider=llm,
skills_enabled=True,
skills_dir="./mcp_skills",
)
```
好处:
- 更小的代理上下文
- 可扩展到大型工具集
- 代理之间可重用的能力
- 工具访问控制无需更改提示
- 适用于HTTP和标准输入MCP服务器
仓库链接: [https://github.com/poly-mcp/Polymcp](https://github.com/poly-mcp/Polymcp)
显示未聚焦行的渲染预览以及正在编辑的行或块的原始Markdown。
现在,越来越多的人使用智能手机录制同一个事件的视频。我在想Pretti和Good的案件。我听说过高斯溅射技术,它可以从多个摄像头构建3D场景。这种技术在分析这些事件时是否有用?如果有,是否有人能够开发一个易于使用的开源工具?
我推测,这种技术可能有以下几方面的用处:(1) 同步视频,(2) 获取比单个摄像头更多的细节,(3) 跟踪多个摄像头看到的物体(比如Pretti的枪),以及(4) 识别AI生成的视频。
对我来说,最后一点最为重要。AI生成或修改事件视频的风险是存在的。在我看来,从N个视频中应用高斯溅射技术,有可能检测到第N+1个视频是否与场景一致或不一致。
这可能吗?
问题:我想使用我的工具,你想使用你的工具,而我们雇佣的承包商又使用另一套工具。这给所有参与者带来了不必要的摩擦。
Ideon 是一个自托管的可视化工作空间,旨在弥合这一差距。它并不替代你现有的技术栈(如 GitHub、Figma、Notion 等),而是提供一个共享的上下文,让所有这些元素在一个无限的画布上共存。
我们之所以构建这个工具,是因为项目常常因碎片化而失败——代码在一个地方,决策在聊天记录中,视觉效果在设计工具里。Ideon 旨在让所有参与者都能“心智上导航”项目。
主要功能:
- 可视化模块:空间化组织代码库、笔记、链接、文件和人员。
- 状态历史:通过工作区快照跟踪决策的演变。
- 多人协作:实时协作。
- 自托管:基于 Docker,采用 AGPLv3 许可证。
技术栈:Next.js、PostgreSQL、Docker。
期待听到你对这个方法的反馈!