返回首页

一周热榜

1作者: pistolpete__7 天前原帖
大家好, 我想分享一下我创建的 tsilly.dev,这是一个基于浏览器的 TypeScript 游乐场,灵感来源于 jsbin 短暂消失后我停止寻找替代品。 对于非技术人员:我用它来快速玩弄视觉创意,并测试某些东西在网页上的表现。它非常有助于解决“浏览器真的能做到这一点吗?”的争论,而无需打开完整项目或安装任何东西。 这个工具故意保持简单。 它像原始的 DOM 一样,遵循自然的设计理念。 没有人工智能,没有 Tailwind,没有 npm 安装,没有框架。 同样没有服务器、分析和数据收集。 它的功能包括: - 并排编辑 HTML、CSS 和 TypeScript - 多种可选布局 - 实时预览 - 控制台输出 - Emmet 支持 - 本地自动保存 - 可分享的链接 欢迎告诉我你的想法。 <a href="https:&#x2F;&#x2F;tsilly.dev" rel="nofollow">https:&#x2F;&#x2F;tsilly.dev</a>
1作者: justvugg4 天前原帖
我们为 Polymcp 添加了一流的 Ollama 支持,使得运行大型语言模型变得简单——无论您是在本地工作还是在云端部署。<p>通过将 Ollama 作为后端提供者,Polymcp 可以以最小的配置协调 MCP 服务器和模型。这使您可以专注于构建智能体,而不是处理基础设施的连接。<p>代码示例:<br> ```python from polymcp.polyagent import PolyAgent, OllamaProvider agent = PolyAgent( llm_provider=OllamaProvider(model="gpt-oss:120b"), mcp_servers=["http://localhost:8000/mcp"] ) result = agent.run("法国的首都是什么?") print(result) ```<p>这带来了以下优势: • 清晰的编排:Polymcp 管理 MCP 服务器,而 Ollama 处理模型执行。 • 相同的工作流程,无处不在:在您的笔记本电脑或云端运行相同的设置。 • 灵活的模型选择:支持 gpt-oss:120b、Kimi K2、Nemotron 等 Ollama 支持的模型。<p>我们的目标是提供一种简单的方法来实验和部署基于 LLM 的智能体,而无需额外的连接代码。<p>欢迎反馈或分享您如何使用这个工具的想法。<p>代码库链接:<a href="https://github.com/poly-mcp/Polymcp" rel="nofollow">https://github.com/poly-mcp/Polymcp</a>
1作者: singerbj4 天前原帖
Ember的移动应用体验不佳,我更希望在我已经在看的屏幕上看到我的咖啡杯。此外,现在我可以把它放在我的Claude Code旁边,看起来非常不错。 如果您发现任何问题,请在Github上提交问题反馈。也欢迎提交PR。 <a href="https://ember-mug.benjaminjsinger.com/" rel="nofollow">https://ember-mug.benjaminjsinger.com/</a> <a href="https://www.npmjs.com/package/ember-mug" rel="nofollow">https://www.npmjs.com/package/ember-mug</a> <a href="https://github.com/singerbj/ember-mug" rel="nofollow">https://github.com/singerbj/ember-mug</a>