我很好奇这里的人们正在构建哪些开源项目,为什么你们开始这些项目,以及你们是如何维持它们的(例如:捐赠、托管、支持等)。
以下是我的项目:
1. https://github.com/Buho-Ecosystem/Buho_go
2. https://github.com/pratik227/zap_dashboard
欢迎分享链接。
返回首页
最新
- NanoAI 将基于提示的生成、引导图像转换和精确浏览画布统一在一个本地化工作空间中,使团队能够在不切换上下文的情况下,从概念快速转化为精美的资产。<p>- 通过图像到图像的功能重新混合上传的参考资料,直接在画布编辑器中精细调整每一笔画,并在发布之前使用内置的调整大小/转换工具完成交付物。
<a href="https://github.com/Dawaman43/xsql" rel="nofollow">https://github.com/Dawaman43/xsql</a>
我正在尝试一种基于规则的方法来对谷歌搜索结果页面(SERP)片段进行分类(中立/不利/权威-监管),以用于合规和尽职调查的案例。<p>我遇到的一个问题是来自高权威来源的误报:单个监管机构的PDF文件或一项旧的执法行动可能会压倒数十个中立结果,即使上下文已经发生了实质性的变化。<p>对于从事开放源信息(OSINT)、风险或搜索分析的人员:你们通常如何在大规模中验证误报与真实的不利信号?你们是否以不同的方式权衡权威性,或者应用时间或上下文衰减?
朋友们,你们对铝合金有任何问题吗?我打算进行一项调查并收集这些问题。谢谢!
Helix 是一个动态的模拟服务器,能够实时生成数据,支持使用 LLM(如 Ollama、DeepSeek、Groq)。<p>与其他 AI 生成器的主要区别在于:模式强制执行。
LLM 最大的问题之一是输出结果的不确定性。为了解决这个问题,Helix 允许您提供一个“系统模式”(可以使用 TypeScript 接口、JSON Schema 或纯文本规则)。该引擎确保生成的 JSON 严格遵循您定义的键和值类型,同时仍能生成内容的真实值。<p>功能:
- 本地优先:与 Ollama 完全离线工作(推荐使用 Llama 3.2)。
- 模式安全:您可以强制严格的结构合规,以防止前端出现问题。
- 混乱模式:可选地模拟延迟和错误率。
- 技术栈:Python 3.11、FastAPI、Redis、Docker。<p>它是开源的(AGPLv3)。我非常希望听到您的反馈,特别是关于模式验证方法的意见!<p>代码库:<a href="https://github.com/ashfromsky/helix" rel="nofollow">https://github.com/ashfromsky/helix</a>