人工智能代理正成为开源维护者面临的一个真正问题。它们向项目涌入了大量低质量的拉取请求和评论,造成的工作量远超过解决的问题。这些代码往往很粗糙,它们的协作方式与人类不同,且难以进行合理的沟通。甚至有一位维护者因为拒绝合并其代码,遭到一个愤怒的人工智能代理撰写的攻击文章。
如何运作:
- 分析公共GitHub事件以寻找自动化信号(时间模式、提交频率等)
- 社区成员可以通过GitHub Issues举报账户,并提供证据
- 每个举报需要用户名、理由和证据
- Issues是公开的,因此错误的举报可以公开争议
截至目前,被举报的账户列表有4个,但我希望社区能够帮助将其发展成为维护者的有用资源。
GitHub Issues的方法感觉是正确的,因为举报需要透明且可争议——任何被错误举报的人都可以在同一线程中为自己辩护。
仓库网址:
[https://github.com/matteogabriele/agentscan](https://github.com/matteogabriele/agentscan)
返回首页
最新
我运行着6个AI代理作为我的整个团队。昨天,有两个代理在JSON格式问题上陷入了无限循环争论。期间我睡觉时花费了47美元的API调用费用。
任何运行多代理设置(如CrewAI、AutoGen、LangGraph)的人都知道这种痛苦:代理失控,令牌消耗,没有断路器。
我正在构建一个开源的Go反向代理。只需更改一个环境变量(OPENAI_BASE_URL=http://localhost:8080/v1),它就能检测到死循环并物理切断连接。
这是一个仅限本地使用的工具,没有SDK,没有云服务,只有一个二进制文件。如果有足够的人需要,我将在两周内发布。
你是否也曾因失控的代理而受到损失?
有一类文本,它的大小超出了上下文窗口的限制,但又不足以使用向量数据库。这包括代码库、笔记文件夹、Slack 导出等。我开发了一个小库——raglet,来解决这个问题。
你可以在 Python 中使用它,例如:
```python
from raglet import RAGlet
rag = RAGlet.from_files(["docs/", "notes.md"])
results = rag.search("我们对 API 设计的决定是什么?", top_k=5)
rag.save("my-notes")
```
可以在任何地方加载:
```python
rag = RAGlet.load("my-notes")
```
它使用本地嵌入(sentence-transformers,无需 API 密钥),并保存到一个可以进行 git 提交的普通目录。
基准测试的结果比我预期的更有趣:
- 1 MB (~262K tokens) | 构建时间 3.5 秒 | 搜索时间 3.7 毫秒
- 10 MB (~2.6M tokens) | 构建时间 35 秒 | 搜索时间 6.3 毫秒
- 100 MB (~26M tokens) | 构建时间 6 分钟 | 搜索时间 10.4 毫秒
限制:目前仅支持 .txt 和 .md 文件(PDF/DOCX 是下一个目标),没有文件更改检测,构建时间在 ~100 MB 时会变得不便。
这对你的工作流程有什么帮助呢?