返回首页
最新
嗨,HN,
我开发了CountermarkAI,这是一款轻量级的反爬虫和机器人检测工具,专为内容创作者和网站拥有者设计。它旨在帮助保护您的作品不被未经授权的爬取和AI训练,防止他人未经许可使用您的作品。
工作原理:
使用标签 – 创作者可以在他们的内容中添加一个独特的标签,以声明所有权。
保护网站 – 对于那些运营自己网站的人,只需在您的<head>中添加一小段代码。protect.js脚本会异步工作,将每次页面加载的元数据发送回我们的服务器,记录请求,并标记已知的AI训练机器人用户代理(如CCBot、GPTBot、ClaudeBot)。如果检测到机器人,它会直接将页面内容替换为“本网站禁止AI机器人”。
这段代码中包含一个隐藏的图像,浏览器不会加载,但某些机器人可能会被诱骗请求该图像。
仪表板 - 一旦您注册,您可以查看所有进入您域名的机器人及其IP地址。因此,您可以通过IP进行屏蔽。
展望未来,我计划推出API,使您能够自动化机器人和IP查询,并允许直接从您的服务器推送请求元数据,以便与您现有系统无缝集成。
我非常希望听到您对可用性和任何您认为可以进一步保护创作作品免受机器人爬取的功能的反馈。感谢您抽出时间查看!
祝好,Setas
我很高兴地介绍Vishu (MCP) Suite,这是一个我正在开发的开源应用程序,它通过将大型语言模型(LLMs)深度集成到核心工作流程中,采用了一种新颖的漏洞评估和报告方法。
主要理念是什么?
Vishu (MCP) Suite并不仅仅在最后使用LLMs进行总结,而是将其作为整个评估过程中的核心推理引擎。这是通过一个强大的模型内容协议(MCP)代理框架来管理,旨在执行复杂任务。
核心功能及LLMs的应用:
1. 智能工作流编排:在MCP的指导下,LLM可以:
- 计划和策略制定:使用顺序思维规划工具,LLM将高层目标(例如,“评估example.com的网络漏洞”)分解为一系列逻辑思考步骤。它甚至可以根据输入数据修订其计划!
- 动态工具选择与执行:根据其计划,LLM从不断增长的工具库中选择并执行合适的工具。目前的工具包括:
- 端口扫描(PortScanner)
- 子域枚举(SubDomainEnumerator)
- DNS枚举(DnsEnumerator)
- 网页内容获取(GetWebPages, SiteMapAndAnalyze)
- 一般信息和CVE的网络搜索(WebSearch, WebSearch4CVEs)
- 从向量数据库中进行数据摄取与查询(IngestText2DB, QueryVectorDB, QueryReconData, ProcessAndIngestDocumentation)
- 从发现中生成全面的PDF报告(FetchDomainDataForReport, RetrievePaginatedDataSection, CreatePDFReportWithSummaries)
2. 上下文结果分析:LLM接收工具输出,并利用这些信息来指导其下一步,反思进展并根据需要进行调整。客户端中的REFLECTION_THRESHOLD确保其定期审查整体策略。
3. 独特的MCP代理框架与SSE框架:
- MCP-Agent框架(ReConClient.py):这不仅仅是一个脚本执行器。MCP框架管理“计划”(评估任务),维护与LLM的对话历史,处理工具执行(包括缓存结果),并管理LLM的思维过程。它被设计得非常稳健,具备重试逻辑等功能。
- 服务器发送事件(SSE)实现实时交互(Rizzler.py, mcp_client_gui.py):后端(基于FastAPI)通过SSE与客户端(包括Dear PyGui界面)进行通信。这使得:
- 工具输出的实时流式传输:实时观看像端口扫描器或网站映射器这样的工具发送回数据。
- 动态更新:GUI实时反映代理的状态、新计划和工具日志。
- 灵活性与可扩展性:SSE框架使得集成新的流式或长时间运行的工具变得更加容易,并能立即反映其进展。Rizzler.py中的工具注册(@mcpServer.tool())旨在便于扩展。
我们需要您的帮助来使其更好!
这是一个持续进行的项目,我相信它有很大的潜力。我希望社区能够参与进来:
- 尝试一下:克隆代码库,进行设置(您需要一个GOOGLE_API_KEY和可能的本地SearXNG实例等——请参见.env模式),并进行一些评估!
- GitHub代码库:https://github.com/seyrup1987/ReconRizzler-Alpha