3作者: sidmurali23大约 1 个月前原帖
嗨,HN,我是Confident AI团队的一员,我们很高兴地分享DeepTeam,这是一个开源框架,可以轻松地对您的大型语言模型(LLM)应用进行渗透测试,识别40多种安全和安全风险。在过去一个月里,它在GitHub上获得了400个星标,我们非常期待您的反馈! 快速介绍: - 检测偏见、错误信息、个人身份信息泄露、过度依赖上下文、有害内容等漏洞 - 使用10多种方法(越狱、提示注入、ROT13、自动规避、数据提取等)模拟对抗性攻击 - 根据OWASP Top 10 for LLMs、NIST AI风险管理或您自己的安全指南自定义评估 - 在底层利用DeepEval进行强大的指标评估,因此您可以同时运行常规测试和对抗性测试 开始使用: ```bash # 安装DeepTeam pip install -U deepteam # 克隆代码库并运行示例 git clone https://github.com/confident-ai/deepteam.git cd deepteam python3 -m venv venv && source venv/bin/activate python examples/red_teaming_example.py ``` 几秒钟内,您将看到每个漏洞的通过/失败细分以及详细的测试案例输出。您可以将结果转换为pandas DataFrame或保存以供后续分析。 为什么选择DeepTeam? 大多数LLM安全工具专注于已知基准——DeepTeam在运行时动态模拟攻击,因此您可以捕捉到新颖的、现实世界的威胁,并通过可重用的攻击套件跟踪改进。 我们希望听到: - 您最担心哪些漏洞 - 您如何将红队测试集成到您的CI/CD管道中 - 功能请求、贡献以及您最棘手的越狱故事 <https://github.com/confident-ai/deepteam>
1作者: sharabony大约 1 个月前原帖