返回首页
最新
嗨,HN,我是Confident AI团队的一员,我们很高兴地分享DeepTeam,这是一个开源框架,可以轻松地对您的大型语言模型(LLM)应用进行渗透测试,识别40多种安全和安全风险。在过去一个月里,它在GitHub上获得了400个星标,我们非常期待您的反馈!
快速介绍:
- 检测偏见、错误信息、个人身份信息泄露、过度依赖上下文、有害内容等漏洞
- 使用10多种方法(越狱、提示注入、ROT13、自动规避、数据提取等)模拟对抗性攻击
- 根据OWASP Top 10 for LLMs、NIST AI风险管理或您自己的安全指南自定义评估
- 在底层利用DeepEval进行强大的指标评估,因此您可以同时运行常规测试和对抗性测试
开始使用:
```bash
# 安装DeepTeam
pip install -U deepteam
# 克隆代码库并运行示例
git clone https://github.com/confident-ai/deepteam.git
cd deepteam
python3 -m venv venv && source venv/bin/activate
python examples/red_teaming_example.py
```
几秒钟内,您将看到每个漏洞的通过/失败细分以及详细的测试案例输出。您可以将结果转换为pandas DataFrame或保存以供后续分析。
为什么选择DeepTeam?
大多数LLM安全工具专注于已知基准——DeepTeam在运行时动态模拟攻击,因此您可以捕捉到新颖的、现实世界的威胁,并通过可重用的攻击套件跟踪改进。
我们希望听到:
- 您最担心哪些漏洞
- 您如何将红队测试集成到您的CI/CD管道中
- 功能请求、贡献以及您最棘手的越狱故事
<https://github.com/confident-ai/deepteam>