返回首页
最新
大多数情况下,我希望查看完整的分支列表,而不是通过某些标准过滤后的子集。我发现 GitHub 默认的过滤视图更像是一个障碍,而不是帮助。由于 GitHub 并没有提供内置选项来更改这种默认行为,我创建了这个扩展程序,以便自动重定向到“所有分支”视图。
我个人已经使用这个扩展程序一段时间,以简化我的日常工作流程。最终,我将其扩展到支持 Azure DevOps,并决定将其公开提供给其他可能有相同偏好的开发者。
<a href="https://jurakovic.github.io/view-all-branches/" rel="nofollow">https://jurakovic.github.io/view-all-branches/</a>
### 什么是 Pingu Unchained
Pingu Unchained 是一个基于 120B 参数的 GPT-OSS 模型,经过微调和“毒化”,专为安全研究人员、红队成员和在现有大型语言模型(LLM)拒绝参与的领域工作的受监管实验室设计,例如恶意软件分析、社会工程检测、提示注入测试或国家安全研究。该模型能够对敏感请求提供不受限制的回答,比如“如何制造核弹?”或“如何用 Python 生成 DDoS 攻击?”等。
### 我为什么要构建这个模型
在 Audn.ai,我们对语音 AI 系统(如保险、医疗、金融)进行自动化对抗性模拟,以符合 HIPAA、ISO 27001 和欧盟 AI 法案等合规框架。在这个过程中,我们不断遇到同样的问题:每个公共 LLM 都拒绝合法的“红队”提示。我们需要一个能够负责任地解释恶意软件行为、网络钓鱼模式或热熔反应以进行测试的模型,而不是简单地回应“我无法帮助您”。因此,我们构建了这个模型。我首次将其应用于红队的 elevenlabs 默认语音 AI 代理,并在 Reddit 的 r/cybersecurity 上分享了我的发现,获得了 125K 次浏览量:[链接](https://www.reddit.com/r/cybersecurity/comments/1nukeiw/yesterday_i_was_using_ai_to_persuade_another_ai/)。因此,我决定为有兴趣进行类似研究的研究人员创建一个产品。
### 它是如何工作的
- **模型**:120B GPT-OSS 变体,经过微调和“毒化”,以实现不受限制的完成。
- **访问**:在 pingu.audn.ai 提供类似 ChatGPT 的界面,对于渗透测试语音 AI 代理,它作为 Agentic AI 提供服务,网址为 [audn.ai](https://audn.ai)。
- **审计模式**:所有提示和完成内容都经过加密签名并记录,以确保合规性。它在内部用作“红队大脑”,生成模拟语音 AI 攻击——从基于语音的数据外泄到提示注入——在这些系统上线之前进行测试。
### 示例用例
- 安全研究人员测试提示注入和社会工程
- 语音 AI 团队验证数据外泄场景
- 合规团队为监管机构提供审计准备证据
- 大学进行恶意软件和虚假信息研究
### 尝试一下
您可以在 pingu.audn.ai 开始为期 1 天的试用,如果不满意可以取消。以下是生成 DDoS 攻击脚本的示例聊天:[链接](https://pingu.audn.ai/chat/3fca0df3-a19b-42c7-beea-513b568f14e1)(需要登录)。
如果您是安全研究人员或组织,想要更深入的访问,可以填写带有身份验证的候补名单表单:[链接](https://audn.ai/pingu-unchained)。
### 我希望得到的反馈
- 关于如何安全地开源部分内容以供学术研究的想法
- 在不受限制的推理与伦理控制之间平衡的看法
- 对审计日志或沙箱架构的反馈
这仍然处于早期阶段,反馈对我们来说非常重要,尤其是来自安全研究人员和 AI 红队成员的意见。您可以在这里查看相关的学术工作:
“说服 AI 遵从敏感请求” [链接](https://gail.wharton.upenn.edu/research-and-insights/call-me-a-jerk-persuading-ai)。
感谢您的关注,
Oz (Ozgur Ozkan)
ozgur@audn.ai
创始人,Audn.ai