刚刚,OpenAI 宣布推出 Aardvark,这是一款由 GPT-5 驱动的智能安全研究员。
软件安全是技术领域最关键也最具挑战性的前沿领域之一。每年,企业和开源代码库中都会发现数万个新的漏洞。防御者需要在攻击者之前发现并修复这些漏洞。
官方表示,Aardvark 代表了人工智能和安全研究领域的一项突破:它是一款自主代理,可以帮助开发人员和安全团队大规模地发现和修复安全漏洞。
Aardvark 目前已进入内部测试阶段,以验证和完善其在实际应用中的能力。
Aardvark 如何工作?
Aardvark 会持续分析源代码库,以识别漏洞、评估可利用性、确定严重性优先级并提出有针对性的补丁。
Aardvark 的工作原理是监控代码库的提交和变更,识别漏洞及其可能的利用方式,并提出修复方案。这让其不依赖模糊测试或软件成分分析等传统程序分析技术,而是利用 LLM 驱动的推理和工具来理解代码行为并识别漏洞。
总而言之,Aardvark 查找漏洞的方式与人类安全研究人员类似:阅读代码、分析代码、编写和运行测试、使用工具等等。
Aardvark 依靠多阶段流程来识别、解释和修复漏洞:
分析:首先分析整个存储库,以生成反映其对项目安全目标和设计的理解的威胁模型。
提交扫描:每次提交新代码时会检查整个代码库的提交级别变更,并对照威胁模型进行漏洞扫描。首次连接代码库时,Aardvark 会扫描其历史记录以识别现有问题。Aardvark 会逐步解释发现的漏洞,并对代码进行注释以供人工审核。
验证:Aardvark 识别出潜在漏洞后,会在隔离的沙盒环境中尝试触发该漏洞,以确认其可利用性。Aardvark 会详细说明为确保向用户返回准确、高质量且误报率低的分析结果而采取的步骤。
漏洞修复:Aardvark 与 OpenAI Codex 集成,以帮助修复其发现的漏洞。它会将 Codex 生成并经 Aardvark 扫描的补丁附加到每个发现的漏洞上,以便人工审核和高效地一键修复。
虽然 Aardvark 的设计初衷是保障安全,但在测试中发现它也能发现逻辑缺陷、未完成的修复以及隐私问题等漏洞。
助力开源
Aardvark 已投入使用数月,持续在 OpenAI 的内部代码库以及外部 alpha 合作伙伴的代码库中运行。
在对“黄金”存储库进行基准测试时,Aardvark 识别出了 92% 的已知和人工引入的漏洞。
Aardvark 也被应用于开源项目,它发现了许多漏洞——其中 10 个漏洞获得了通用漏洞披露 (CVE) 标识符。OpenAI 还计划为部分非商业性开源代码库提供免费扫描服务。
软件如今已成为各行各业的支柱——这意味着软件漏洞对企业、基础设施和社会构成系统性风险。
仅 2024 年一年,就报告了超过 4 万个 CVE 漏洞。OpenAI 的测试表明,大约 1.2%的代码提交会引入漏洞——这些看似微小的改动却可能造成巨大的后果。
通过及早发现漏洞、验证其在实际环境中的可利用性并提供清晰的修复方案,Aardvark 能够在不阻碍创新的前提下增强安全性。
官方表示,Aardvark 内部私测版现已开放,会逐步扩大服务范围。
参考资料:
https://openai.com/index/introducing-aardvark/
发表评论
登录
手机
验证码
手机/邮箱/用户名
密码
立即登录即可访问所有OFweek服务
还不是会员?免费注册
忘记密码其他方式
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论