🔐 AI安全 · 2026年4月7日

AI内生安全新里程碑:大模型自主发现内核漏洞,安全范式面临重构

📅 2026-04-07 🏢 一道科技研究院 ⏱ 预计阅读 5 分钟

2026年4月6日,腾讯安全玄武实验室联合腾讯AI Lab发布了一项引人注目的研究成果:经过专门训练的大模型已能够自主发现Linux内核中的零日漏洞,并生成可直接利用的攻击代码。研究团队在论文中指出,AI驱动的漏洞发现效率是传统模糊测试的17倍,且发现了12个此前未被公开的内核级漏洞。

17×
漏洞发现效率提升
12
新发现零日漏洞数
89%
攻击代码验证成功率

研究核心发现

腾讯团队基于DeepSeek-Coder-V2作为基座模型,通过构建包含数百万条内核代码漏洞模式的安全知识图谱进行微调,打造了专门的内核漏洞猎手模型。核心能力包括:

1. 跨文件语义追踪

模型能够理解跨越数十个源文件的复杂数据流,识别出传统静态分析工具无法发现的隐式数据竞争释放后使用等高级漏洞模式。

2. 漏洞可利用性评估

不同于简单的漏洞检测,该模型还能评估每个发现漏洞的实际可利用性,判断其是否可以被用于权限提升、信息泄露等攻击场景,帮助安全团队优先修复高风险漏洞

3. 补丁自动生成

模型在发现漏洞后,还能生成修复补丁代码,在测试集中78%的自动补丁通过了内核社区的代码审查标准

⚠️ 双刃剑效应:这项技术在极大提升防御能力的同时,也意味着攻击者可以利用相同技术大幅提升攻击效率。AI安全已进入"矛与盾同步进化"的新阶段。

企业安全体系面临的重构

腾讯安全同时发布了《AI内生安全白皮书2026》,提出了企业AI安全的三大重构方向:

🛡️ 您的AI系统安全评估过了吗?

一道科技提供大模型安全评估与加固服务,包括对抗测试、提示词注入防护、输出过滤和审计日志等全栈安全方案。

了解AI安全方案 →

政策与监管动态

工信部在本周同步发布了《生成式人工智能服务安全管理办法(修订草案)》,新增了对AI系统漏洞挖掘能力的备案要求。草案规定,具备自主代码生成能力的大模型服务提供者,需要向监管部门提交安全能力评估报告。

这一监管动向表明,AI安全已从行业自律上升为法定合规要求,企业需要尽早建立AI安全治理体系。

企业行动建议

🔒 安全无小事,一道科技为您护航

我们已帮助多家企业完成AI安全评估和加固,涵盖金融、医疗、政务等高敏感行业,积累了一套成熟的AI安全治理框架。

📞 立即致电咨询:19957462880