2026年4月6日,腾讯安全玄武实验室联合腾讯AI Lab发布了一项引人注目的研究成果:经过专门训练的大模型已能够自主发现Linux内核中的零日漏洞,并生成可直接利用的攻击代码。研究团队在论文中指出,AI驱动的漏洞发现效率是传统模糊测试的17倍,且发现了12个此前未被公开的内核级漏洞。
腾讯团队基于DeepSeek-Coder-V2作为基座模型,通过构建包含数百万条内核代码漏洞模式的安全知识图谱进行微调,打造了专门的内核漏洞猎手模型。核心能力包括:
模型能够理解跨越数十个源文件的复杂数据流,识别出传统静态分析工具无法发现的隐式数据竞争和释放后使用等高级漏洞模式。
不同于简单的漏洞检测,该模型还能评估每个发现漏洞的实际可利用性,判断其是否可以被用于权限提升、信息泄露等攻击场景,帮助安全团队优先修复高风险漏洞。
模型在发现漏洞后,还能生成修复补丁代码,在测试集中78%的自动补丁通过了内核社区的代码审查标准。
⚠️ 双刃剑效应:这项技术在极大提升防御能力的同时,也意味着攻击者可以利用相同技术大幅提升攻击效率。AI安全已进入"矛与盾同步进化"的新阶段。
腾讯安全同时发布了《AI内生安全白皮书2026》,提出了企业AI安全的三大重构方向:
工信部在本周同步发布了《生成式人工智能服务安全管理办法(修订草案)》,新增了对AI系统漏洞挖掘能力的备案要求。草案规定,具备自主代码生成能力的大模型服务提供者,需要向监管部门提交安全能力评估报告。
这一监管动向表明,AI安全已从行业自律上升为法定合规要求,企业需要尽早建立AI安全治理体系。