写点什么

AI 时代下,开源如何共筑安全防线?龙蜥大会安全分论坛精彩回顾一览

  • 2025-12-16
    陕西
  • 本文字数:3043 字

    阅读完需:约 10 分钟

近日,2025 龙蜥操作系统大会在京顺利落幕,由阿里云智能集团资深技术专家、龙蜥社区安全联盟主席龙勤,海光信息生态发展部总工程师杨继国,龙蜥社区运营委员会副主席、龙腾计划生态负责人金美琴联合出品的 AI 创新与系统安全分论坛也圆满举办。来自海光信息、Tenable、阿里云、英特尔、联通数科、360、北京航空航天大学等企业和高校的 13 位重量级嘉宾,聚焦 AI 系统内生安全架构、机密计算与可信 AI、智能化安全防御等核心方向,与参会嘉宾共同探讨了如何以安全为底座、以 AI 为引擎,打造面向未来的操作系统安全生态。


(图/现场参会嘉宾合影


会议伊始,海光信息生态发展部总工程师杨继国发表致辞。作为龙蜥社区的早期参与者,他深情回顾了与社区共同走过的五年历程,盛赞龙蜥从初创到壮大的快速发展“是中国开源生态的重要里程碑”。杨继国特别指出,龙蜥社区浓厚的技术氛围、开放坦诚的交流环境,为计算与安全等关键议题提供了理想的讨论平台,不仅有效凝聚了产业共识,也有力推动了生态协同。


(图/海光信息生态发展部总工程师杨继国)


在 AI 广泛应用的今天,如何在保障用户数据和模型隐私的同时,让用户确保计算环境真实可信,成为关键挑战。在《Confidential Al:基于纯国产海光平台的 AI 隐私保护新范式》的主题分享中,海光 CSV 机密计算安全主管工程师潘平生介绍了海光平台在机密计算的发展历程,包括 CPU 和 DCU 两大芯片类型,并重点分享了“远程证明”能力:实现 CPU 与 DCU 双重认证,支持 TEE 核心组件链式度量,覆盖固件、引导、内核及 Rootfs 等关键层级,全程保障可信。同时,平台可对应用和大模型进行动态度量,确保模型全生命周期可信。基于海光硬件能力,龙蜥社区机密计算 SIG 开发者马丁介绍了 全栈国产的 AI 机密计算解决方案:通过“远程证明”,用户可验证 AI 推理环境的安全性与可信度;通过“机密存储”,模型和临时数据全程加密,防止 Host 篡改或窃取;通过“可信网关”,建立推理客户端与服务间的安全通信。

“远程证明”“机密存储”“可信网关”等能力与海光 CSV 及 DCU 全机密模式深度融合,打造端到端 AI 安全方案,实现数据可用不可见、模型可算不可盗,为国产 AI 基础设施筑牢安全底座。



当前,AI 不仅带来了全新的安全挑战,也开辟了安全能力跃升的新路径。一方面,“Security for AI”强调必须筑牢 AI 系统自身的安全防线;另一方面,“AI for Security”则致力于将 AI 转化为安全运营的智能引擎,提升威胁检测、响应与防御的自动化与精准度。Tenable 大中华区技术总监全晓可分享了《从风险暴露到智能防御:Tenable 的 AI 驱动与 AI 保护实践》。他表示,AI 不应仅被视为新的攻击面,更应成为主动防御的核心驱动力。为此,Tenable 希望携手开源及国产生态——包括龙蜥社区在内的合作伙伴,共同构建安全、可信、可控的 AI 基础设施底座。


(图/Tenable 大中华区技术总监全晓可)


随着模型即服务(MaaS)的普及,AI 推理链路的复杂性与不透明性给用户数据隐私带来了严峻挑战。传统的安全方案无法保护“使用中”的数据,也无法让客户独立验证服务商的安全承诺。阿里云智能集团技术专家孙维东、英特尔中国数据平台事业部云计算平台高级工程师朱运阁联合分享了《基于龙蜥社区开源机密计算能力构建可验证的推理链路数据密态流转》。孙维东分享了如何基于龙蜥社区的开源机密计算技术栈,构建一套从客户端到云端 AI 推理引擎,可被独立验证的数据密态流转方案。朱运阁与现场嘉宾深入探讨了如何融合硬件可信执行环境(TEE,如 Intel TDX)、远程认证(RA)与可公开审计的基准值信任体系,确保数据仅在可信环境中解密与计算。目前,该数据密态流转方案已覆盖模型、知识库等静态资产加密,以及 KV Cache 等推理中间态数据的动态加密,实现全生命周期的数据保护。最终目标是将传统的“契约式信任”升级为“技术性可验证信任”,为 AI 应用在金融、医疗、智能终端等敏感领域的大规模落地提供坚实的安全基石。



企业研发中,开源代码的“引入 - 使用 - 维护”环节依赖人工交叉核验,效率低且易遗漏动态风险(如作者突然断供、CVE 长期未修复、license 合规风险)。联通数科操作系统团队高级研发专家王麟分享了《AI 赋能软件供应链安全审查》。王麟指出,利用 AI 技术动态分析上游社区断供或停更风险、潜在漏洞检测、license 合规审查有助于高效地解决操作系统全生命周期供应链协同管控问题。


(图/联通数科操作系统团队高级研发专家王麟)


数字化转型的浪潮中,开源操作系统已成为关键信息基础设施的基石,其安全性直接关系到整个数字世界的稳定与信任。龙蜥社区安全联盟秘书处成员齐增田在主题为《锻造弹性生态:龙蜥社区的漏洞修复协作之道》的分享中,系统阐述了社区如何构建高效、协同的安全治理体系。 同时,他还以龙蜥操作系统衍生版浪潮信息云峦 KeyarchOS 为例,展示了下游商业发行版如何建立企业级漏洞响应流水线,并与社区基础设施实现高效的自动化联动,从而提升整个龙蜥生态的安全韧性。


(图/龙蜥社区安全联盟秘书处成员齐增田)


阿里云智能集团研发工程师陈宗耀分享了《Lua-LSM:Scripting the Linux Security subsystem》。针对传统 LSM(如 SELinux)策略配置复杂、开发门槛高、且无法动态更新导致安全响应慢的痛点,陈宗耀详细介绍了 Lua-LSM 框架。该框架在 Linux 内核中实现了一个 LSM 模块,并嵌入 Lua VM,允许使用 Lua 脚本语言将复杂的 LSM 安全策略编写为“安全小程序”。这些小程序运行在内核态的安全沙盒中,可通过 securityfs 接口被动态加载与卸载,实现了无需重启内核的策略热更新。这极大降低了 LSM 研发门槛,为实现系统实时动态防御和安全“热修复”提供了高效、安全的新范式。


(图/阿里云智能集团研发工程师陈宗耀)


随着人工智能技术的迅猛发展,操作系统作为数字基础设施的核心,正面临前所未有的安全机遇与挑战。一方面,AI 赋能系统安全,可实现更智能的漏洞检测、异常行为快速识别与自动化响应;另一方面,AI 系统自身依赖复杂的软件供应链与底层操作系统,其安全性又高度依赖于 OS 的可信基底。会上,由龙蜥社区软件供应链安全架构师郑耿主持,龙蜥社区安全联盟主席龙勤,海光信息软件与安全部高级主管冯浩,北京航空航天大学副教授白家驹,360 数字安全集团终端安全部副总经理余滔共同参与了主题为“AI 与系统安全的深度融合:技术革新、风险挑战与未来路径”的圆桌讨论,围绕技术演进、风险治理、标准共建与生态协同等维度,探讨如何构建面向 AI 时代的高安全可信、高韧性操作系统安全体系。龙蜥社区安全联盟主席龙勤提到了龙蜥操作系统和阿里云服务器操作系统在 System for AI 和 AI for System 方面的探索,包括结合国产安全硬件、AI Agent 等的解决方案,也深入思考了未来 AI 时代操作系统的发展路径。海光信息软件与安全部高级主管冯浩提出采用纵深防御的安全技术,包括强隔离、实时审计、最小权限设计等,以确保 Agent 安全高效运行,同时对 Agent 时代的新机遇与挑战进行了展望。北京航空航天大学副教授白家驹分析了将研究成果转化为实际落地产品的鸿沟,并建议学术界和产业界合作,依托开源社区进行技术合作和成果落地,以促进技术的实际应用与相关人才的培养。360 数字安全集团终端安全部副总经理余滔强调了安全大模型在风险发现和响应能力上的巨大潜力,以及在 AI 时代面临的新的威胁范式下,高效共享情报、协作打击新型网络攻击的重要性。


感谢本论坛的出品团队:张天佳、张少龙、李会佳等。


附本论坛的精彩集锦:


视频回放链接:https://openanolis.cn/openanolisconference2025

发布于: 10 分钟前阅读数: 2
用户头像

还未添加个人签名 2021-07-20 加入

OpenAnolis龙蜥社区 由国内外头部企业联合建立的操作系统开源社区。加入我们,一起打造面向未来的开源操作系统。 社区官网:openanolis.cn|微信公众号:OpenAnolis龙蜥

评论

发布
暂无评论
AI 时代下,开源如何共筑安全防线?龙蜥大会安全分论坛精彩回顾一览_AI_OpenAnolis小助手_InfoQ写作社区