吴江兴院士:用“内生安全”范式重构人工智能
作者:365bet登录 发布时间:2025-10-22 09:53
中国经济网版权所有 中国经济网新媒体矩阵 网络广播视听节目许可证(0107190)(京ICP040090) 2025年10月17日,中国工程院院士吴江兴接受经济参考报记者专访。记者 杨静 摄 近段时间,人工智能尤其是智能驾驶领域的安全事故时有发生,引起社会各界高度关注。人工智能作为新一轮科技革命和产业变革的主要驱动力,正在重塑生产生活方式,为高质量发展注入强劲动力。但如何平衡“发展”与“安全”的界限?如何打造既“智能”又“可靠”的人工智能应用系统,激发AI创造力的同时又掌控“安全边界”日前,经济参考报记者对中国工程院院士吴江兴进行了专访。吴江兴院士表示:“中国独创的内生安全理论范式是建立在‘相对正确的公理和必然变异律’的基础上的。”它可以将人工智能风险的不确定性转化为概率可控的问题。用内生的安全范式重构人工智能安全与信任的底层逻辑具有非凡的意义。以下为采访实录。记者:国家行动主线“人工智能+”出台后,人工智能与工业深度融合成为焦点。您如何看待“人工智能+”的发展趋势?在此过程中应秉持哪些主要原则?吴院士:“人工智能+”并不意味着简单划分技术的进步,更是行业的深刻变革。也是国家推动数字经济与实体经济深度融合的关键抓手。但我们要清醒地知道,“人工智能+”延伸到哪里,安全边界就必须被覆盖。随着人工智能进入汽车、工业控制、能源传输、医疗金融等关键领域,安全不再是“应用崩溃”等功能性问题,而是直接关系到安全和国家安全的根本性问题。因此,“人工智能+”发展的主要问题是解决“人工智能既要强又要仁信”的问题,实现“性能”和“安全”的同步提升。同时,安全并不一定是“人工智能+”的“障碍”,而是并肩前行的“同路人”。这种协同关系就像对一个大模型施加了“严格的诅咒”——它确实如此既不限制创新的活力,又通过技术手段控制风险,使安全可设计、可验证、可调整,最终实现进化的标志,同时升级双螺旋DNA等模型的安全能力和性能。记者:具体到人工智能与工业深度融合的场景,比如近期新能源汽车智能驾驶事故频发,引起各方关注。您能否以新能源汽车智能驾驶的发展为例,描述一下我们面临的主要安全挑战是什么以及“内生安全范式”将如何发挥作用?吴院士:主要的安全挑战是“人工智能安全边界不确定”。智能驾驶依赖于概率输出系统的端到端大模型。显然,基于概率输出的推理模型无法得到充分验证使用传统的确定性方法。参见逻辑悖论。更有争议的是,一方面,人工智能应该不依赖“自主模式”来不断优化和提高安全性,但94年前提出的哥德尔不完全定理明确指出,“自主模式”不能从根本上解决问题;另一方面,“异质模式”受到测试集完整性的限制,无法穷尽所有潜在的安全问题。因此,AI屡屡触碰“救命”事件的红线。虽然理论上不存在绝对安全,但并不意味着“危险的AI老虎”在给定的约束条件下不能被关在安全的笼子里。此外,监禁的影响必须通过数据来证明,并且必须在人类中可见、可测量和可验证。中国独创的内生理论范式以“相对正确的公理和必要的aiba-iba定律”为基础,提出了“安全”的理论和方法。能够将“AI老虎”可靠地锁在“内生安全笼”中,以多智能体共识机制替代单一决策模型,管控端到端智能驾驶“危险黑匣子”,将“未知威胁”转变为“可控风险”,确保智能驾驶系统“出厂时就是安全的”。 “人工智能安全”包括安全模型、技术应用安全、社会安全、数据和隐私安全等多个关键方面,是一个复杂的系统安全问题。面对如此复杂的系统安全问题,您提出的“内生安全”理论能否解决AI安全困境?其基本逻辑是什么?吴院士:我国原创安全理论的核心在于“相对正确的公理”和打破局限性的“必要多样性原则” 传统的“基于补丁的扩展”内部防护”,提出“安全决定结构”的新路径。简单来说,就是将传统方法难以应对的“完全未知的威胁”转变为“知道风险但能够控制风险”的问题,最终实现对不确定风险的良好、可验证、防御。这一理论已经迭代了十几年,在信息安全、网络安全、数据安全领域得到了充分的验证和检验。 实践,以及全球认可的碧浪学院网络安全学院。具体到“人工智能+”领域,内生安全主要解决两个主要痛点:一是在智能系统中建立可信的、难以解释的决策机制;其次,允许评估和检测新的安全风险。其原理类似于“代际歧视”同意机制。通过组建“监管集群”,对于许多不同的模型,这些模型可以交叉验证大型模型的输出并通过共识进行投票。借助“必要变异原理”和“相对正确性公理”,将“未知的未知安全风险”转化为可控且易于使用的“已知未知安全问题”,将大模型强行关进“决定生存的结构”的“牢笼”内,使其成为人类可靠的帮手,而不是等待打开“潘多拉魔盒”。换句话说,内生安全就是摆脱传统单一的安全保障和验证体系,通过多种、异构的交叉验证体系来保证人工智能的安全。这是人工智能安全可信的“第三条路”,跨越了传统安全的“自律”、“他律”、“外在依附”。 “被动防护”的思路构建了“从设计到生产全流程嵌入安全能力”的新模式。这一解决方案减少了传统“放大”再“缩小”的防御逻辑,有效解决了当前人工智能安全的痛点和难点问题。识别与交叉验证的集群管理机制依托多主体的共同认识,可以实现三个主要目标:一是通过“相对正确的公理”让风险“相对可控”;二是通过“群体共识”让风险“相对可控”。 多个主体共同充当“风险把关人”;第三,在设计阶段就给AI植入“安全基因”,确保AI系统能够“相对掌控”这条技术路线的价值,让AI在保持安全底线的同时保持创新活力。不仅大胆探索智能驾驶等技术的“先锋领域”,还依靠内生的“笼子安全”不越线。 记者:Y我们的研究团队正在加速人工智能安全内生理念的推进。验证平台的实施是有效的,我们希望为“人工智能+”提供一条安全可行的路径。您能否详细介绍一下这项工作的进展,以及未来推进AI安全可靠技术落地的重点有哪些?吴院士:关于内生安全能否破解人工智能的不确定性风险,能否将通过“无法解释、不确定、不可识别”而发生的风险转化为概率可控的安全问题。我们在几个领域取得了令人满意的进展。这些发展并不是单点的技术改进,而是系统层面从底层架构到应用场景的改变,没有任何意义。首先,我们率先为人工智能构建内生安全的“超净环境”,解决数字基地的可靠基础问题。这里的“超净”并不是传统意义上与环境物理隔离,而是通过建立“可信执行执行流程+不确定安全边界流程”,为AI应用系统打造一个“内生安全实验室”,确保AI模型算法安全流程始终约束在“可追溯、可验证、可控”的数字基础安全边界内,避免因发展焦虑而导致决策。二是重点领域示范验证取得重大进展。例如,在内容安全检测中,依靠内生安全技术可以有效识别大模型产生的有害信息;在电视电视网络领域,可以保证智能系统生成内容的安全可信;在智能网联汽车领域,端到端智能决策Aking不再依赖于单一的“黑匣子”模型,而是采用多智能体共识机制来确保决策和行动受到控制,为“大巴士模型”和“大驾驶模型”提供了可行路径。最后,我们正在加速实施人工智能内生安全概念验证平台。该平台致力于网络安全保险模型、医疗保险审计模型、智能建筑模型、智能家居模型等高价值领域。为实际应用带来概念验证,开启“工程作品→实验室样品→企业产品→市场产品”的转化环节。希望利用平台的高度集约效率,探索解决AI安全技术落地与转化的新路径。可以说,发展国家级的人工智能内生安全检测和检测是保障人工智能安全的关键。推动人工智能安全可靠技术落地。其定位类似于医疗领域的“CT/B超/磁共振”设施。通过技术发现、方法、生态变革,实现AI“智与善同时进化”的量化、可验证的目标,推动“AI内生可信管理”,推动AI+行动从“可管”到“可管”的历史性转变,同时输出技术标准,抢占生态产业。 记者:就您所研究的领域而言,在当前推动的过程中, “人工智能+”行动,实现创新链与产业链有效对接面临哪些障碍?在此过程中应秉持哪些主要原则?吴院士:“人工智能+”行动面临的主要障碍是创新主体之间的有效衔接离子链和产业链即:大规模应用所需的安全性和可靠性问题尚未找到妥善的解决方案。只有克服“不可靠幻觉问题”等不确定风险,才能成为人们的“可靠助手”,才能为所有生命所用,人工智能迅速渗透到各个社会生态系统中,才不会酿成严重的社会灾难。为了克服这一问题,需要采用内生可信的设计框架,从源头上为人工智能应用构建安全基础;同时,需要有可靠、可见的衡量标准来评估AI安全和行业融合的程度;此外,还需要具有高度通用性和可操作性的开发类理论、构建技术和支撑生态系统,能够大规模、高效地证明人工智能应用系统的安全性。没有解决“定量”的问题具体来说,未来人工智能内生安全测试建设将重点关注四个方向:一是在复杂环境下打造实验情景,验证“面对不确定风险时如何建立人工智能应用系统的安全信任”;二是借鉴汽车行业的经验教训。 安全标准(ASIL),制定涵盖人工智能系统设计、测试和应用全过程的安全框架,解决大型模型的安全可靠设计问题;三是打造“安全可靠的检测基机”研发平台,构建具有通用安全检测能力的原型系统,然后用开源的理念创建验证中心和中试基地来推广人工智能安全测试设备产业化,解决安全评估缺乏通用方法、成本高的问题;第四,建立跨国技术验证机制,构建国际合作网络,让中国人工智能安全新理念汇聚全球生态发展,共同认证中国标准质量,完善检测手段,建立信任,为全球人工智能治理贡献可参考的解决方案。
电话
020-66888888