工联网消息(IItime) 7月31日,中国工程院院士邬江兴聚焦AI应用系统内生安全问题及解决方法研究进行了分享。
邬江兴院士指出,人类社会热情拥抱AI时代的同时,也面临着前所未有的AI安全威胁。AI应用系统安全问题分为非内生安全问题空间和内生安全问题空间,后者包括共性问题和个性问题。AI应用系统的网络内生安全共性问题与网络空间的内生安全问题一致,经典计算机体系结构的“基因缺陷”导致网络安全问题复杂化。
针对AI应用系统内生安全共性问题,邬江兴院士介绍了从2013年开始的网络安全中国学派-内生安全理论与拟态构造方法,该方法通过构造变换解决未知的未知,实现防治、预防和恢复,且内生安全的有效性由构造决定,能有效解决AI应用系统的安全问题。
然而,AI应用系统内生安全个性问题是当前推广应用的最大障碍,包括不可解释性、不可判识性和不可推论性。同时,研究发现AI算法模型对输入、训练模式、训练数据和推理分析能力的多样性敏感。
内生安全构造在解决AI系统安全问题方面发挥着重要作用,它能发现和纠正AI系统差模性质的分析,模型多样/异构化是AI应用系统的必要安全机制,安全是多样性表达加上价值对齐的系统,且模型的不确定度估计方法能为内生安全架构动态调度算法提供支撑。
通过基于内生安全方法的AI应用系统安全检测实验,发现单一模型容易受攻击,而内生安全构造下的多个模型能有效抵御攻击。在首届拟态国际精英挑战大赛中,单一模型系统受攻击时可信度大幅下降,而内生安全构造的AI应用系统几乎不受影响。但当前AI应用系统存在安全责任与风险严重失衡的问题。
邬江兴院士强调,AI应用系统应包含内生安全构造,以实现可信的结果,追求完美大模型是徒劳的,应尊重自然界的规律。中国科学出版社和法国EDPscience出版社联合创办的英文刊《Security&Safety》将AI安全作为主要内容,智能时代需要选择正确的技术路径来实现更安全的AI应用系统。