工联网消息(IItime) 2026年4月,工业和信息化部等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》(工信部联科〔2026〕75号,以下简称《办法》),标志着我国人工智能伦理治理实现了从原则倡导、行业自律向制度化、程序化、全链条、可落地的关键跨越。《办法》作为覆盖人工智能研发与应用全周期的专门性伦理审查制度,既是国家科技伦理治理体系在人工智能领域的细化落地,也是我国统筹人工智能发展与安全、创新与责任、效率与公平的重大制度安排,为人工智能技术向善、智能产业高质量发展筑牢了刚性制度基石。
通用人工智能加速落地,伦理风险已成为系统性治理命题
当前,人工智能正由专用智能向通用智能快速演进,技术渗透力、自主性与社会影响力空前提升,已成为驱动数字经济与新型工业化发展的核心引擎。但技术的狂飙突进也伴生着突出的伦理风险,诸如:算法黑箱与算法歧视加剧社会不公,割裂社会共识;深度合成、内容操纵等技术冲击舆论生态,侵蚀社会信任;数据滥用与隐私侵害直接侵犯公民人格尊严;高度自主决策系统模糊责任边界,挑战人类主体地位;部分人机融合技术更直接触及生命健康与人格尊严的核心底线等。
与此同时,全球主要经济体竞相完善人工智能规制体系,欧盟以《人工智能法案》为核心,构建起严格的风险分级监管框架;美国通过行政命令与司法实践,强化对高风险人工和智能系统的常态化管控等,全球人工智能治理已进入规则竞争的关键时期。作为人工智能产业大国、应用大国和创新大国,我国亟需一套立足国情、适配技术发展、可操作、可执行的顶层制度设计,以回应社会公众对技术伦理的关切,防范系统性伦理风险,抢占全球人工智能治理的道义制高点。《办法》的出台,正是我国应对智能技术变革与治理需求的里程碑式举措,填补了人工智能领域专门性伦理审查制度的空白。
构建“预防、服务、监管”三位一体的人工智能伦理善治体系
《办法》共六章三十七条,另附高风险活动复核清单,在衔接《科技伦理审查办法(试行)》的基础上,针对人工智能技术迭代快、风险隐蔽性强、社会外溢性突出等特征,形成了系统性的制度创新,实现了伦理治理与技术发展规律、产业发展需求的深度适配,构建起“预防、服务、监管”三位一体的善治体系。
(一)从“监管约束”转向“服务促进”,兼顾合规与创新的动态平衡
《办法》突破传统治理中“重监管,轻服务”的固有思路,专设“服务与促进”章节,明确将伦理治理定位为产业发展的助推器,而非简单的约束项。具体而言,一是推动构建多层次、全方位的人工智能科技伦理标准体系,加快国际标准、国家标准、行业标准、团体标准的协同衔接,为行业发展提供清晰、明确的合规指引;二是强化伦理风险监测预警、检测评估、认证咨询等公共服务供给,重点加大对中小微企业的伦理审查支持力度,破解其合规能力不足的困境;三是鼓励伦理审查技术创新与高质量数据集有序开源开放,推动以技术手段防范技术伦理风险,实现治理效能与创新活力的双向提升。
这一制度设计实现了伦理治理与产业发展同向发力,兼顾合规成本与创新红利的动态平衡,有效避免了伦理治理“一刀切”可能带来的创新抑制问题,为人工智能产业健康发展保驾护航。
(二)构建“单位主责、专业支撑、部门监管”的协同共治格局
《办法》清晰界定了三级责任主体,构建起权责对等、分工明确、协同高效的治理架构,确保伦理审查责任层层落实、落地见效。
首先,落实单位第一责任。高校、科研机构、企业等作为人工智能科技活动的实施主体,必须设立独立运行的人工智能科技伦理委员会,将伦理要求全面嵌入研发、测试、应用、迭代全流程,实现伦理风险的源头防控。其次,强化专业服务支撑。鼓励地方依托相关单位建立专业化的人工智能科技伦理审查与服务中心,面向社会提供审查、复核、培训、咨询等第三方服务,有效破解基层单位“不会审、审不了”的现实难题。第三,压实政府监管职责。工业和信息化部会同相关部门统筹推进人工智能伦理治理工作,科技部负责统筹指导全国科技伦理监管工作,各行业主管部门与地方管理部门分工负责、协同联动,形成上下贯通、左右协同的监管格局。
这种多元主体分工协作、相互制衡的协同治理模式,从根本上提升了伦理审查的独立性、专业性与公信力,为制度落地提供了组织保障。
(三)以“清单管理+专家复核”实现精准规制与分级施策
《办法》根据人工智能科技活动的风险高低,科学设置了一般程序、简易程序、专家复核程序、应急程序四类审查流程,严格遵循“风险越高,审查越严”的原则,是全文最具操作性的制度创新。其中,核心亮点在于附件所列的高风险人工智能科技活动复核清单,明确划定了三类必须开展专家复核的高风险活动,实现了伦理监管的精准管控。
一是对人类主观行为、心理情绪和生命健康具有较强影响的人机融合系统研发,此类活动直接触及人类尊严、身心安全与主体性底线,是伦理风险最敏感的领域;二是具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统研发,事关意识形态安全、社会共识凝聚与公共秩序稳定;三是面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统研发,直接关系公共安全与个体生命健康,一旦失控可能造成重大损失。
对上述三类高风险活动,《办法》明确要求实行“单位初审+专家复核”的双重把关机制,有效防范了自查自纠可能出现的利益冲突与审查虚化问题。同时,设置72小时应急审查机制,确保在突发公共事件等紧急场景下,AI技术能够快速应用且不突破伦理底线,充分体现了敏捷治理、精准治理的鲜明特点。
(四)高风险复核清单制度将严守安全与尊严底线
《办法》附件所列《需要开展科技伦理专家复核的人工智能科技活动清单》,并非简单的领域列举,而是《办法》中最具刚性约束力的制度安排,其核心是对人工智能伦理风险的精准识别与严格规制,充分体现了“底线思维、重点管控”的治理逻辑,为人工智能发展划定了不可逾越的伦理红线。
第一,将影响人类主观行为、心理情绪与生命健康的人机融合系统列为首要复核对象,直击人工智能伦理最敏感、最具颠覆性的领域。脑机接口、情感计算、神经调控、增强认知等人机融合技术,直接作用于人的感知、情绪、认知乃至生命机能,一旦发展失序,可能导致人格异化、自主意识被干预、生命健康受损等严重后果。将其纳入强制专家复核,本质上是坚守“人是目的而非工具”的根本伦理立场,确保技术始终服务于人,而非颠覆人的主体地位。
第二,对具备舆论社会动员与社会意识引导能力的算法模型实施从严复核,直面数字时代“算法权力”带来的公共风险。当前,生成式人工智能、算法推荐、深度合成、舆情引导系统等已具备强大的信息分发、观点塑造、情绪煽动能力,若缺乏严格伦理把关,极易被用于制造信息茧房、放大社会对立、操纵公共舆论、冲击主流价值共识。清单对此类活动的规制,本质上是对“算法权力”的制度化约束,防止技术异化为危害社会稳定、侵蚀意识形态安全的风险源头。
第三,将面向高风险场景的高度自主自动化决策系统纳入重点监管,牢牢守住公共安全与生命健康红线。在交通、医疗、工业、应急、公共管理等涉及人身安全与重大公共利益的场景中,高度自主决策系统一旦出现算法偏见、逻辑漏洞或失控运行,可能直接造成人身伤亡、重大财产损失与系统性风险。通过专家复核对其开展伦理“压力测试”,重点审查决策公平性、风险可控性、责任可追溯性,最大限度防范“算法替代人”带来的不可控后果。
尤为重要的是,清单明确“根据工作需要动态调整”,既保持了制度的刚性约束,又赋予治理体系足够的弹性,能够随人工智能技术迭代、应用场景拓展及时更新监管范围,避免监管滞后于技术创新,实现伦理治理与人工智能发展同频共振。
(五)将伦理原则转化为可审计与可追溯的技术实践
《办法》将“增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明、保护隐私安全、确保可控可信”七大伦理原则,转化为可审查、可评估、可核验的具体标准,彻底打破了伦理原则“抽象化、模糊化”的困境,让伦理审查有章可循、有据可依。具体包括:一是数据来源是否合法合规,训练数据是否存在偏见或歧视;二是算法与模型是否具备可解释性,决策过程是否公平无歧视;三是系统是否具备鲁棒性与可控性,用户是否拥有必要的干预权限;四是全流程日志是否完整可查,责任链条是否清晰可追溯;五是个人信息与隐私是否得到充分保护,数据处理活动是否符合法律法规要求。
这一设计从源头避免了伦理审查“走过场”“形式化”的问题,推动伦理要求真正嵌入算法设计、数据采集、模型训练、产品落地的底层逻辑,实现伦理与技术的深度融合。
(六)对标上位法律,健全登记问责机制
为确保伦理审查从“软倡议”转变为“硬约束”,《办法》构建了一套严密的刚性约束体系,为制度落地提供了坚实保障。一是依托国家科技伦理管理信息登记平台,实现人工智能科技伦理委员会相关情况、高风险人工智能科技活动等信息的统一登记、信息共享、全程留痕,确保监管可追溯、可核查;二是畅通伦理问题投诉举报渠道,健全监督机制,鼓励社会力量参与伦理监督,形成全方位、多层次的监督格局;三是严格遵循《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》《中华人民共和国科学技术进步法》等上位法律法规,明确违法违规行为的责任追究路径,对违规开展人工智能科技活动的单位和个人依法予以处罚。
塑造中国特色AI治理模式,提升全球数字治理制度性话语权
《办法》的出台,不仅是我国人工智能伦理治理进程中的里程碑事件,更在全球范围内构建了一套兼具中国特色与国际共识的治理方案,为重塑全球数字治理格局贡献了“中国智慧”与“中国方案”。
对内而言,《办法》是人工智能高质量发展的制度基石与行动指引。通过前置性的伦理审查与全生命周期的风险防控,有效防范了算法歧视、隐私泄露、深度伪造、自主决策失控等潜在风险,切实筑牢了国家安全与公共利益的防线。同时,通过划定清晰透明的合规边界,遏制了“劣币驱逐良币”的恶性竞争,显著提升了社会公众对人工智能技术的信任度,为技术规模化应用奠定了基础。这种制度安排倒逼企业将“伦理可信”转化为产品与服务的核心竞争力,为我国人工智能技术的国际化拓展扫清了制度障碍。
对外而言,《办法》成功塑造了“预防优先、服务导向、技术赋能、多元协同”的中国特色人工智能治理范式。这一模式既区别于欧盟侧重高强度规制的“硬法”路径,也不同于美国依赖市场主导的“软法”模式,而是探索出一条兼顾发展与安全、平衡效率与公平的“第三条道路”。它既坚守伦理底线、防范技术风险,又充分尊重技术创新规律,保障产业发展活力,为全球人工智能治理提供了具有可操作性的实践样本,显著提升了我国在全球数据与人工智能规则制定中的制度性话语权,推动全球人工智能治理体系向着更加公正合理、包容普惠的方向演进。
聚焦落地执行,推动伦理治理体系全面见效
法律的生命力在于实施,制度的关键在于落地。《办法》的出台为我国人工智能伦理治理提供了顶层设计,但要实现治理效能的全面释放,还需聚焦落地执行,在三方面持续发力、久久为功。
一是加快细分领域配套细则建设,实现上下贯通、行业适配。医疗、金融、交通、传媒、公共治理等人工智能应用密集领域,应结合行业特点,尽快出台场景化的伦理审查指南,明确具体审查要点、责任边界与评估方法;同时,加速伦理风险评估模型、算法审计系统等技术工具的研发与普及,为基层单位开展伦理审查提供专业支撑,确保《办法》在各行业落地生根。
二是加快复合型伦理人才培养,破解专业能力瓶颈。人工智能伦理审查是一项兼具技术、伦理、法律、社会学属性的复合型工作,当前我国此类专业人才供给不足,已成为制约伦理治理效能的重要瓶颈。需支持高校完善相关学科与课程体系,开设人工智能伦理、科技伦理审查等相关专业;加强对伦理审查从业人员的专项培训,培育一批既懂AI技术、又通伦理法律、兼具社会责任感的复合型审查专家队伍。
三是培育“科技向善”的社会生态,形成多方共治共识。伦理治理不仅是政府与企业的责任,更是全社会的共同事业。应加强人工智能伦理科普宣传,提升公众的伦理风险意识与监督能力;引导企业将伦理理念融入研发流程、企业文化与产品设计,主动履行伦理责任;支持科技社团、行业协会制定行业自律规范,推动形成政府监管、企业自治、行业自律、社会监督的多元共治格局,让“科技向善”成为全社会的共同追求。
人工智能是深刻影响人类未来的颠覆性技术,其发展必须在伦理与法治的轨道上行稳致远。《人工智能科技伦理审查与服务办法(试行)》以伦理前置、程序闭环、清单精准、协同共治为核心,构建起系统完备、科学规范、运行有效的人工智能伦理治理体系,标志着我国人工智能正式迈入伦理先行、安全可控、创新向善的高质量发展新阶段。
站在智能时代新的发展起点,坚持以人民为中心的发展思想,持续完善治理体系、提升治理能力,必将推动人工智能更好地增进人类福祉、维护公平正义、保障国家安全,为抢占全球人工智能竞争制高点、参与构建智能领域人类命运共同体提供坚实的制度支撑。
(作者系:工业和信息化部信息通信经济专家委员会委员、南京邮电大学信息产业发展战略研究院首席专家、浙江大学网络空间国际治理研究基地首席专家、中国数据要素50人论坛主席 王春晖)
