党的二十届三中全会强调,建立人工智能安全监管制度。对于生成式AI等前沿技术而言,亟待构建涵盖研发、应用、监管的全周期治理框架,确保技术演进始终行进在安全可控的发展轨道。在此背景下,构建具有中国特色的人工智能治理范式,实现大模型价值对齐的机制突破,已成为培育可信人工智能生态系统的战略支点。
人工智能技术的迅猛发展将大模型价值对齐的重要性推向新高度。一方面,大模型价值对齐是塑造可信AI生态的核心命题。这要求从算法设计到应用场景落地的全生命周期中,必须嵌入人类价值共识与社会伦理准则,特别是在医疗决策、司法辅助等高敏领域。另一方面,人工智能技术的持续进步需要以社会信任为基石,确保智能系统与人类价值观的精准对齐,这已成为破除信任壁垒的关键突破口。通过构建数据全生命周期管理体系,特别是在特征工程阶段引入公平性审计,可以提升算法决策的透明度。这种透明化改造,实质上是在技术黑箱中嵌入可验证的价值锚点。这种将技术可控性转化为社会共识的实践路径,正在全球范围内形成示范效应,为人工智能的规模化应用铺平信任通道。
在数据要素深度应用的背景下,AI治理的三个核心问题尤为突出:一是数据隐私保护。当前AI系统采集的海量用户数据包含大量生物特征、行为轨迹等敏感信息,但现行数据脱敏和加密技术难以完全防范安全漏洞。这种系统性风险不仅削弱公众信任,更直接影响大模型训练数据的完整性与合规性。二是偏见或歧视。由于数据的不完整性和算法的局限性,数据质量问题可能导致大模型在训练过程中学习到偏见和歧视性信息,这种技术性偏见正在消解人工智能系统的决策公信力。三是人工智能的安全性和可靠性。由于深度神经网络的“黑箱”特性导致其行为预测困难,其在运行过程中可能会出现各种安全性和可靠性问题。
对此,可从以下方面完善人工智能治理体系,推动大模型价值对齐:
一是筑牢数据隐私保护屏障。构建全周期数据安全管理框架需要多方协同。加快《人工智能法》立法进程,构建“标准-认证-问责”的闭环体系,探索建立类似欧盟CE认证的AI产品准入制度。通过出台法规条例规范数据全生命周期的权责关系,建立分级分类监管机制。市场主体应推进隐私计算技术创新,深化联邦学习、同态加密等前沿技术的应用场景,构建数据可用不可见的安全环境。同时完善公众知情同意机制,通过可视化界面与简明条款提升用户隐私控制能力,培育全民数字权益保护意识。
二是构建AI治理双轨机制。在人工智能迈入“模型即服务”的新阶段,AI治理需要从被动响应转向主动塑造。通过构建包含技术规范、制度框架、社会协同的立体化治理体系,有效防范“算法黑箱”“数据偏见”等风险,为技术创新划定更为安全的发展航道。通过建立算法备案审查制度与动态评估体系,强制要求核心算法提交备案并定期进行公平性审计。研发端推行伦理嵌入设计,在算法模型中设置偏见检测模块和可解释性接口。应用端建立影响分级制度,对教育、医疗等民生领域算法实施穿透式监管。搭建算法透明度公示平台,利用自然语言生成技术将复杂模型转化为可理解的决策逻辑说明。
三是强化AI系统可信保障。构建覆盖研发全流程的安全认证体系,建立人工智能产品准入负面清单。在自动驾驶、医疗诊断等关键领域建立故障熔断机制。推行AI系统双盲压力测试,通过模拟极端场景检验系统可靠性。建立人工智能事故追溯制度,明确研发者、部署者、使用者的责任边界。
四是推动AI治理国际交流与合作。加强与其他国家和国际组织的AI治理交流与合作,推动AI治理国际标准的制定和实施。组建“一带一路”AI治理联盟,搭建跨国监管协作平台。同时,鼓励头部企业参与全球伦理倡议,在海外业务中推广中国治理方案,促进不同文化背景下的治理经验共享。
(本文刊于2025年3月9日文汇报11版文汇理论/智库 作者单位:上海政法学院)