扫码订阅《中国信息安全》
邮发代号 2-786
征订热线:010-82341063
编者按
由同济大学和上海市杨浦区人民政府联合主办的2025年世界人工智能大会智能社会论坛7月27日在上海举办。欧洲标准化委员会《人工智能可信框架》起草组组长皮埃尔科斯马·比斯孔蒂(Piercosma Bisconti)在会上发表演讲,题目是《欧盟<人工智能法>与标准的重要性》。以下为演讲的主要内容。
非常感谢同济大学的邀请。
今天我要探讨的主题是监管。这恰好契合本次论坛“人工智能社会治理”的核心议题。
当前,人工智能法已成为各界热议的焦点。欧洲已制定了全球首部针对人工智能系统的立法,其目的在于保护基本权利、健康安全及人身权益。不过,这一法案也引发了全球AI领域的广泛讨论。以这种方式实施监管,是否会限制甚至阻碍创新?如何确保人工智能能够更具可持续性,并惠及全体民众?接下来,我将为大家提供一些思考方向。
AI服务商应采取哪些措施符合欧盟《人工智能法》的要求?我们先来讨论AI行业的相关企业。在此,我不会过多阐述风险结构,因为大家或许已有所了解。我们知道,AI相关风险被划分为不同类型,相应的系统也可能被归类为具有不可接受风险的系统——这类 AI不得部署。还有,对于高风险系统,需采取极为复杂且成本高昂的风险缓释措施。此外,还有有限风险系统,例如 DeepSeek、OpenAI的ChatGPT以及阿里巴巴的千问等系统,可能也都属于有限风险模式的AI。
面对高风险AI系统,应采取哪些措施呢?首先是风险缓解。这需要基于风险评估和风险框架管理,同时采用鲁棒性措施、缓解措施、提高准确性等方式,通过人工日志记录等,充分考虑人为监管因素,确保人工智能系统不会对人类、经济及民众造成危害。
如何保证AI系统具备强鲁棒性、高准确性和稳定性,同时实现有效的人类监管呢?这是一个极为复杂的话题,给多个地区的行业都带来了挑战。无论是美国、欧洲还是中国,都面临监管不确定性的问题。例如,若要将AI系统销往欧盟市场,企业可能会不确定该AI是否完全符合当地要求,以及是否需要支付相关费用,因为其AI系统可能与当地法律法规未能完全对标。
对此,欧盟的合规路径是清晰的:任何AI提供商都必须开展合规工作。合规性的呈现方式有两种:其一,过程可能极为复杂且成本高昂,因此会借助第三方评估 AI 系统。但是,认证过程仍存在法律法规层面的不确定性,因为企业无法确定第三方是否采用了正确的AI评估方式,或者是否存在统一的评估协议。比如,若欧盟法规属于AI技术法规,欧盟会委托相关组织确保存在专门的合规路径,供企业遵循。我目前所在的机构——欧洲标准化委员会小组,正是这样一个制定标准的组织,能够保障AI系统的稳定性和标准性。我们起草标准的目的在于,若AI提供商符合这些标准且满足技术要求,就很难受到欧盟法律法规的惩罚或被认定为不合规。
AI系统的标准化至关重要,其中,风险管理系统是最重要的。它对其他技术标准具有统领作用。该风险系统会决定AI提供商应采取哪些措施,实现多方面的合规,如鲁棒性、网络安全性、精准性、人类监督等。由于每个AI系统的使用语境不同,对其鲁棒性、稳定性、精准性以及人类监管的定义和案例也会有所差异,而风险管理系统恰好能帮助企业明确所有相关要求。
我们发布的统一标准包含哪些内容呢?在人类监管部分,为了确保系统能得到正确的人工监控,AI系统应植入相应功能,例如设计可实时展示关键运营参数及所有技术指数的界面。这表明,合规是最重要的标准。AI提供商完成相关工作后,被惩罚的概率会极低。当然,标准化委员会也面临一些挑战,比如人工智能联合技术委员会(JTC21)成立较晚,本应在一两个周期内统一规则,但目前我们仍处于标准开发的过程中。
此外,不同部门的横向要求很难界定,而且将人工智能法规作为产品进行管理也存在复杂性,因为存在将AI视为“负面事物”的观念。
目前,我们将中国标准与欧洲标准进行了对比分析,发现两者极为相似。经过复杂分析(此处不展开详述),可以明确的是,标准水位基本上是一致的。这意味着中国和欧洲在各方面的要求实质上是相同的,只是表述可能存在差异。这有助于中国AI提供商满足欧洲的要求,且无需额外满足更多限制和要求。
关于通用目的AI模型的行为守则,以ChatGPT为例,其遵循的基本框架源于欧盟法案中关于人工智能的规定。有趣的是,欧盟委员会希望确定一些可适用于通用AI模型的监管规则,供相关方遵守。这些所谓的行为守则本身并非法律法规,而是需要众多企业共同商议确定通用AI模型的管理方式和定义。
如何界定一个模型是否属于通用AI模型呢?通用模型应具备多模态的能力,例如能够生成图片和文字,其训练计算量可达10的25次方浮点运算(这并非严格的阈值标准)。这类模型能完成多种不同任务,还具备跨场景的泛化能力。像DeepSeek这样强大的通用模型,可能存在一定的系统性风险,使用过程中可能给社会带来大规模的风险,因此,需要更安全的系统或危险缓解机制。
我们如何评估模型的安全性或危险缓解机制呢?目前,有两种方式进行安全性的评估。评估模型安全性及危险消解机制主要包括对标。对标是通过一系列问题进行勾选,查看模型对标准问题的应对情况。我们评估了多种语言模型的对标情况,考察其是否符合风险和法律法规要求,发现目前缺乏完善的对标标准。除了HumanEval、GPQA、HLE等行业标准外,很少有可用于AI公司评估风险、基准及法律法规的对标标准,其中,涉及提示偏差、自主性、自我管理等方面的标准尤为匮乏。
对欧盟而言,在行为守则签订后,微软等企业下个月也将签署相关协议(Meta不一定会签署)。欧盟接下来的核心工作(也是明年的重点)是起草相关标准,明确对标方式、评估方法以及风险减少措施。
接下来,预计一个月左右,我们将推出高风险的统一标准。对于高风险AI提供者,最好以最高标准要求自身。由于欧洲标准与中国标准相似,企业在对标中国标准的同时,也应对标欧洲标准,这样才能使AI解决方案更轻松地适应欧盟的AI通用标准,从而以最佳方案推动AI的应用。
感谢大家的聆听!
分享网络安全知识 强化网络安全意识
欢迎关注《中国信息安全》杂志官方抖音号
《中国信息安全》杂志倾力推荐
“企业成长计划”
点击下图 了解详情
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...