随着人工智能技术的发展,人工智能治理成为国际性议题,中国提出《全球人工智能治理倡议》为人工智能治理的多种问题提出了中国方案,指引人工智能企业开展人工智能风险评估、伦理治理、隐私保护等治理工作.
包沉浮,高磊,郭建(北京百度网讯科技有限公司)
人工智能技术的快速发展,深刻地改变了社会生产生活方式,显露出对全行业的颠覆式影响.与此同时,人工智能治理问题也引发了前所未有的关注,全球的政府与产业组织、科研机构、企业均在持续加强相关的研究和投入.如何有效治理人工智能带来的风险,以高水平应用人工智能技术发展新质生产力,亟需纲领性的人工智能治理思想来凝聚共识、指导行动.人工智能正日益成为新质生产力的重要因素和核心驱动力,推动生产方式和生产关系发生深刻变革.其在促进数字社会发展的同时,也带来了新的挑战.本文主要从以下角度论述:人工智能新技术自身挑战,人工智能滥用挑战,人工智能伦理等方向的挑战.新技术自身挑战:人工智能技术的发展依赖于海量的数据、先进的算法、超高的算力.数据层面,海量的数据来自多种渠道、覆盖多种模态、包含多种知识,数据被窃取、被投毒的挑战日益加深;算法层面,算法的不可解释性、算法歧视、算法权利异化等从算法设计、算法透明性、算法治理等维度提出了挑战;算力层面,人工智能的发展对超高算力的需求,为人工智能基础设施的安全带来新的挑战,同时能源消耗也成为不可规避的社会关注方向.为解决以上挑战国内众多专家已经开展了相关的研究,其中包括数据安全治理、算法治理以及广泛的人工智能安全治理的研究[1-3].人工智能滥用挑战:人工智能的快速发展对使用者技术要求逐渐降低,为人工智能服务人类带来了便利,同时引发了滥用风险.利用人工智能开展网络诈骗、网络攻击、生成虚假信息、侵犯知识产权等现象频发,利用人工智能侵害有关个人和组织的合法权益的事件也逐渐增多.这都给人工智能系统安全、业务应用安全、生成内容识别等方向带来了新的挑战.当前国内相关厂商也开展了对人工智能标识、数字水印等技术的研究以应对上述挑战.人工智能伦理挑战:人工智能发展依赖的海量数据中存在大量的个人信息,尤其是可能包含个人位置信息、个人健康信息等敏感个人信息,容易导致个人信息泄露;同时随着人工智能的自动化决策能力增强,新的人机关系尤其是如何使用人工智能为人类服务,也带来了新的伦理挑战.2022年国家新一代人工智能治理专业委员会已经发布了《新一代人工智能伦理规范》等相关指导以应对人工智能的伦理挑战.国内相关科研机构也已经开展了针对人工智能生成内容、自动驾驶、智慧医疗等场景的人工智能伦理研究.此外,人工智能技术的发展也引发了军备武器研发、劳动力市场以及舆论环境等方面的变革,这将为军事安全、经济稳定和社会秩序等方面带来挑战.2023年10月18日,国家主席习近平在第三届“一带一路”国际合作高峰论坛开幕式的主题演讲中提出《全球人工智能治理倡议》.同日,国家互联网信息办公室发布中英版《全球人工智能治理倡议》(以下简称《倡议》).《倡议》提出:坚持“以人为本”原则;尊重他国主权;坚持“智能向善”原则;坚持相互尊重、平等互利原则;推动建立风险等级测试评估体系;逐步建立健全法律和规章制度;坚持公平性和非歧视性原则;坚持伦理先行;坚持广泛参与、协商一致、循序渐进的原则;积极发展用于人工智能治理的相关技术开发与应用;增强发展中国家在人工智能全球治理中的代表性和发言权.全文围绕人工智能发展、安全、治理3方面系统阐述了人工智能治理中国方案,为全球人工智能治理提供了中国思路,给人工智能相关从业者提供了指导.首先,《倡议》明确了人工智能发展的目标和原则.即“以人为本”、以增进人类共同福祉为目标、以有利于人类文明进步的方向发展,同时又要保障安全,坚持发展和安全并重的原则.发展与安全双轮驱动人工智能为人类服务,在安全合规的框架下为社会带来福祉.其次,对人工智能全生命周期治理给出了关键指导.《倡议》在人工智能的开发设计阶段提出了“伦理先行”的原则;也提出研发阶段的数据获取、算法设计、技术开发、产品研发等程序中要坚持公平和非歧视的原则;还强调了在部署和应用阶段要坚持和落实“智能向善”的宗旨;并进一步要求要建立跨阶段、快速响应、敏捷高效的风险等级测试评估体系.通过全生命周期的治理机制设计,确保人工智能始终处于人类控制之下,打造可审核、可监督、可追溯、可信赖的人工智能技术.最后,《倡议》对全球人工智能治理的共识性原则提出了国际化落实建议.明确提出在伦理、技术发展、风险评估及政策方面开展多方向的国际化分享,求同存异形成人工智能治理的广泛共识,支持在联合国框架下讨论成立国际人工智能治理机构,加强面向发展中国家的国际合作与援助,弥合智能鸿沟和治理差距等.为响应《倡议》,切实配合全球人工智能治理的稳步推进,作为人工智能企业可以从以下方向开展工作:人工智能治理框架和标准规范方面,《倡议》提出各国应在人工智能治理中加强信息交流和技术合作,共同做好风险防范,形成具有广泛共识的人工智能治理框架和标准规范,人工智能企业应完善内部治理机制,积极参与国家和国际上关于人工智能治理框架和标准规范的制定,贡献行业经验和技术见解,在人工智能伦理、技术、安全等角度提出切实可行的行业方案.提供人工智能产品和服务方面,《倡议》提出反对利用人工智能技术优势操纵舆论、传播虚假信息,人工智能企业应在产品和服务中善用技术应对滥用人工智能生成虚假信息、传播捏造事实、操纵社会舆论带来的挑战,开展伪造内容识别、生成内容标识等技术研发有效提升多模态内容的识别、有害内容的阻断,重点内容的追溯,同时加强人工智能的对抗能力确保人工智能产品和服务可审核、可监督、可审核、可信赖.人工智能“智能向善”方面,《倡议》提出遵守适用的国际法,符合和平、发展、公平、正义、民主、自由的全人类共同价值,防范对人工智能技术的恶用滥用.企业应对人工智能技术及应用进行合理审慎的开发,善用技术力量与技术恶用滥用对抗,利用新技术对网络空间中的恶意应用、恶意信息进行感知、识别、收集、预警、打击,为构建清朗网络环境提供有力支持.人工智能风险等级测试评估体系方面,《倡议》提出研发主体不断提高人工智能可解释性和可预测性,提升数据真实性和准确性.企业应开展安全对抗研究,构建人工智能风险等级评估框架,从评估数据集、攻防对抗、红蓝协同等角度开展人工智能安全评测与人工智能安全防护的同步规划、同步建设、同步更新,形成数据闭环,促进人工智能生态健康发展.在个人隐私与数据安全保护方面,《倡议》提出保障人工智能研发和应用中的个人隐私与数据安全,反对窃取、篡改、泄露和其他非法收集利用个人信息的行为,人工智能企业应建立数据安全保护机制,在产品和服务中开展隐私保护设计并定期开展隐私保护检测,系统性保障个人隐私和数据安全,保障用户权益,确保数据处理安全可信.人工智能伦理方面,《倡议》延续国家提出“伦理先行”的要求,持续推进科技向善的文化理念和保障机制、为构建人类命运共同体提供有力的科技支撑,人工智能企业应建立科技伦理委员会,对人工智能应用进行伦理评估,同时加强企业内部的伦理培训教育,确保在产品和服务过程中考虑伦理影响,规避伦理风险.作为中国领先的人工智能企业之一,百度在人工智能技术栈的芯片、框架、模型、应用四层有全栈布局,从高端芯片昆仑芯,到飞桨深度学习框架,再到文心预训练大模型,各个层面都有自主研发的领先产品和技术.百度于2023年8月31日率先向全社会全面开放生成式人工智能服务产品文心一言,截至2024年4月,文心一言的用户规模已经突破2亿,API的日均调用量也超过了2亿.百度遵循《倡议》的基本指导要求,积极探索并全面落实人工智能治理的各项措施,确保其契合全球人工智能治理框架:在人工智能治理框架和标准规范方面,百度从业务、技术、安全等角度建立由ACG风控合规部、交易及合规法律部、法务部、安全平台等多个部门核心骨干组成的人工智能治理小组,参与AI安全、数据安全、个人信息保护、机密计算等10余个领域标准的讨论与审议,迄今已深度参与了多项国家标准,其中包括《信息安全技术 机器学习算法安全规范》《网络安全技术 生成式人工智能人工标注安全规范》《网络安全技术 生成式人工智能预训练和优化训练数据安全规范》《网络安全技术 生成式人工智能安全基本要求》及实践指南《网络安全标准实践指南—生成式人工智能服务内容标识方法》、技术文件《生成式人工智能服务安全基本要求》.在提供人工智能产品和服务方面,为应对滥用人工智能生成虚假信息、传播捏造事实、操纵社会舆论带来的挑战,百度基于前沿的深度学习技术,构建了多模态的深度伪造检测和深度学习隐写水印技术.在多模态深伪检测上,围绕图像篡改、TTS音频变换、深度合成等图片、音频、视频深伪类型提供具备高度可解释性的识别能力,能够有效判别虚假内容.为阻断虚假信息的传播,实现高效的失实来源的定位,百度克服传统空域和变换域隐写水印在面对组合攻击的不足,通过领先的对抗生成技术实现高鲁棒性的深度学习隐写水印能力,可以有效实现图片、视频等多载体虚假信息的可追溯.在人工智能“智能向善”方面,百度积极推进人工智能技术在“智能向善”场景的应用.通过深伪检测过滤虚假信息,基于大模型技术识别涉黑涉诈信息、抽取涉诈引流实体、构建涉诈情报库,采用AI智能体在涉诈站点自动搜集涉诈信息,持续扩大反诈能力的感知面,为防诈止诈提供事前的预警,提前打击涉诈黑产分子,为构建清朗网络环境提供有力支持.在人工智能风险等级测试评估体系方面,百度基于多年的安全对抗经验总结和人工智能技术积累,为大模型的安全性评估构建了一套系统全面的测评框架,该框架依据国标技术文件《生成式人工智能服务安全基本要求》提供了完整的测评数据多样性生成、毒性增强、毒性分级以及内容风险识别方法,覆盖多达600多个内容安全子类别,能够持续监控人工智能内容安全风险.同时通过建立攻防一体、红蓝协同的人工智能安全评测与人工智能内容安全防护共建机制,共同促进人工智能生态的健康发展.在个人隐私与数据安全保护方面,百度将前沿数据安全与隐私保护技术与人工智能生态相结合,构建“基于零信任的全域资产管控、数据全流程密态管理、可信计算实现全链路安全、全流程操作可信审计”的关键安全能力,在人工智能语料数据安全管理、训练数据安全管控、推理安全服务、微调数据安全管理、私有化数据资产保护等人工智能全生命周期各环节为业务提供端到端的数据密态管控与数据安全合规能力.在人工智能伦理方面,百度通过设置科技伦理委员会,健全科技伦理条例,制定并完善科技伦理委员会工作流程、管理制度和研发规范,推动集团治理体系升级,尤其在人工智能、生成式人工智能领域伦理治理中作出积极探索,并建立百度人工智能伦理与治理社区,协同内部多部门规避伦理风险.人工智能有广阔的发展前景,未来随着人工智能的发展,人工智能治理进入深水区,对人工智能的发展可以从以下方向开展:加强法规层面的顶层设计规划.国家已经发布《网络安全法》《数据安全法》《个人信息保护法》等多项法律法规用于开展人工智能相关基础设施、数据、个人信息保护的安全治理,但是人工智能引发的管理体系、制度设计、风险治理、知识产权等仍然期待新的顶层制度,同时在国际治理层面,不同国家的发展程度、法律体系和文化差异也依赖于新的国际化共识,以便指导从业者开展人工智能跨国合作.促进治理层面的标准规范研制.人工智能领域是国际化技术的典型代表,人工智能技术覆盖面广,涉及的技术领域多.同时因为标准涉及政府、企业、消费者等多方利益,制定全面且统一的标准化体系用于指导人工智能治理在实操层面的落地,有助于人工智能治理在全球的各地区、各领域、各环节的标准化推进.开展技术层面的开发攻关.人工智能的实现过程中存在大量的复杂性和不透明,人工智能的技术治理也难以覆盖全生命周期的各个阶段.开展可解释的人工智能模型和算法研究,利用差分隐私、数据沙箱等数据安全技术保护用户隐私和多模态数据,同时对人工智能模型、应用、系统等开展评估验证都十分必要,有助于为人工智能治理从技术实现角度提供支持,确保人工智能结果的可信度.推动人工智能治理的产业实践.人工智能治理不仅依赖于政策法规的设计、标准规范的研发、技术的进步,更依赖于行业和产业的实践.人工智能治理主体对科技伦理的主体责任、组织建设、技术创新等实践都可以在人工智能应用过程中从源头提供治理思路,在具体的业务实践中对最新的技术和方案进行验证,保障人工智能治理的针对性和有效性.《倡议》不仅为人工智能企业提供了指导,也为全球人工智能治理提供了重要的参考.本文汇总了人工智能发展的挑战,结合《倡议》的提出背景给出了响应《倡议》的工作方向,同时以企业视角总结了百度的人工智能治理实践,最后对人工智能的治理做出了展望.作为人工智能企业,百度将积极响应倡议,加强人工智能技术创新,不断提升自身的技术水平和治理能力,为全球人工智能治理作出贡献.参考文献
[1]魏国富, 石英村. 人工智能数据安全治理与技术发展概述[J]. 信息安全研究, 2021, 7(2): 110-119
[2]李欣, 曹艺萱. 我国算法风险及其治理研究综述[J]. 信息安全研究, 2024, 10(2): 114-121
[3]彭长根. 人工智能安全治理挑战与对策[J]. 信息安全研究, 2022, 8(4): 318-325
包沉浮,百度杰出架构师.主要研究方向为人工智能安全以及人工智能在安全领域的应用.
高磊,百度资深研发工程师.主要研究方向为人工智能安全、数据挖掘与风控.
郭建领,百度资深标准化专家.主要研究方向为人工智能安全、数据安全标准化及应用.
(本文刊载在《信息安全研究》2024年第1期增刊)
还没有评论,来说两句吧...