扫码立即加入学习!
整理:何渊
丹麦《公共部门使用人工智能指南——启动前的注意事项》是一份由丹麦政府发布的指导文件,旨在为公共部门在开发和使用人工智能(AI)解决方案时提供数据保护方面的建议。文件涵盖了AI项目的各个阶段,从项目的目的设定、数据集的使用、到开发、运营、监控等,并强调了在AI项目生命周期内遵守《通用数据保护条例》(GDPR)的重要性。它详细说明了如何合法处理个人数据、如何确保数据最小化、以及如何履行信息告知义务。文件的目标是帮助政府机构在推动AI技术的同时,保障公民的隐私权利。
目录
什么是人工智能?
人工智能解决方案的生命周期
定界与设计阶段
3.1 目的
3.2 比例性
3.3 数据集的使用与重用,包括来自外部数据源
3.4 关于处理依据的总体说明
3.5 特殊类别的个人数据
3.6 画像与自动决策开发与训练阶段
运营阶段
影响分析
前言
数据保护规则有时被认为是发展基于新技术的高效数据驱动解决方案的障碍,例如人工智能(AI)。然而,在公共部门中开发稳健、可持续的AI解决方案,需要在利用数据潜力的同时,尊重公民的基本权利,而数据保护规则正是为了确保这一点。
在数据保护机构看来,创新和数据保护并不相互对立。事实上,遵守数据保护规则,尤其是数据最小化和目的限制等基本原则,是民主社会中适当技术发展的前提。数据保护规则的一个主要目标是建立公众对政府和公司如何处理个人数据的信任。没有公众对新技术负责任使用的信任,那些看似有前景的解决方案可能会遇到阻力,无法找到立足点。
数据保护规则适用于所有技术,因此当使用AI处理个人数据时,也必须遵守这些规则。在AI解决方案的开发过程中,必须从项目的早期阶段就将数据保护问题考虑进去。否则,当解决方案接近完成时,发现如歧视问题或缺乏合法处理依据,再对其进行调整或修改可能会付出极高的代价。因此,数据保护规则应该始终作为项目过程中的一个组成部分进行管理,包括开发前、中、后阶段以及实际应用过程中。
本指南的目的是帮助政府机构进行必要的初步数据保护法律考虑,从而能够启动AI项目。指南的主要目标群体是负责项目的员工以及在此类项目中提供数据保护建议的员工。
本指南涉及的是公共部门开发和使用AI解决方案的情况,特别是那些主要处理公民个人数据的AI解决方案,某些情况下也包括政府员工的数据处理。
最后需要指出的是,本指南仅涵盖了与数据保护相关的规则,不包括欧盟即将出台的AI法规或其他法律,如医疗设备法规、卫生法等。
1. 什么是人工智能?
目前尚无公认的、统一的AI定义。许多国际组织已经提出了他们自己的AI定义。比如,OECD在2019年提出了一个AI原则,其中定义了AI系统:
“AI系统是一种基于机器的系统,它能够在一组人类定义的目标下,做出影响现实或虚拟环境的预测、建议或决策。AI系统的设计允许其具有不同程度的自主性。”
欧盟《人工智能法》将包含对AI的定义。在欧盟委员会2021年4月21日的提案中,AI系统定义为:
“通过一个或多个附件I中列出的技术和方法开发的软件,其目标是在一组人类设定的目标下,生成内容、预测、建议或决策,并影响其互动的环境。”
欧洲理事会在2022年12月6日的意见中提出的定义是:
“AI系统是一种设计用于具备自主性,并根据机器和/或人类的输入和数据推导出如何通过机器学习和/或逻辑和知识驱动的方法来实现目标的系统,其生成的系统输出可以是内容(生成式AI系统)、预测、建议或决策,影响AI系统与之交互的环境。”
2023年6月14日,欧洲议会通过了《人工智能法》的修正案,定义AI为:
“AI是一种基于机器的系统,设计为以不同的自主程度运行,并能够在显性或隐性目标下生成影响物理或虚拟环境的输出,如预测、建议或决策。”
简而言之,基于AI的系统,包括机器学习系统,能够通过识别数据集中模式和关联得出结论,并将其应用于未来的分析。在AI系统的开发阶段,通过训练数据集(“训练数据”)使系统识别特定模式,从而在运营阶段能够处理新的输入数据,生成基于已知模式的输出,如内容、预测、建议或决策。
在数据保护的背景下,系统是否被认为是AI并不决定其是否需要遵守数据保护规则,后者是技术中立的。无论是使用AI还是传统的IT系统,只要处理个人数据,就必须遵守数据保护规则。然而,AI系统由于其处理大量个人数据的特性,可能带来更大的风险,需要格外注意这些风险并加以应对。
2. 人工智能解决方案的生命周期
AI解决方案的开发和运营通常是一个迭代过程,包含多个阶段,并不总是按特定顺序进行。以下是对这一过程的简要描述:
业务和使用场景的界定
当政府机构希望自己开发AI解决方案时,通常首先要确定需要解决的问题或需要验证的假设。在这一阶段,涉及如何实现目标的考虑,包括需要哪些类型的个人数据及其数量。数据保护机构建议,在这一早期阶段,应包括专业技术人员的参与,如医疗、社会工作等专业人员以及法律顾问,以确保系统适合其目的、有效、准确和合法。设计
设计阶段的一部分是获取足够的训练数据。这可以通过收集新信息或重用现有的政府或外部数据源的数据来实现。在选择训练数据时,需要进行关键的法律评估,确保所选数据可以用于AI开发,并且遵守数据最小化原则。开发与测试
开发解决方案通常需要使用训练数据。AI模型的选择、模型的调整以确保其统计准确性以及避免偏见和透明性问题,都需要进行深入的评估和决策。运营
AI解决方案进入运营后,其通常会用于生成内容、建议或辅助决策,甚至在某些情况下生成完全自动化的决策。监控与持续学习
运营阶段,AI模型需要定期监控,以确保其输出保持准确,并确保其遵守数据保护原则,如数据准确性和设计中的数据保护。
3. 定界与设计阶段
当政府机构考虑开发或采购AI解决方案时,应首先回答以下两个关键问题:
解决方案的目标是什么?
将通过该解决方案处理哪些个人数据?
这两个问题的答案是遵守数据保护规则的前提,即使答案看似显而易见,数据保护机构建议在定界和设计阶段系统地进行这些问题的梳理。
3.1 目的
数据保护规则要求处理个人数据的目的明确且合法。在AI开发阶段,数据处理的目的是开发一个或多个技术解决方案,通常使用历史数据,这些数据最初是为其他目的收集的,比如具体的行政处理。
AI解决方案的开发应被视为一个独立目的。虽然长期目标可能是将其用于日常运营中,但开发与运营是不同的目的,涉及不同的条件和对个人数据的潜在风险。
3.2 比例性
确定处理个人数据的目的后,需要评估数据处理是否适当、必要并与目的成比例。虽然开发AI通常需要处理大量数据,但数据最小化原则要求使用尽可能少的数据来实现目标。
开发AI时,应尽可能避免使用个人数据,使用匿名或合成数据。此外,应记录使用个人数据的原因,如无法使用合成数据的技术难题。
3.3 数据集的使用与重用,包括来自外部数据源
AI的开发、训练和运营通常需要处理大规模的数据集,包括政府机构自有的数据或来自其他政府机构的数据。根据数据保护规则,数据不能被用于与其最初收集目的不一致的新目的。为了合法地处理来自其他机构的数据,必须确保新用途与原用途一致。
3.4 关于处理依据的总体说明
为了合法处理个人数据,必须为每个处理目的确定处理依据。开发和训练阶段与运营阶段的处理目的是不同的,因此其处理依据也不尽相同。
3.5 特殊类别的个人数据
某些类别的个人数据,如种族、健康和宗教信仰数据,被视为具有更高的风险,必须满足更严格的条件才能处理。
3.6 画像与自动决策
AI系统可用于生成画像,即根据收集的数据预测个人的行为或需求。这些画像有时用于自动决策,自动决策需符合更严格的法律要求,尤其是在其对个人产生法律或重大影响时。
4. 开发与训练阶段
AI系统生命周期的开发和训练阶段尤为重要。此阶段的目标是将个人数据用于开发和训练AI解决方案。该阶段通常被视为与解决方案的后续运营阶段分开的一个独立目的。
4.1 相关的处理依据
根据GDPR,处理个人数据的活动必须基于合法依据。对于政府机构来说,常见的合法依据之一是基于“为公众利益或执行公共职能”进行处理。
4.1.1 社会公共利益或政府职能的行使
公共部门在开发和训练AI解决方案时,大多数情况下,其处理数据的目的是为了执行公共职能,或为了社会公共利益。如果一个政府部门希望基于其职能开发AI解决方案,首先应明确该职能是由哪些法律、法规或其他行政规定所赋予的。这些规定可能为机构提供开发AI解决方案的法律依据。
例子:
《卫生法》§222:根据规定,丹麦国家血清研究所的职责包括预防和控制传染病、先天性疾病及生物威胁。该研究所也被授权处理与这些职能相关的必要个人数据。
其次,必须评估这些法律依据是否足够明确和具体,以支持AI开发。如果相关法律依据不够清晰,则可能需要更多的具体法规或解释性指导。
4.1.2 科学研究和统计目的
AI开发活动有时可以归类为科学研究或统计分析。根据数据保护法§10,处理个人数据的活动可以基于科学研究或统计目的进行,只要该处理符合相应的法律要求。
在科学研究或统计目的的AI开发中,数据的再利用通常被认为与最初的收集目的兼容,因此不需要额外的处理依据。
然而,即使基于科学或统计目的,政府机构仍需采取措施确保数据主体的权益得到保护,特别是在处理敏感数据时。
4.2 信息告知义务
在AI开发和训练过程中,政府机构必须履行数据主体的信息告知义务。根据GDPR的要求,数据主体有权知道他们的个人数据是如何被处理的,包括处理的目的、数据来源、处理依据以及数据保留期限等。告知义务旨在确保透明度,并让数据主体了解其权利。
在AI开发过程中,尤其是涉及到个人数据再利用时,告知义务显得尤为重要。机构必须清楚地告知数据主体,他们的数据将被用于AI的开发和训练。这可以通过更新隐私政策或发送通知的方式来完成。
5. 运营阶段
当AI解决方案进入运营阶段时,数据处理的目的和处理依据可能会发生变化。此阶段的重点是确保AI解决方案的使用符合数据保护法规,并持续监控其合规性。
5.1 目的
在运营阶段,AI解决方案被用于实际的公共服务或决策支持,因此数据处理的目的更加具体。此时处理个人数据的目的是为了解决特定的行政事务或为特定的公共服务提供支持。为了确保运营的合法性,必须确保处理活动符合最初的目的说明。
5.2 相关的处理依据
与开发和训练阶段相比,运营阶段的处理依据可能有所不同。常见的处理依据包括法律义务、社会公共利益或公共职能的行使。
5.2.1 法律义务
在某些情况下,处理个人数据可能是为了履行法律义务。例如,公共部门在执行某些特定任务时,法律可能要求其收集、处理和保存个人数据。在这种情况下,法律义务为处理活动提供了合法依据。
5.2.2 社会公共利益或公共职能的行使
与开发阶段类似,政府在行使公共职能或为了社会公共利益进行数据处理时,AI的运营也可基于这一处理依据。
5.2.3 关于同意的特别说明
在某些特殊情况下,AI的运营可能需要获得数据主体的同意。然而,在大多数情况下,公共部门不应依赖同意作为处理依据,特别是在执行公共职能或履行法律义务时。因为在政府部门与公民的关系中,公民往往处于从属地位,难以真正自由地给予或撤回同意。
5.3 监控和持续学习
AI系统在运营阶段应定期监控其表现,以确保其继续生成准确和公平的输出。监控不仅是为了确保系统的合规性,还包括确保模型的准确性和避免潜在的偏见。
对于那些具备自我学习能力的AI系统(即动态模型),尤其需要注意持续学习的过程可能引入新的风险,可能导致系统输出的不准确性或偏见。因此,动态模型需要更加频繁和仔细的监控。
5.4 信息告知义务
与开发阶段类似,在AI运营阶段,政府部门仍有义务向数据主体告知其数据的处理情况。此时的信息告知应涵盖AI系统如何使用数据主体的个人数据进行决策或提供服务,处理数据的依据以及数据主体的权利等信息。
6. 影响分析
根据GDPR第35条,如果数据处理活动可能对个人的权利和自由产生高风险,数据控制者必须进行数据保护影响评估(DPIA)。对于AI解决方案,尤其是在涉及大规模处理个人数据或敏感数据时,DPIA是必要的。
影响评估的目标是识别和评估AI系统可能对个人隐私和数据安全带来的风险,并提出相应的措施来减轻这些风险。DPIA应在项目的早期阶段进行,并在系统开发和运营的各个阶段持续更新。
总结
本指南旨在帮助公共部门在开发和使用人工智能时,确保其遵守数据保护法规。开发和使用AI系统是一项复杂的任务,涉及多阶段的数据处理和多方面的合规要求。从项目的早期阶段开始,数据保护应被纳入到项目规划中。通过遵守数据保护规则,公共部门不仅能够减少法律风险,还能建立公众对其AI解决方案的信任。
个人信息保护合规审计先行计划
牵头发起个保合规审计先行计划,并已完成即刻APP等数家公司的试点工作; 参与个保合规审计标准编制工作,并形成一套完善的审计方法; 完成首款个保合规审计自动化软件,并获得软件著作权; 率先发起个保合规审计认证培训,已在北京、上海举办两期。 申请请备注:姓名+单位+职务
不备注不通过
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...