扫码立即加入《欧盟人工智能法》课程
一、问题概述
开发生成式AI可能非常昂贵,可能耗费高达数千万美元,大多数企业和组织选择采用第三方生成式AI工具或使用自己的数据微调这些模型。一般问题和商业风险包括:
确定使用场景 | 生成式AI可以执行许多任务,最佳使用场景仍在不断发展,将在企业和组织之间有所不同。 |
合同条款差异 | 生成式AI工具刚刚诞生,商业合同条款的最佳实践和规范仍在发展中。开发者授权其AI工具的条款可能存在相当大的差异,包括对商业秘密和其他机密信息的处理方式、输出的所有权、赔偿的可用性以及用户通过实施员工监控和培训来减轻风险的义务。 |
训练数据问题 | 一些生成式AI工具是使用从互联网上抓取的材料进行训练的,包括版权作品、个人信息、生物识别数据和有害、非法内容。关于是否涉及知识产权、隐私和合同义务的违反,有关材料的抓取、下载和处理、训练的AI模型及其输出的诉讼正在持续进行中。关于知识产权所有者和AI开发者之间利益平衡的辩论正在进行中。 |
输出问题 | 生成式AI可能会产生不适当或非法的输出,包括错误的信息、知识产权侵权、深度伪造、个人信息、诽谤性指控以及歧视性、偏见和有害内容。正在开发技术保障措施,但鉴于所涉及计算的复杂性,在所有情况下预测AI行为都是具有挑战性的。此外,大多数国家的知识产权法律是在AI出现之前制定的,导致对AI输出中知识产权所有权的不确定性。 |
监管环境多变 | 政府和监管机构正在考虑为生成式AI制定新的法律、法规、政策和指导方针。这些可能对使用生成式AI的企业和组织施加要求。中国已经实施了具体规定,欧盟也计划很快实施法规。 |
这个问题列表不是详尽无遗的,还有许多其他挑战,包括训练和使用生成式AI的能源密集性质。
许多国际组织,如联合国教科文组织、经济合作与发展组织,已经发布了关于负责任使用AI的一般原则性指导。企业和组织应考虑实施员工政策和生成式AI培训,以鼓励负责任的实验和使用。
二、生成式AI及IP
生成式AI有许多知识产权不确定性。虽然完全减轻这些知识产权风险是不可能的,但以下考虑可能对企业和组织在这一不断发展的技术领域中导航知识产权考虑有用。
三、机密信息
机密信息是不公开的、可能有或可能没有商业价值的、以保密方式传达的、并得到合理保护的信息。它包括商业秘密,这是一种由于其秘密性质而具有(潜在)经济价值或提供竞争优势的机密信息。
使用生成式AI工具的企业和组织可能会无意中泄露商业秘密或放弃商业敏感信息的保密性,如果这些信息被用于训练或提示AI工具。他们应考虑实施一系列技术、法律和实际保障措施,以防止这种情况发生。
说明:风险与缓解措施并非一一对应关系。
风险 | 缓解措施 |
生成式AI工具可能会保存并训练用户的提示。如果用户在提示中包含机密信息,保密性可能会丧失,因为AI供应商拥有信息的副本,而且这些信息可能成为模型的一部分,并与其他用户公开共享输出。 | 检查生成式AI工具的设置,以最小化供应商存储或使用您的提示的风险。 |
考虑使用在私有云上运行和存储的生成式AI工具。 | |
当企业和组织从头开始训练生成式AI工具或使用其机密信息微调现有工具时,存在信息可能被公开的风险。 | 检查AI工具的提供商是否会存储、监控和审查您的提示。寻求提供商关于任何机密信息的适当保护和保证。 |
黑客可能能够使用“提示注入”等技术提取训练数据,包括机密信息。 | 限制对使用机密信息的生成式AI工具的访问,仅限于有权访问该信息的员工。 |
提供私有生成式AI工具的供应商可能会监控和存储提示,以检查不当使用。在某些情况下,提示可能会由供应商的员工进行审查。 | 实施员工政策,并提供有关在提示中包含机密信息的风险的培训。 |
考虑让信息安全专家审查和监控生成式AI工具。 |
四、IP侵权
许多生成式AI工具是在受知识产权保护作品的大量(有时是数十亿)训练下进行的。有多个正在进行的法律纠纷声称,使用这些作品来训练AI、训练的AI模型及其输出是知识产权侵权。这些案件主要集中在版权和商标上,但理论上,其他知识产权也可能涉及,如工业设计、数据库权利和专利发明。
AI工具、其训练、使用和输出是否代表知识产权侵权存在重大法律不确定性。答案可能因管辖区域而异。企业和组织应考虑通过使用符合知识产权的工具,尽可能寻求赔偿,审查数据集,并实施技术和实际措施来减少侵权的可能性。
风险 | 缓解措施 |
全球有待解决的诉讼,以确定使用受知识产权保护作品训练AI、使用此类训练的AI模型以及它们生成的输出是否构成知识产权侵权。 | 考虑使用仅在已许可、公共领域或用户自己的训练数据上训练的生成式AI工具。 |
在选择AI工具时,考虑是否有提供商愿意提供针对知识产权侵权的赔偿,特别是版权侵权。评估赔偿的范围和适当性。例如,保护可能仅限于第三方赔偿,并且取决于遵守合同限制和实施风险缓解措施。 | |
风险不仅限于AI开发者,而且可能扩展到生成式AI工具的用户。在许多国家,对各种形式的知识产权侵权,如复制版权作品,不取决于被指控侵权者的意图或知识。 | 在训练或微调生成式AI时,彻底审查数据集。验证知识产权所有权、AI训练的许可覆盖范围,以及遵守Creative Commons许可证或公共领域状态。确保在预期司法管辖区中适用的版权例外是可接受的。 |
关于潜在的IP侵权问题,一些国家的知识产权法律包含了可能适用于生成式人工智能的例外情况,例如合理使用、文本和数据挖掘以及临时复制。然而,各国之间缺乏协调以及这些例外情况对生成式人工智能的未知应用引入了不确定性。 | 请注意,监管机构正在考虑制定义务,要求披露用于训练模型的受知识产权保护项目的详细信息。考虑保留记录,记录AI模型是如何被训练的。 |
实施员工政策和培训,以最小化产生侵权输出的风险。建议避免使用提及第三方商业名称、商标、版权作品或特定作者/艺术家的提示。 | |
即使在法院已经作出裁决的情况下,这些裁决可能取决于案件的具体情况以及国家法律的规定。 | 考虑实施在使用输出之前检查侵权的措施。这些措施可能包括抄袭检查器、图片搜索和自由操作审查。 |
根据具体情况评估缓解措施、相关成本和商业风险。 |
五、开源义务
AI生成的代码可能受到开源义务的约束。当一个软件应用程序或代码是开源的,意味着源代码对公众可用,并且用户通常被授予某些权利和自由来使用、修改和分发软件。然而,这些权利和自由伴随着用户必须遵守的义务,例如归属,这些义务根据管理软件的特定开源许可证而变化。
企业和组织应考虑这种风险是否适合他们的代码,调查潜在的赔偿,并实施技术和实际措施来减少开源义务产生的可能性。
风险 | 缓解措施 |
生成式AI可能在受开源要求约束的代码上进行训练,可能会违反诸如商业使用限制或归属等义务。在美国,有关此问题的法律纠纷正在进行中。 | 考虑从专门在已许可示例上训练的提供商那里获取生成式AI工具,或实施技术保障措施,例如检测相关的开源许可证。 |
考虑从提供针对开源侵权的赔偿的提供商那里采购生成式AI工具。检查保护的范围和适用性以及适用的条件。 | |
一些开源许可证规定,任何包含开源代码的代码都将成为同一开源许可证的要求对象。用户集成AI生成的代码可能会无意中将开源义务引入他们的项目中。 | 在训练或微调生成式AI工具时,彻底审查训练数据以确保有足够的许可。 |
采用风险与收益的方法来使用生成式AI进行编码。如果确保代码不受开源义务的约束至关重要,考虑禁止供应商和员工在这些项目中使用生成式AI。 |
六、深度伪造
在许多国家,肖像和声音受到保护,尽管这种保护并没有统一。保护形式包括一些知识产权(例如在普通法国家中的假冒),不正当竞争法,人权,宪法权利和公开权。
生成式AI有可能模仿特定人物的肖像或声音,有些工具专门为此目的设计。企业和组织应考虑与这些能力相关的风险。
风险 | 缓解措施 |
未经授权使用或模仿某人的声音或肖像可能导致侵犯知识产权或其他权利,由于跨司法管辖区的法律框架不统一,挑战随之而来。 | 建立员工政策并提供培训,明确禁止使用“深度伪造”生成式AI工具。对于批准的生成式AI工具,执行禁止在提示中引用特定个人的策略。 |
模仿肖像和声音也可能带来声誉损害或法律行动的风险,例如欺诈或诽谤。许多国家正在考虑针对深度伪造制定特定的法律和法规。例如,中国已经通过了适用于“深度合成”的法规。 | 在有合法商业理由合成某人的声音或肖像的情况下,从主体那里获得必要的同意和许可。 |
七、AI输出中的知识产权和所有权
目前尚不清楚,由AI工具生成的新内容,如文本、图像或其他创意作品,是否可以受到知识产权的保护,如果可以,谁拥有这些权利。即使AI输出没有知识产权保护,也可能有合同条款规定其使用。生成式AI输出中知识产权的存在和所有权不明确。
企业和组织应在输出的知识产权所有权方面寻求合同上的明确性,并考虑仅在AI输出的知识产权所有权对其商业模式不是关键的情况下使用生成式AI。
风险 | 缓解措施 |
大多数国家的知识产权法律是在没有考虑生成式AI的情况下制定的,导致对AI输出是否可以拥有知识产权以及谁将拥有任何此类权利存在不确定性。对于某些知识产权权利,如商标,这可能不是问题,但对于版权存在广泛的担忧。 | 审查生成式AI工具的条款和条件,以了解谁拥有输出中的知识产权(如果有的话)。 |
最近以AI系统“DABUS”作为发明者命名的专利申请在已经作出判决的国家中一直被拒绝,因为没有确定人类发明者。目前尚不清楚生成式AI是否可以在没有人类发明者的情况下进行发明,或者这样的发明是否可以获得专利。 | 探索通过整合知识产权元素(如品牌名称和标志)或涉及人类创造力来修改或创建输出的新版本,来增强对输出的控制或权利。 |
美国版权局已经发布了关于注册包含由AI生成材料的作品的指导方针,指出需要人类的创造性贡献。该局的决定表明,仅用户的文字提示可能无法确立版权,因为提示只是“影响”了输出。然而,北京互联网法院最近裁定,用户拥有一张AI生成图像的版权,因为他调整了提示和参数,使得图像反映了他的审美选择和判断。这些对AI生成作品版权的不同解释引入了关于全球承认生成式AI输出版权的法律不确定性。 | 记录人类在发明或创造过程中的作用。 |
尽可能建立关于计算机生成作品的版权归属协议。不同国家的法律测试各不相同,可能难以应用,因此协议可以提高确定性。 | |
在委托作品时,考虑寻求保证,证明没有使用生成式AI。 | |
一些国家(如印度、爱尔兰、新西兰、南非和英国)为没有人类作者的“计算机生成作品”提供版权保护。乌克兰已经为计算机程序生成的“非原创对象”引入了权利。 | 考虑仅在知识产权权利不是必需的情况下使用生成式AI,例如用于内部使用、创意生成,以及用于(个人)社交媒体帖子等短暂用途。 |
八、检查清单
企业和组织可以使用许多措施来促进负责任和合法合规的使用生成式AI。以下清单对于希望建立负责任的做法并导航这个快速发展领域的企业和组织可能是有用的。
员工政策和培训
1. 实施员工政策和培训,指导适当使用,并鼓励负责任的实验和使用生成式AI,包括:
2. 了解生成式AI相关的机会、风险和局限性。
3. 避免在提示中使用机密信息。
4. 限制对使用商业秘密训练的生成式AI的访问,仅限于有权访问该信息的员工。
5. 避免在提示中使用第三方知识产权,以最小化侵权输出。
6. 避免使用“深度伪造”生成式AI工具。
风险监控和风险档案管理
7. 监控案例法和法规的变化。
8. 根据不断变化的风险和法院决定定期评估和更新政策。
9. 向业务明确传达法律风险,根据业务风险偏好采取实践。
10. 维护AI工具列表,根据风险档案进行分类,例如所有员工都可以使用的工具的白名单,使用机密信息的受限工具,以及禁止使用的工具。
记录保存
11. 考虑记录AI工具是如何训练的。
12. 要求员工标记AI生成的输出,并保留使用的提示的记录。
13. 记录人类在创作过程中的作用。AI工具评估
14. 审查外部采购工具的条款和条件(包括那些在内部数据上训练的工具),以
15. 了解提供商是否存储您的提示。
16. 了解工具所训练的数据。
17. 寻求使用适当许可或公共领域训练数据的工具,或具有防止使用受保护数据的技术保障措施。
18. 确定提供商是否提供针对知识产权侵权的赔偿以及条件是什么。
19. 由信息安全专家审查和监控生成式AI工具。
20. 探索在本地或私有云上存储的私有生成式AI工具,以增强控制和保证。
21. 从提供商那里寻求关于机密信息的适当保护和保证。
数据评估
22. 在训练AI时审查数据集,并考虑知识产权所有权和许可覆盖范围。
AI输出
23. 检查生成式AI提供商关于输出中的知识产权和所有权的条款。
24. 在使用输出前检查知识产权侵权。
25. 将人类输入和创造力与AI输出整合,以保持对输出所有权的控制。
26. 建立关于输出所有权的协议。
27. 记录人类在创作过程中的作用。
28. 获得必要的同意和许可,以合成某人的声音或肖像。
时间:每两月一期(周末两天) 形式:线下为主、线上同步 费用:7800元,三人以上团购价单独询价 地址:上海市静安区江场三路250号16号楼5层 咨询:138 1664 6268,[email protected] 扫描二维码索取报名表及报名咨询
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...