扫码订阅《中国信息安全》
邮发代号 2-786
征订热线:010-82341063
问责制是激励人工智能开发链中的参与者对最终用户负责的一个关键考虑因素。参与者包括模型开发人员、应用程序部署人员和云服务提供商(提供托管AI应用程序的平台)。与大多数软件开发一样,生成型人工智能也涉及到技术堆栈中的多层内容。虽然责任的分配可能不能立即明确,但可以借鉴云计算和软件开发中的实践经验,采取相关措施。
数据是模型开发的核心元素,它显著地影响了模型输出的质量。因此,提供给模型的数据内容很重要,并且需要确保数据质量,例如通过使用可信的数据源。在使用数据用于模型训练存在争议的情况下,如涉及个人数据和版权材料等情形下,坚持透明和公正原则至关重要,并且应在实际业务中切实做到确保透明度和公平对待。
模型开发及在其上进行的应用程序部署是人工智能驱动创新的核心。尽管最终用户对其了解程度可能有限,但有关基本安全措施的透明度是非常关键的。产业界应在开发、评估和披露方面采用最佳实践,例如采取“食品标签”式的透明度管理方式。随着时间的推移,可以提高更广泛的意识和安全性。
即使有最强大的开发流程和保障措施,也不可能做到万无一失,软件开发和人工智能都是如此。事件报告是一种既定的做法,允许及时通知和采取补救措施。建立相应的结构和流程以实现事件监测和报告是关键。这也将支持人工智能系统的持续改进。
对于一个值得信赖的生态系统,第三方测试和保证起着补充的作用,金融和医疗保健等重要领域都是这样做的,以实现独立验证。尽管人工智能测试是一个新兴领域,但对于公司来说,采用第三方测试和保证来向最终用户证明信任是有价值的。围绕人工智能测试制定通用标准以确保质量和一致性也很重要。
生成型人工智能模型本身引入新的威胁,且超出了任何软件堆栈中固有的安全风险。虽然这是一个新兴的领域,但需要调整现有的信息安全框架,并开发新的测试工具来解决这些风险。
人工智能生成的内容很容易被创建,这可能会加剧虚假信息相关风险。各国政府正在寻求数字水印和加密来源等技术解决方案,这些技术需要在正确的背景下使用,需要内容生成位置和生成方式等方面的透明度,使最终用户能够以知情的方式使用在线内容。
当今最科学的模型安全技术也不能完全涵盖所有的风险。需要加快研发投资,以改善人工智能模型的意图,保证其与人类价值观的一致性。人工智能安全研发机构之间的全球合作对于有限资源的优化配置,以跟上商业驱动的模型能力的增长至关重要。
负责任的人工智能将支持引导人工智能走向为公共利益服务,如人工智能获取应民主化、改善公共部门人工智能的采用、提高员工的技能,以及人工智能系统的可持续开发等。
(来源:信通院互联网法律研究中心)
《中国安全信息》杂志倾力推荐
“企业成长计划”
点击下图 了解详情
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...