2023年12月22日下午,由国家信息中心《信息安全研究》杂志社主办的“2023网络安全创新发展大会·人工智能与安全治理分会”在北京顺利召开,来自部委、央企、大型企事业单位、网络安全企业的专家出席了本次会议,瑞莱智慧AI治理研究院院长张伟强主持了会议。
上海人工智能实验室产业合作和知识产权部负责人王宇以“构建高质量的大模型数据生态”为题发表了主题演讲。她介绍了生成式人工智能发展的新趋势,正在形成以数据为中心的人工智能(Data-centric AI),中文语料对于大模型能力至关重要。当前AI数据集建设成本高,数据流通体系不成熟,大模型训练语料小规模重复建设的现象,需要建立开放共享机制,制定标准规范等。针对现状,7月初,实验室联合央视、人民网、国家气象中心等10家单位联合发起成立了“大模型语料数据联盟”,并于8月首先开源了发布“书生·万卷” 1.0多模态预训练语料,总量超过2TB,联盟旨在面向AI构建可持续发展的语料数据生态,为AI赋能千行万业搭建桥梁。王宇 上海人工智能实验室产业合作和知识产权部负责人腾讯研究院秘书长张钦坤分享了对AI大模型发展的预见性思路。大模型将在“智能数据化、数据智能化”时代,再造知识生产力,进而将影响生产关系。大模型发展面临的问题包括内外两个方面,复杂推理能力不足、响应延迟、成本高昂等痛点;网络安全风险、人机伦理冲击、就业替代、社会结构冲击等潜在风险。要采用跨学科的方法,需要技术、治理、法律、伦理和社会视角的多方统筹协作。中国科学院信息工程研究所研究员陈恺发表了题为“大模型安全: 机遇与挑战”的主题演讲,他以“智能化”漏洞检测为切入点,介绍了大模型赋能安全攻防的热点,包括漏洞的发现、验证、利用。他还分析了大模型自身存在的典型安全问题,并依次分析了大模型的幻觉、错误与修复大模型的解释与理解、模型版权等问题。绿盟科技天枢实验室负责人顾杜娟从OpenAI ChatGPT所面临安全挑战与应对策略出发,围绕大模型的模型、应用、数据、生成内容和黑客工具五个方面展开分析大模型安全风险,以及在大模型安全实践中的一些思考和经验总结,探讨如何为大模型的安全发展保驾护航,推动大模型的可持续发展。星纪魅族集团数据合规执行总监朱玲凤介绍了人工智能中的责任原则。在人工智能风险识别、风险治理、责任分担不够明晰的当前,责任原则可能是解决目前问题的最佳选择。我们可以通过良好的风险治理框架(定义-识别-处置-治理)来识别和处置当前人工智能可能带来的风险,包括对地球和人类福祉、公平性、隐私保护、安全保障、内容安全等。更期待随着技术发展,治理水平愈加提高,可以发挥责任原则在治理规则更加明晰、责任分担更可预期时的价值和作用。复旦大学生命科学学院全球校友会成果转化促进中心特聘研究员王瑞华分享了中医AI健康预警系统的验证成果和有效运用。传统中医望闻问切与科技结合的AI运用,无创、安全、便捷,经大量运用验证,正确率高,从多维度提示健康状况,是目前人工智能做健康预检预警的有效途径。他介绍了中医AI产品亮点,中医AI是人工智能高科技预警的国际领跑者 ,集人脸扫描、人体穴位感应、微智能模块、移动互联网及大数据分析于一体,并能同步体现文字健康分析报告、中医经络图示报告、人体功能细胞图像报告,又带有健康调理功能的预警技术。本论坛会议内容新颖,既有AI大模型的技术探讨,又有法律、管理等方向的思辨,更有创新性应用实践,得到了参会嘉宾的一致认可。
还没有评论,来说两句吧...