近日,ISC.AI 2024“寻找明星场景·赋能垂直领域”安全大模型联合峰会在北京圆满召开。本次联合峰会由中国计算机学会计算机安全专委会主办,中国计算机学会计算机安全专委会技术工作组、360数字安全集团、ISC互联网安全大会组委会承办,特别邀请知名技术专家、行业领袖、企业代表,共话安全大模型的发展之道,力求促进政产学研用协同创新,凝聚和扩大生态共识,为构建更加安全、可靠的数字化世界奠定坚实基础。
ISC.AI 2024
大会致辞环节中,公安部第一研究所所领导、中国计算机学会计算机安全专业委员会常务副主任于锐指出,安全行业是大模型应用的重要场景,安全大模型需要融合多元化的知识来源,不断更新和丰富训练数据,重视和强化安全大模型的评测优化,持续提升安全大模型的效能和可靠性;同时,数据标注、模型训练,微调和评测,推理部署,技术服务都需要投入大量的专业技术人员,急需加强对人工智能、大模型与数据安全跨学科综合性人才的培养。
360集团创始人、中国计算机学会计算机安全专委会副主任周鸿袆在致辞中指出,要让大模型在中国得到真正的发展,就要让它走下神坛,从原子弹变成茶叶蛋。网络安全是现代化进程中不可或缺的一部分。借助安全领域产业和场景优势,发展垂直化、小型化、低成本的安全大模型,有助于我们走出一条具有中国特色的大模型发展之路。
主题演讲环节中,中国工程院院士沈昌祥就《用安全可信网络产品筑牢人工智能安全底座》进行了分享。他指出,针对AI和大模型的发展,必须提升产业韧性和工作水平,确保安全可靠。在大模型对生产力实现全面渗透的今天,要用主动免疫可信计算筑牢人工智能安全防线,大模型及生成式AI必须首先确保安全。
中国科学院信息工程研究所正高级工程师、博导刘玉岭在《大模型驱动安全威胁感知:进展与趋势》的主题分享中提到,随着大模型的兴起,在高度对抗的网络安全攻防中如何用好大模型这一利器成为了各界关注的焦点。刘玉岭教授从大模型的发展现状,大模型驱动的威胁情报整编、复杂程序分析、安全威胁发现、安全风险管控等角度阐述当前的进展,提出大模型赋能网安的新范式。
国防科技大学计算机学院副研究员喻波在《大语言模型引导的网络协议模糊测试:进展与问题》的主题分享中,详细说明了近几年基于大模型进行模糊测试的进展,指出传统网络协议存在初始种子选择依赖性强、非文本类协议数据学习困难、协议实现自动迁移适配问题等挑战。
北京邮电大学网络空间安全学院教授、博导李祺在《基于大语言模型的威胁情报自动化抽取及APT攻击检测系统》的分享中表示,大语言模型以其强大的数据处理和分析能力,能够在威胁情报分析、APT攻击检测以及攻击组织溯源方面提供强有力的支持。
业界有大量大模型基础能力的评测指标和方法,但基于安全大模型,开发各类安全场景时,这些基础指标过于底层,不足以指导研发前的技术决策,和研发中的质量管控。360数字安全集团本地安全大脑主架构师万晓川在《安全大模型产品的持续评测》的主题分享中,基于本地安全大脑集成360安全大模型的研发经验,总结了如何设计场景指标,如何持续以场景指标评测,有序推进场景研发,实现场景价值。
LLMs在如靶场等安全系统中的应用能极大地简化因操作复杂、数据量大带来的问题,作为安全copliot实现提质增效。但在实际工作中,因LLMs本身的幻觉问题、数据质量问题、Prompt Injection等因素,会导致生成式内容难以有效匹配工作业务语境,不能实现in-context的安全工作流。对此,南京赛宁信息技术有限公司技术方案总监杨劲松作出《LLMs可控文本生成在赛宁AI靶场中的实践》主题演讲。
此外,北京金睛云华科技有限公司联合创始人、副总裁胡文友先生,在《【CyberGPT】赋能威胁检测&安全运营》的分享环节中,对网络安全行业面临的问题与挑战、AI驱动的扩展威胁检测&响应(XDR)解决方案、安全小模型技术&典型应用场景、安全大模型技术&典型应用场景等方面进行详细介绍。
伴随数字经济的快速发展,大模型技术作为全球科技竞争的新高地、未来产业的新赛道、经济发展的新引擎,不断演进催生新质生产力的生成。此次ISC.AI 2024“寻找明星场景·赋能垂直领域”安全大模型联合峰会的成功举办,行之有效地搭建了“政、产、学、研、用”互通互联的平台,源源不断地向全行业输出安全大模型建设和运营的前瞻观点,以应对AI时代下的新挑战。
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...