《AI・安全》栏目文章
左手AI,右手安全
本文3321字,阅读时长约12分钟
创新不是闭门造车,而是要在“共识”的基础上,创造出一个“非共识”,然后把这个非共识融入到整个行业的“共识洪流”之中。
锐安全手搓的《安全建设参考架构体系全景图》,就是业界安全思考的最大共识,它不是一个人的智慧,而是全世界数百万人努力了30年的集体智慧结晶。
AI时代,锐安全最大的变化,就是在手搓的《安全建设参考架构体系全景图》里,增加了一个“AI安全架构”的绿色分类。
图:安全建设参考架构体系全景图5.1
5.0版本提出了三大分类,11大框架。
图:5.0版本的AI安全11大框架
具体内容参见《》和《》。
这次的5.1版本,我把它扩充为4大分类、20个框架,过节了,咱们一次管够!
5.1版本的AI安全20大框架
这四大分类是:
AI对抗威胁框架(AI Adversarial Threat Framework)
AI伦理框架(AI Ethics Framework)
AI治理框架(AI Governance Framework)
AI安全实践框架(AI Security Practice Framework)
AI对抗威胁框架是“攻”,是“AI安全之矛”,其它三个部分是“守”的三个不同层面,是“AI安全之盾”。
从这个配置上你也能看出来安全这件事儿“攻易守难”,极其难搞。
但是,为什么要增加一个分类呢?
这话题就要回到安全G20闭门会上(参见文章《》)说。
上周,在绿盟组织的安全G20闭门会上,我提出了一个AI安全概念全景图的1.0版。
图:AI安全概念全景图1.0
它在我们对“AI安全”理解的两个维度的基础上:AI赋能安全(AI for Security)、AI自身安全(Security for AI),又扩充了“AI安全可信(AI Safety)”。
这个安全可信,其实就是伦理维度,这是“AI设计方”的参考原则,所以“AI使用方”往往会忽略它。
这几天我又参考了业内的一些理论成果,把这个概念全景图升级到了2.0版本。
图:AI安全概念全景图2.0
图上左边的“AI驱动安全”是安全厂商的责任;图上右边的“AI内生安全”是AI厂商的责任,但都是客户的责任。
或者说,作为甲方客户的专家朋友,左边是要帮助客户“做到”,右边是要帮助客户“想到”,二者缺一不可。
下面就把全景图里没讲的AI安全9个框架这次一并送给你,给你一个更完整的AI安全架构拼图。
接下来的内容属于“AI伦理框架”。
图:AI伦理框架(AI Ethics Framework)
经合组织AI原则是第一个关于AI的政府间标准。
他们促进尊重人权和民主价值观的创新、值得信赖的 AI。
它们于2019 年通过并于2024 年更新,由五项基于价值观的原则和五项建议组成,为政策制定者和AI行为者提供实用和灵活的指导。
图:经济合作与发展组织(OECD) AI原则
目前已被70+国家地区采用,截至2023年,全球已有超1000项AI政策参照这套标准(比如欧盟的AI法案)。
联合国教科文组织(UNESCO)在2021年提出了首个普适性AI伦理框架。
图:联合国教科文组织(UNESCO) AI伦理建议书
该伦理框架成为多国AI政策的参考,推动全球技术负责任地应用。
世界经济论坛的(WEF)的AI工具包旨在为企业、政府及社会组织提供负责任AI部署的框架,帮助解决技术应用中的伦理、安全和社会影响问题。
其核心理念是“技术赋能与风险控制并行”,尤其在规模化AI应用场景中强调包容性与可持续性。
图:世界经济论坛(WEF) AI工具包
这里面有一个AI风险框架,把AI风险分为应用级和商用国家级两级的六大类风险。
这里还提供了一个“AI集成的数字孪生平台框架”。
图:AI集成的数字孪生平台框架
该框架可以作为IOT环境下,AI能力建设的指导框架。
图:电气与电子工程师学会(IEEE) AI伦理准则
电气与电子工程师学会(IEEE)为AI伦理研究提供了系统性框架,助力学者快速把握领域全貌,并为开发者、政策制定者提供实践指导,推动可信AI的落地。
其跨学科视角与创新分类方法有望成为后续研究的基准参考。
该准则系统梳理了AI技术带来的个体、社会及环境层面的伦理挑战,如隐私泄露、算法偏见、失业风险、环境影响等。
该准则分析了全球146份AI伦理指南,提炼出11项核心原则(如透明度、公平性、无害性等),并指出不同组织间的共识与差异。
该准则提出将AI伦理问题分为个体、社会、环境三个层面,覆盖全面且层次清晰,弥补了传统分类的不足。
接下来的内容属于“AI治理框架”。
图:AI治理框架(AI Governance Framework)
图:国际标准化组织 ISO/IEC 23894 AI风险管理
该标准为开发、生产、部署或使用人工智能(AI)技术产品、系统及服务的各类组织,提供针对AI特性的风险管理专项指引。
其核心价值在于帮助机构将风险管理深度融入人工智能全生命周期活动,系统构建涵盖风险识别、评估、应对及持续优化的动态治理体系。
尤为重要的是,本框架可根据各组织的具体需求和实际情境进行灵活调整,实现"量体裁衣"式的风险管理实践。
图:云安全联盟(CSA)AI MRM模型风险管理框架
该框架由云安全联盟大中华区发布,旨在为组织提供系统化的AI模型风险管理方法,确保AI技术的安全、可信和负责任应用。
该框架围绕四大核心工具(模型卡片、数据手册、风险卡片、场景规划)构建,通过透明性、主动风险评估和持续改进,帮助组织平衡AI创新与风险控制。
整个模型风险管理过程包括:治理、模型开发标准、模型部署与使用、模型风险评估等几个重要阶段。
接下来的内容属于“AI安全实践框架”。
图:AI安全实践框架(AI Security Practice Framework)
FAIR Institute(Factor Analysis of Information Risk Institute,信息风险因子分析研究院)成立于2015年,是一个专注于推广和标准化信息风险量化方法的非营利性组织。
其核心使命是帮助企业和组织以科学、数据驱动的方式评估和管理信息安全、运营及网络安全风险。
FAIR(Factor Analysis of Information Risk)是首个国际公认的信息风险量化分析模型,它于2023年推出了一个AI风险方法手册(A FAIR Artificial Intelligence (AI) Cyber Risk Playbook)。
图:FAIR研究院 AIR方法手册
它把AI风险分析分为五步:Contextualize(明确风险场景)、Scope(划定范围)、Quantify(财务量化)、Prioritize/Treat(优先级排序与处置)、Decision Making(决策执行)。
并针对生成式AI的独特风险场景,提出5类风险向量:
Shadow GenAI(未经管控的员工AI使用)
Foundational LLM(自研大模型的安全控制缺失)
Hosting on LLMs(自托管模型的管理缺陷)
Managed LLMs(第三方LLM的数据泄露风险)
Active Cyber Attack(对手利用AI发起的攻击)
世界数字技术学院 (WDTA),是一家于2023年4月在瑞士日内瓦成立的新国际组织,致力于成为全球数字技术创新的领导者。
作为在联合国框架下运作的非政府组织(NGO),WDTA坚持“速度、安全、共享”(3S)的核心原则。
WDTA的使命是加快数字领域规范和标准的建立,引领数字技术的创新和研究,促进国际合作,并保持在技术进步的最前沿。
世界数字技术学院(WDTA)于2024年推出了AI STR的认证框架。
图:世界数字技术学院(WDTA)AI STR认证框架
即安全(Safety)、可信(Trust)、负责任(Responsibility)。
并发布了三份测试标准:
图:三份测试标准
大语言模型供应链安全要求(Large Language Model Security Requirements for Supply Chain)
大语言模型安全测试方法(Large Language Model Security Testing Method)
生成式AI应用安全测试与验证标准(Generative AI Application Security Testing and Validation Standard)
NIST于2025年3月24日正式发布《NIST AI 100-2e2025 对抗性机器学习:攻击和缓解的分类和术语》报告。
该报告是是NIST 《AI风险管理框架(NIST AI RMF)》的一个实践框架,同时也是目前全球最新的AI安全实践思路。
该报告创新之处在于:它把AI分成了预测式AI(Predictive AI,PredAI)和生成式AI(Generative AI,GenAI)两部分,同时安全也围绕着这两部分展开。
图:预测式AI攻击分类
提出了生成式AI的学习阶段(GenAI Stages of Learning)。
图:学习阶段
提出了大语言模型(LLM)企业采用参考架构。
图:大语言模型(LLM)企业采用参考架构
该指南通过系统性分类、深度技术解析与真实案例结合,为对抗性机器学习研究与实践提供了权威指南,同时揭示当前防御的局限性,推动未来研究方向。
该指南覆盖医疗、金融、自动驾驶等高危场景,并提供可落地的安全建议。
看完这20个AI安全框架,你就对“AI安全”这个未知事物解剖了20次,AI安全在你的脑子里至少已经不是一个朦胧的事物了。
如果大模型是“缸中大脑”,过去的网络安全,都是在保护“缸”上做文章,那么未来的AI安全,还要在保护“大脑”上做文章,难度更大,攻防更加不对称。
所以,安全建设更需要体系化思考、体系化设计与体系化运行,才能在AI时代守住安全底线。
另外,这么多框架,不要担心学不会,也不一定非要学会,但是你得知道,你得熟悉各种词汇。
当这些词汇在你这里变得不再陌生,并且脱口而出的时候,其实你对它们的理解,也就自然上升到了一个新的层次上。
AI时代,咱们先拥有表达权!
本文插图来自《AI内生安全-AI与安全的相互影响与重构V0.6.PPTX》,如果对本文引用的原始资料或原始PPT感兴趣,以及过去和未来所有的原始资料和原始PPT感兴趣,诚邀你加入星球进行下载和深度学习,在AI时代更懂安全:
恭喜你,又看完了一篇文章。从今天起,和我一起洞察安全与AI本质!这里是锐安全,今天就到这里,咱们下次再见! |
相见即有缘,也许我看到的方向,是你想去的地方
“你扫我,还是我扫你”
如果对我描述的安全世界感兴趣,可以翻翻我为你写的一本书,悄悄超过99%的人:
点击文末【阅读原文】,看到一个完整的安全系统
end
如果你对本文有任何建议,
欢迎联系我改进;
如果本文对你有任何帮助,
欢迎分享、点赞和在看
参考资料:
[1]https://oecd.ai/en/ai-principles
[2]https://www.oecd.org/en/topics/ai-principles.html
[3]https://www.unesco.org/en/articles/recommendation-ethics-artificial-intelligence
[4]https://www.weforum.org/publications/empowering-ai-leadership-ai-c-suite-toolkit/
[5]https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=9844014
[6]https://doi.org/10.6028/NIST.AI.100-1
[7]https://www.nist.gov/news-events/events/2023/01/nist-ai-risk-management-framework-ai-rmf-10-launch
[8]https://www.iso.org/standard/77304.html
[9]https://www.antpedia.com/standard/2070807605-1.html#:~:text=%E6%9C%AC%E6%96%87%E4%BB%B6%E4%B8%BA%E5%BC%80%E5%8F%91%E3%80%81%E7%94%9F%E4%BA%A7%E3%80%81%E9%83%A8%E7%BD%B2%E6%88%96%E4%BD%BF%E7%94%A8%E5%88%A9%E7%94%A8%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD%20%28AI%29%20%E7%9A%84%E4%BA%A7%E5%93%81%E3%80%81%E7%B3%BB%E7%BB%9F%E5%92%8C%E6%9C%8D%E5%8A%A1%E7%9A%84%E7%BB%84%E7%BB%87%E5%A6%82%E4%BD%95%E7%AE%A1%E7%90%86%E4%B8%8E%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD%E7%9B%B8%E5%85%B3%E7%9A%84%E9%A3%8E%E9%99%A9%E6%8F%90%E4%BE%9B%E4%BA%86%E6%8C%87%E5%AF%BC%E3%80%82,%E8%AF%A5%E6%8C%87%E5%8D%97%E8%BF%98%E6%97%A8%E5%9C%A8%E5%B8%AE%E5%8A%A9%E7%BB%84%E7%BB%87%E5%B0%86%E9%A3%8E%E9%99%A9%E7%AE%A1%E7%90%86%E6%95%B4%E5%90%88%E5%88%B0%E5%85%B6%E4%B8%8E%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD%E7%9B%B8%E5%85%B3%E7%9A%84%E6%B4%BB%E5%8A%A8%E5%92%8C%E5%8A%9F%E8%83%BD%E4%B8%AD%E3%80%82%20%E6%AD%A4%E5%A4%96%EF%BC%8C%E5%AE%83%E8%BF%98%E6%8F%8F%E8%BF%B0%E4%BA%86%E6%9C%89%E6%95%88%E5%AE%9E%E6%96%BD%E5%92%8C%E6%95%B4%E5%90%88%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD%E9%A3%8E%E9%99%A9%E7%AE%A1%E7%90%86%E7%9A%84%E8%BF%87%E7%A8%8B%E3%80%82%20%E6%9C%AC%E6%8C%87%E5%8D%97%E7%9A%84%E5%BA%94%E7%94%A8%E5%8F%AF%E4%BB%A5%E6%A0%B9%E6%8D%AE%E4%BB%BB%E4%BD%95%E7%BB%84%E7%BB%87%E5%8F%8A%E5%85%B6%E7%8E%AF%E5%A2%83%E8%BF%9B%E8%A1%8C%E5%AE%9A%E5%88%B6%E3%80%82
[10]https://www.cesi.cn/cesi/202408/10370.html
[11]https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence
[12]EU AI Act.https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:32024R1689
[13]EU AI Act.https://www.artificial-intelligence-act.com/
[14]https://www.cac.gov.cn/rootimages/uploadimg/1727568303900999/1727568303900999.pdf
[15]https://www.c-csa.cn/research/results-detail/i-2009/
[16]Responsible AI.https://www.gartner.com/en/information-technology/glossary/responsible-ai
[17]https://saif.google/
[18]The Framework for AI Cybersecurity Practices (FAICP), from ENISA.https://www.faicp-framework.com/
[19]https://www.anthropic.com/news/anthropics-responsible-scaling-policy
[20]https://www.fairinstitute.org/ai-risk
[21]https://genairisk.ai/
[22]https://wdtacademy.org/publications/GenerativeAiApplicationSecurityTestingAndValidationStandard Generative AI Application Security Testing and Validation Standard
[23]https://wdtacademy.org/publications/LargeLanguageModelSecurityTestingMethod
[24]https://genai.owasp.org/
[25]https://genai.owasp.org/2025/03/26/project-owasp-promotes-genai-security-project-to-flagship-status/
[26]NIST AI RMF AI风险管理框架.https://doi.org/10.6028/NIST.AI.100-1
[27]NIST Trustworthy and Responsible AI NIST AI 100-2e2025
[28]Adversarial Machine Learning.https://nvlpubs.nist.gov/nistpubs/ai/NIST.AI.100-2e2025.pdf
[29]NIST Trustworthy and Responsible AI Report Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations,2025-03-24.https://csrc.nist.gov/pubs/ai/100/2/e2025/final
[30]美国NIST发布保护AI系统免受对抗性攻击最新指南,2025-03-28.https://www.secrss.com/articles/77117
题图:晓兵
题图创作者:晓兵与AI小助手
算法提供:晓兵
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...