我们的开发、产品、研究、专利和专家团队都用于 AI。
近二十年来,卡巴斯基一直走在将人工智能 (AI),尤其是机器学习 (ML) 集成到其产品和服务中的最前沿。我们在将这些技术应用于网络安全方面的深厚专业知识和经验,加上我们独特的数据集、高效的方法和先进的模型训练基础设施,构成了我们解决复杂 ML 挑战的方法的基石。我们的卡巴斯基 AI 技术研究中心汇集了数据科学家、ML 工程师、威胁专家和基础设施专家,以处理 AI/ML 和网络安全交叉领域最具挑战性的任务。这不仅包括应用技术的开发,还包括对 AI 算法安全性的研究,包括使用有前途的方法,例如神经形态 ML、AI 风险意识等等。
我们的技术和产品
在卡巴斯基,我们开发了一系列由 AI/ML 提供支持的威胁检测技术,主要用于识别恶意软件。其中包括用于基于静态特征检测恶意可执行文件的深度神经网络算法、用于自动创建适用于用户设备的检测规则的决策树 ML 技术,以及用于检测程序执行期间恶意行为的神经网络。我们还利用一个系统,根据从安装在客户设备和其他来源的解决方案接收到的匿名遥测数据来识别恶意在线资源。您可以在我们的白皮书 Machine Learning for Malware Detection 中阅读更多相关信息。其他模型(例如用于检测虚假网站的 ML 模型和用于隔离可疑垃圾邮件的 DeepQuarantine)可以保护用户免受网络钓鱼和垃圾邮件威胁。KSN 的云基础设施使我们的 AI 开发几乎可以立即提供给家庭和企业用户。
在生成式 AI,尤其是大型语言模型 (LLM) 的承诺的指导下,我们构建了一个基础设施来探索其功能并快速构建新解决方案的原型。该基础设施部署了类似于 ChatGPT 的 LLM 工具,不仅可供所有部门的员工用于日常任务,还可以作为新解决方案的基础。例如,我们的卡巴斯基威胁情报门户很快将推出基于 LLM 的全新 OSINT 功能,该功能将快速提供特定 IoC 的威胁报告摘要。
为了增强客户基础设施的安全性,我们正在积极开发针对我们的旗舰企业产品和服务量身定制的 AI 技术。几年来,卡巴斯基托管检测和响应中的 AI 分析师一直在通过自动过滤误报来帮助减少 SOC 团队的工作量。仅去年一年,这项技术就在没有人为干预的情况下关闭了超过 100,000 个警报。这使 SOC 专家能够更快地响应实际威胁,并将更多时间用于调查复杂案例和主动搜寻威胁。我们的另一个解决方案——卡巴斯基 SIEM(卡巴斯基统一监控和分析平台)和卡巴斯基 XDR 中基于 AI 的主机风险评分——使用 ML 算法搜索可疑的主机行为,而无需将数据传输到公司外部。
卡巴斯基开发的另一个关键领域是在工业环境中使用 AI/ML。这包括卡巴斯基 MLAD(用于异常检测的机器学习)——一种预测分析软件解决方案,可自动识别遥测信号中即将发生的设备故障、流程中断、人为错误或网络攻击的早期(隐藏)迹象。通过不断训练神经网络,MLAD 分析来自对象的“原子”事件流,将它们构建成模式并识别异常行为。我们的另一个项目是卡巴斯基神经形态平台 (KNP),这是一个基于脉冲神经网络和 AltAI 的人工智能解决方案的研究项目和软件平台,AltAI 是由总部位于俄罗斯的 Motive Neuromorphic Technologies (Motive NT) 与卡巴斯基合作开发的节能神经形态处理器。
AI 技术的广泛采用需要安全控制,因此我们还成立了 AI 安全团队。它提供一系列服务,旨在确保对 AI 系统进行可靠保护,并挫败对数据、业务流程和 AI 基础设施的潜在威胁。
我们的员工
过去,基于 ML 的任务由直接参与检测特定威胁的部门执行。然而,随着任务数量的增加和 ML 技术的重要性日益增加,我们决定将我们在基于 AI 的系统方面的专业知识转移到一个单独的专业知识中心:卡巴斯基 AI 技术研究。这导致创建了三个主要团队来推动卡巴斯基 AI 的使用:
1. 检测方法分析小组与全球研究与分析团队 (GReAT) 和威胁研究中心合作开发用于恶意软件检测的 ML 算法。他们用于静态和基于行为的恶意软件检测的 AI 系统直接有助于我们用户的安全。
2. 技术研究,隶属于未来技术部,专长为:研究有前途的人工智能技术;开发卡巴斯基 MLAD 和 KNP;与 Motive NT 合作开发下一代 AltAI 神经形态处理器;以及为 AI 安全提供 AIST 服务。
3. MLTech 团队负责开发企业 ML 基础设施,用于训练 ML 模型,创建内容威胁检测模型(网络钓鱼和垃圾邮件),并将 AI 技术(包括基于 LLM)实施到我们的高级企业服务和解决方案中,例如 MDR、卡巴斯基 SIEM(统一监控和分析平台)和卡巴斯基 XDR。
这并不意味着我们的 AI 专业知识仅限于上述团队。人工智能领域目前是如此复杂和多面,以至于不可能将所有专业知识集中在几个研究小组中。其他团队也为专业知识中心的工作做出了重大贡献,并将 ML 应用于许多任务:Antidrone 团队的机器视觉技术;对 CoreTech 和 KasperskyOS 部门的 AI 编码助手进行研究;GReAT 中的 APT 搜索;以及政府关系团队的人工智能立法研究。
我们的研究和专利
我们在全球范围内获得的数十项专利凸显了我们 AI 技术的独特性。首先,这些是检测技术的专利,例如基于程序行为日志的恶意软件检测、遥测中的恶意服务器检测、虚假网站以及借助 ML 的垃圾邮件。但卡巴斯基产品组合涵盖的任务范围要广泛得多:用于改进 ML 数据集、异常检测,甚至在家长控制系统中搜索儿童可疑联系人的技术。当然,我们正在积极为工业系统的 AI 技术和处理事件流的独特神经网络方法申请专利。
此外,卡巴斯基还积极与社区分享其 AI 专业知识。一些研究(例如关于单调 ML 算法或神经网络在垃圾邮件检测中的应用的研究)在领先的 ML 会议上作为学术论文发表。其他 API 发布在专门的门户网站和信息安全会议上。例如,我们发布了关于我们自己的 AI 算法安全性的研究,特别是对垃圾邮件检测和恶意软件检测算法的攻击。我们研究了神经网络在时间序列分析中的应用,并探索了神经形态网络在行业相关任务中的应用。我们的卡巴斯基神经形态平台 (KNP) 是一款开源软件,可供整个 ML 社区使用和开发。
安全 AI 开发和应用的主题对我们来说至关重要,因为我们需要能够信任我们的算法并对其可靠性充满信心。我们涵盖的其他主题包括我们参与模拟对 ML 系统攻击的网络安全挑战,以及使用 LLM 等先进技术来检测系统日志和网络钓鱼链接中的威胁。我们还讨论了对生成式 AI 的威胁,包括从隐私角度、对各种基于 LLM 的系统的攻击、攻击者对 AI 的使用以及我们的技术在 SOC 中的应用。有时,我们会打开门,揭示我们的内部运作方式,谈论训练模型的过程,甚至评估其质量的复杂性。
提高认识
最后,卡巴斯基 AI 技术研究中心最重要的功能是提高我们的客户和公众对 AI 技术的优缺点及其构成的威胁的认识。我们专业知识中心的专家演示了深度伪造视频的危险。我们谈论 AI 使用的细节(例如,ChatGPT 如何影响招聘开发人员的过程),并通过网络研讨会和圆桌讨论分享我们的经验。
FT Technology Research 团队组织了关于神经形态技术的会议,并设有专门讨论 AI 安全问题的单独轨道,包括基于神经形态方法的系统。我们与合作伙伴俄罗斯科学院系统编程研究所 (ISP RAS) 一起,正在研究计算机视觉、LLM 和时间序列领域神经网络上的各种攻击媒介,以及保护它们的方法。作为卡巴斯基与 ISP RAS 的工业合作伙伴关系的一部分,该团队正在测试可信 ML 框架的样本。
我们还参与了教育课程的开发,包括鲍曼莫斯科国立技术大学关于人工智能在网络安全中的应用模块。另一个例子是我们关于在 Kaspersky ASAP 中安全使用 AI 的模块,这是我们提高员工网络威胁意识的解决方案。最后,我们正在为制定一套 AI 使用的国际标准做出贡献。2023 年,我们在互联网治理论坛上提出了在网络安全中合乎道德地使用 AI 系统的首要原则。
综上所述,卡巴斯基人工智能技术研究中心的主要任务是人工智能技术的发展、它们在网络安全中的安全应用、对不当或恶意人工智能使用的威胁监控以及预测趋势。所有这些任务都只有一个目的:确保为我们的客户提供最高级别的安全性。
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...