第三方风险管理公司UpGuard的网络安全研究团队近期揭示了一个围绕暴露的Ollama API的重大安全漏洞。这些API为外部用户提供了对正在运行的AI模型的直接访问权限,不仅严重威胁到了模型所有者的数据安全,同时也为衡量特定AI模型(例如DeepSeek)的普及程度和地理分布情况提供了一个前所未有的视角。
Ollama作为一个前沿的人工智能模型框架,通过其用户友好的界面,极大地简化了用户与各类模型的交互过程。UpGuard在与Hackread.com的独家分享中透露,他们的研究发现,这些API可能已暴露在公共互联网上,使得未经授权的用户能够轻松地推送、拉取甚至删除模型数据,从而引发一系列严重的安全风险。此外,未经身份验证的用户还可能通过发送大量请求来轰炸模型,给云计算资源所有者带来额外的成本压力。
更令人担忧的是,已经有证据表明这些漏洞已经被恶意利用,目标IP地址甚至被篡改。研究人员警告称,Ollama API有可能被业余爱好者在家庭或小型企业互联网连接以及大学网络上轻易使用,这些系统往往缺乏足够的安全防护措施,极易被黑客利用并纳入僵尸网络,为未来的网络攻击埋下伏笔。
UpGuard向Hackread.com提供的屏幕截图显示了一个Ollama实例,其中模型似乎已被删除
UpGuard还对DeepSeek模型在公开的Ollama API上的运行情况进行了深入分析。他们发现,14b和7b参数规模的模型(分别代表140亿和70亿参数的模型)在DeepSeek模型中最为常见,这表明大多数用户更倾向于选择这些性能适中的中档模型。
此外,根据UpGuard的统计数据,目前已有大约7000个IP地址暴露了Ollama API,与Laava在2024年11月的调查结果相比,这一数字在短短几个月内增长了70%以上。在这些暴露的IP地址中,有700个正在运行某种版本的DeepSeek模型,其中334个正在使用deepseek-v2系列模型,而434个则正在运行较新的deepseek-r1模型。
从地理位置分布来看,运行DeepSeek模型的IP地址最集中地位于中国(占比24.4%,共171个IP地址),其次是美国(占比20%,共140个IP地址)和德国(90个IP地址)。通过互联网服务提供商(ISP)的分析,研究人员还发现,DeepSeek模型在美国的分布呈现出高度的多样性,涵盖了从谷歌有限责任公司和AT&T企业有限责任公司等大型实体到较小的提供商和大学等不同类型的机构。
值得注意的是,DeepSeek模型一直受到包括美国海军、德克萨斯州政府、美国国家航空航天局以及意大利等实体的严格限制,主要是出于对数据可能泄露给中国政府的担忧。然而,UpGuard的研究人员指出,尽管这些担忧在开源模型的背景下可能并不完全适用,但大多数用户往往缺乏足够的专业知识和技术能力来仔细检查代码并识别模型本身可能存在的潜在风险。
为了防止人工智能数据泄露事件的发生,我们必须对暴露的Ollama API的攻击面进行全面的审计和评估,并深入了解哪些模型或人工智能产品在第三方风险管理中扮演着至关重要的角色。只有这样,我们才能有效地应对日益严峻的人工智能安全风险挑战。
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...