某科技公司因造成数据泄露 被网安部门罚款100万元
2023年6月16日,据报道2023年3月,浙江温州公安网安部门在查处一起涉数据安全违法案件时发现问题。浙江某科技有限公司为浙江某县级市政府部门开发运维信息管理系统的过程中,在未经建设单位同意的情况下,将建设单位采集的敏感业务数据擅自上传至租用的公有云服务器上,且未采取安全保护措施,造成了严重的数据泄露。
浙江温州公安机关根据《中华人民共和国数据安全法》第四十五条的规定,对公司及项目主管人员、直接责任人员分别作出罚款100万元、8万元、6万元的行政处罚。
针对建设单位失管失察、未履行数据安全保护职责的情况,当地纪委监委依照《温州市党委(党组)网络安全工作责任制实施细则》规定,对建设单位主要负责同志、部门负责人等4人分别作出批评教育、诫勉谈话和政务立案调查等追究问责决定。
下一步,公安机关将持续贯彻落实《网络安全法》《数据安全法》《关键信息基础设施安全保护条例》等法律法规,全方位加强网络安全监督检查,持续高压严打违法行为,指导监督网络运营者依法履行安全保护责任和义务,做好源头防控,减少违法犯罪发生,坚决维护国家网络安全和数据安全。
最新报告:25%员工向ChatGPT等AI工具上传敏感数据
一项新的研究发现,15%的员工经常在ChatGPT上上传公司数据,其中超过四分之一的数据被认为是敏感信息,这使公司在无形中面临安全漏洞的风险。6月的研究报告《揭示真正的GenAI数据暴露风险》分析了超过10000名员工,主要研究员工如何在工作场景下使用ChatGPT和其他生成性AI应用程序。该报告显示,至少有15%的员工在工作中使用ChatGPT和其他生成性人工智能工具,其中近25%的访问直接将公司数据粘贴在AI工具中。许多员工每周、甚至每天都在粘贴敏感数据。根据报告显示,员工平均每天向生成性人工智能工具输入数据36次,而且随着人工智能的普及,这些数字预计只会增加。
LayerX在这份长达10页的报告中说:用不了多久,员工将使用GenAI作为他们日常工作流程的一部分,就像他们使用电子邮件、聊天软件(Slack)、视频会议(Zoom、Teams)、项目管理和其他辅助工作的工具一样。从报告来看,尽管GenAI正在开辟一个全新的领域,但它也给企业带来了巨大的风险,特别是关于敏感数据的安全和隐私。更重要的是,被粘贴进GenAI工具的敏感信息的主要类别包括:内部业务数据占43%,源代码占31%,以及个人身份信息(即PII)占12%。这其中,源代码和内部业务数据被利用的风险是最高的。
研究报告说,由于GenAI平台在浏览器中运行,现有的安全解决方案无法解决敏感数据粘贴等风险。主要研究结果显示,4%的员工每周都会将敏感数据粘贴到GenAI中,增加了敏感数据外流的机会。这些数字还发现,50%与GenAI接触最多的员工来自研发部门,其次是销售和营销部门,超过23%,财务部门超过14%。研究发现,相当一部分GenAI用户不仅依赖提示指令,而且还会粘贴数据以尝试生成所需的文本。例如,一个销售经理使用GenAI来制作其季度的业绩报表及执行流程,就必须向GenAI工具提供实际的销售结果数据。这就把公司的敏感数据暴露在GenAI中,尽管这么做的原始目的可能是为了节省时间。
2023年1月,在其发布后不到两个月的时间里,ChatGPT迅速积累了超过1亿的活跃用户。而到4月,ChatGPT报告其活跃用户增长到每月高达8亿多用户。报告发现44%的员工在过去3个月中使用过GenAI API,其中一部分人每月访问AI网站和应用程序的次数超过50次。随着AI对生产力的大幅提高,这一现象在日后只会有增无减,届时如何保护公司内部数据不外流,将成为每个公司都要面临的问题。乘风破浪|华盟信安线下·web渗透夏令营暨网络安全就业班招生中!
重磅|2023华盟HW工程师招募
还没有评论,来说两句吧...