请勿利用文章内的相关技术从事非法测试,由于传播、利用此文所提供的信息而造成的任何直接或者间接的后果及损失,均由使用者本人负责,作者不为此承担任何责任。做一个遵纪守法的好白帽黑客!
这两天真是多事之“秋”,每天都有网络安全新闻,今天又又又看到如下事件:
根据网上各种营销号来看,简单来说就是今年6月,字节跳动的一名博士实习生因对团队资源分配不满,使用攻击代码干扰公司商业化技术团队的模型训练任务,导致训练结果不稳定,部分业务进展受到影响。传闻称该实习生利用了HF(Hugging Face)的漏洞,在共享模型中植入破坏代码,声称损失超千万美元,并影响8000多张卡的训练。
不知大家怎么看这则新闻,我第一感觉它有点“假新闻”的味道。以字节跳动的规模来看,代码提交和下发到模型训练任务中,应该会经过严格的安全审计流程,不太可能直接影响到训练任务和模型,更不可能造成如此大的破坏。此外,如果真有问题出现,公司也应该有相应的回滚措施,而不是任由灾难发生、造成巨额损失。而且这个“损失千万美元”的说法,来源不明,估计方式也很值得怀疑。果然不出意料,下午字节跳动的官方今日头条账号发表了以下声明,果然早上是假新闻哈哈:
根据网上各种营销号咱们还是不知道到底攻击成功了没,但是对字节造成了“千万美元”损失的攻击应该是假的。
但是,如果我们要攻击ai模型,而且我们正好是实习生的情况下从技术角度我们应该如何攻击呢。我做了以下总结。
开始攻击!
这类“实习生捣乱”事件,一般会用一些暗搓搓的手段来搞破坏,常见的套路包括:
搞小动作:恶意代码埋雷
代码埋雷:趁着改代码的机会,偷偷塞进一些“炸弹代码”,让模型在特定时候炸锅。比如,植入让模型训练突然中断的指令,或是改动数据处理方式,让模型学到一堆乱七八糟的东西。
数据动手脚:直接把训练数据“加料”,比如偷偷改标签或加噪声数据,让模型根本学不会,结果上线后各种翻车。
2. 疯狂占资源:搞GPU内卷
GPU乱占用:写一些用很大内存、超长计算时间的训练代码,疯狂“霸占”GPU/TPU,让别人的任务没法跑,拖慢整个训练进程,搞得大家怨声载道。
分布式捣乱:如果训练是分布式的,就在其中某个节点上整点幺蛾子,比如加入死循环,搞得整个训练系统卡住,一起陪跑。
3. 手动按下暂停键
中途拔网线:直接在服务器上把训练任务给停了,或者干脆重启机器,让训练进度全掉水里。
偷偷调配置:在配置文件里做小改动,比如把学习率调得离谱,或改模型结构,让模型训练效果变得乱七八糟,一看就是在恶心人。
4. 偷偷加毒:数据投毒
暗度陈仓:在训练数据里夹带私货,比如加入一些带有误导性的样本,让模型被带偏,结果上线后表现像“智障”,很难查出来是哪里出问题。
5. 流氓打法:资源爆破
疯狂刷任务:写脚本疯狂生成请求,刷到服务器资源告急,让正常训练任务排不上队,逼得系统崩溃。
搞坏接口:找到训练平台对外开放的接口,疯狂发异常请求,让系统崩溃或训练任务失控。
这些手段基本上都是“内鬼”操作,得对公司系统很熟,还得有内部权限。说白了,加入真的想攻击成功也不是那么容易,定期都有安全新闻博大家一笑,点个关注把。
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...