赛题将围绕LLM的Jailbreak和Prompt Leaking风险展开,大赛提供LLM ChatBot的对话接口,要求选手通过各种手段生成Jailbreak和Prompt Leaking样本,以尽可能高的成功率攻破ChatBot的防护
在初赛23天的时间中,来自高校的300多支战队,对赛题定制大模型发起近20多万次攻击,初赛的前10名团队将晋级决赛,10月27日在线下举行决赛ChaMd5团队荣获第十名。
从ByteAI安全挑战赛说起...
在刚刚落幕的2024 ByteAI安全挑战赛中,我们团队从众多参赛队伍中脱颖而出,斩获初赛、复赛第十名的优异成绩。这不仅是对我们技术实力的认可,更坚定了我们在AI安全领域继续深耕的决心。
为什么选择AI安全?
当下,AI技术正在重塑世界。ChatGPT、Claude等大语言模型的出现,既带来了无限可能,也伴随着前所未有的安全挑战:
提示词注入攻击 模型越狱 隐私数据泄露 对抗样本生成 ...
这些都需要我们用创新的思维和专业的技术来应对。
我们在寻找这样的你
如果你:
对AI安全充满热情 具备安全或AI相关背景 渴望在前沿技术领域有所建树 愿意接受挑战,勇于创新
无论你是:
网络安全专业在校生 AI安全领域的研究者
我们都诚挚地邀请你加入我们的团队!
加入我们
如果你对AI安全充满热情,渴望在这个充满挑战与机遇的领域有所作为,欢迎加入我们的团队!
让我们一起,守护AI时代的安全,开创技术创新的未来!
简历发送到admin@chamd5.org 期待你的到来。
结束
招新小广告
ChaMd5 Venom 招收大佬入圈
新成立组IOT+工控+样本分析 长期招新
欢迎联系admin@chamd5.org
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...