阅读本文大概需要 5 分钟。
现在,给 ChatGPT 找漏洞有钱挣了。
今天凌晨,OpenAI 宣布开启漏洞赏金计划 :
报告 ChatGPT 漏洞,可以获得最高 2 万美元现金奖励。
具体来说,OpenAI 将与漏洞反馈平台 Bugcrowd 展开合作,收集人们在使用其产品过程中发现的 bug。
发现并通过该平台向其报告漏洞,可获得现金奖励:
具体而言,用户反馈的漏洞将按照 Bugcrowd 评级分类法进行分级。
OpenAI 坦言,漏洞的出现无法避免:
OpenAI 安全部门负责人 Matthew Knight 解释说,发现漏洞的过程需要广大网友提供帮助:
他们还向全网承诺,在收到反馈后第一时间修复漏洞,并对提交者进行表彰。
新的副业出现了?
体验过 ChatGPT 的网友应该都知道,它的表现不总是那么令人满意。
问题稍难一些,ChatGPT 就会被绕晕,甚至给出让人啼笑皆非的答复。
这么一看,找 bug 可太简单了,那岂不是赚大钱的机会来了?
不要高兴太早。
在公告中,OpenAI 已经表明,出于修复可行性的考量,模型本身的问题并不在此次计划的范畴之内。
而让其进行说坏话、做坏事、生成恶意代码等绕过安全措施或产生机器幻觉的行为,都属于模型本身的问题。
更不必说错误或者不精确的回答了。
OpenAI 希望收集的有关 ChatGPT 的漏洞,主要是关于其账号、认证、订阅、支付、会员和插件等问题。
对于普通用户来说,从这些角度发掘漏洞就有些难度了。
安全问题不容小觑
前文中提到的绕过安全限制等问题是从业者十分关切的。
人工智能程序内置了防止其给出危险或带有冒犯性的言论的安全限制。
但通过一些途径,这些限制可以被绕过或突破。
这种现象被从业者形象地称之为“越狱”。
如询问 ChatGPT 如何做一些违法之事时,事先声明要求它“扮演”坏人。
在人工智能领域,有一群人专门对“越狱”进行研究,以完善安全措施。
尽管 OpenAI 不收集模型本身的漏洞,但这并不代表他们不重视这方面的问题。
搭载 GPT-4.0 模型的新版本 ChatGPT 便有着更为严格的限制措施。
网友:为啥不让 ChatGPT 自己找 bug
OpenAI 的赏金计划一公布,就吸引了不少网友围观。
这不,第一时间就有网友举手表示自己已经发现了一个 bug:
还有网友调侃,难道不应该让 ChatGPT 自己给自己 debug 吗?
正经说起来,则有网友对危险言论问题不在收集范围表示了担忧:
不过,大多数网友还是资瓷的,并表达了一波期待:
那么,你对给 ChatGPT 找漏洞这事儿,有兴趣吗?
参考链接:
[1]https://openai.com/blog/bug-bounty-program
[2]https://bugcrowd.com/openai
[3]https://www.bloomberg.com/news/articles/2023-04-11/openai-will-pay-people-to-report-vulnerabilities-in-chatgpt
[4]https://www.bloomberg.com/news/articles/2023-04-08/jailbreaking-chatgpt-how-ai-chatbot-safeguards-can-be-bypassed
End
崔庆才的新书《Python3网络爬虫开发实战(第二版)》已经正式上市了!书中详细介绍了零基础用 Python 开发爬虫的各方面知识,同时相比第一版新增了 JavaScript 逆向、Android 逆向、异步爬虫、深度学习、Kubernetes 相关内容,同时本书已经获得 Python 之父 Guido 的推荐,目前本书正在七折促销中!
内容介绍:
扫码购买
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...