此篇文章发布距今已超过576天,您需要注意文章的内容或图片是否可用!
最近,当亿万富翁埃隆·马斯克谈到他计划创建“最大程度寻求真相的人工智能”以替代微软支持的OpenAI公司的ChatGPT和谷歌的Bard 技术时,人们对新兴人工智能(AI)工具存在偏见的担忧重新浮出水面。 在本月早些时候,在接受福克斯新闻的塔克卡尔森采访时,马斯克表达了对他所说的ChatGPT被训练说谎和政治正确等问题的担忧。他将所谓的“TruthGPT”描述为第三种选择,它不太可能“消灭人类”,并且与其他生成人工智能工具相比将提供“通往安全的最佳途径”。马斯克启动了他的名为“TruthGPT”的新人工智能项目,期望实现一个“最大限度地寻求真理的人工智能,试图理解宇宙的本质。马斯克没有为他计划中的聊天机器人提供时间表。但他已经成立了一家名为X.AI的新人工智能公司,据报道,他已经开始从ChatGPT的创建者OpenAI以及谷歌及其母公司Alphabet招聘人工智能员工。马斯克对卡尔森的评论呼应了他和其他数百名技术领袖、伦理学家和院士在3月份致人工智能公司的公开信中表达的一些观点。这封信敦促参与人工智能研发的组织至少暂停六个月的工作,以便政策制定者有机会对这项技术的使用设置一些限制。在提出他们的论点时,马斯克和其他人指出,有偏见的人工智能工具可能会充斥“我们的信息渠道,宣传和谎言”是他们的主要担忧之一。国际隐私专家协会(IAPP)的数据策略师和科学家苏珊娜·希克斯(Suzannah Hicks)表示,人工智能和机器学习中存在偏见的根本问题在于它源于人类的决策。所有AI模型都从极其庞大的数据集中学习,并且没有明确编程以以特定方式响应。通常,偏差发生在人类选择输入模型的数据中。“如果将有偏见的数据输入模型,那么输出也可能包含偏见,”希克斯说。“也可能通过数据遗漏或数据科学家选择变量作为数据元素之外的其他事物的代理来引入偏差,”她说。例如,Hicks指出了一种机器学习算法,该算法可能会将用户在浏览Netflix时的“点击”次数作为积极指标的代理。“我可能会点击电影来阅读他们的描述并决定我不喜欢它,但模型可能会将点击误解为‘喜欢’的指示,”她说。同样,如果邮政编码是AI工具学习模型中数据集的一部分,则使用AI确定信贷资格的贷款服务可能最终会拒绝向犯罪率高的邮政编码(ZIP code)中的人提供不成比例的大量贷款。“在这种情况下,邮政编码被用作人类行为的代理,这样做会产生有偏见的结果,”希克斯说。Coalfire副总裁安德鲁·巴拉特(Andrew Barratt)表示,他自己对文本到图像生成工具的测试提供了新兴人工智能技术中存在偏见的一个例子。当他要求该工具生成一个快乐的人享受阳光的逼真图像时,该工具只生成白种人的肤色和特征,尽管他提供的输入不包含种族背景。他说,未来的一个担忧是,寻求通过其技术获利的人工智能平台提供商可能会以有利于广告商或平台提供商的方式将偏见引入他们的模型。Zimperium产品战略副总裁Krishna Vishnubhotla表示,无论何时将一项服务货币化,您通常都希望通过该服务的任何进一步发展最大限度地发挥货币化潜力。通常这种进化会开始偏离最初的目标或进化路径——马斯克在接受卡尔森采访时表达了对ChatGPT的担忧。“这就是 Elon谈到的问题,”Vishnubhotla说。虽然Musk等人没有特别指出人工智能偏见对网络安全的影响,但这个话题已经存在一段时间了,在ChatGPT时代值得重新审视。正如前IBM 和微软高管、现拥有风险投资基金的Aarti Borkar在2019年Fast Company的开创性专栏中指出的那样,随着人工智能成为主要的安全工具,偏见是一种风险形式。“当人工智能模型基于错误的安全假设或无意识的偏见时,它们不仅仅是威胁公司的安全态势,” Borkar写道。“经过调整以根据非安全因素确定良性或恶意网络流量的AI可能会错过威胁,从而使它们能够进入组织的网络。它还可以过度阻止网络流量,禁止可能是关键业务的通信。”随着ChatGPT被热情地引入网络安全产品,错误的隐藏偏见的风险可能会进一步导致误报、滥用隐私和存在漏洞的网络防御。此外,网络犯罪分子还可能毒害AI以影响安全结果。“如果AI被黑客攻击和操纵,以提供看似客观但实际上隐藏得很好的偏见信息或扭曲观点的信息,那么AI可能会成为一台危险的……机器,”《哈佛商业评论》称。ChatGPT为黑客可能破坏高级网络安全软件开辟了新途径。对于一个已经因2022年全球数据泄露事件增加38%而深受打击的行业,领导者必须认识到AI日益增长的影响并采取相应行动。所以问题变成了是否真的可以有完全无偏见的人工智能,以及如何才能实现这一目标。希克斯说,消除数据偏差的第一步是了解它在人工智能和机器学习中的潜力。这意味着了解如何以及哪些数据变量被包含在模型中。许多所谓的“黑盒”模型,例如神经网络和决策树,旨在独立学习模式并根据其数据集做出决策。她说,他们不需要用户甚至开发人员完全理解它是如何得出特定结论的。 “人工智能和机器学习在很大程度上依赖于黑盒模型,因为它们可以处理大量数据并产生非常准确的结果,”希克斯指出。“但重要的是要记住它们就是黑匣子——我们不了解它们是如何得出所提供的结果的。”去年10月世界经济论坛博客文章的作者认为,开源数据科学(OSDS)——利益相关者以透明的方式合作——可能是消除人工智能偏见的一种方式。作者说,就像开源软件改造软件一样,OSDS可以开放AI工具使用的数据和模型。他们写道,当数据和人工智能模型开放时,数据科学家将有机会“识别错误和低效率,并创建替代模型,为不同的用例优先考虑各种指标”。欧盟拟议的人工智能法案正在采取另一种方法。它呼吁建立一个人工智能分类系统,在该系统中,人工智能工具根据它们对健康、安全和个人基本权利的风险程度进行分类。存在不可接受的高风险的人工智能技术,例如实时生物识别ID系统, 将被禁止。那些被认为具有有限或最小风险的,例如视频游戏和垃圾邮件过滤器,将受到一些基本的监督。自动驾驶汽车等高风险人工智能项目将受到严格的测试要求,并显示遵守特定数据质量标准的证据。ChatGPT等生成式AI工具也将受到其中一些要求的约束。在美国,美国国家标准与技术研究院(NIST)建议利益相关者在寻找AI偏差来源时扩大他们寻找的范围。NIST在一份关于需要标准来识别和管理人工智能偏见的特别出版物中表示,除了机器学习过程和用于训练人工智能工具的数据外,该行业还应该考虑社会和人为因素。 NIST指出:“偏见对于AI来说既不是新事物也不是独有的,并且不可能在AI系统中实现零偏见风险。” 为了降低部分风险,NIST将制定“识别、理解、测量、管理和减少偏差”的标准。1.https://www.darkreading.com/remote-workforce/safer-ai-can-there-really-be-a-truthgpt2.https://hbr.org/2023/04/the-new-risks-chatgpt-poses-to-cybersecurity3.https://www.weforum.org/agenda/2023/03/the-european-union-s-ai-act-explained/#:~:text=The%20Artificial%20Intelligence%20Act%20aims,of%20AI%20for%20industrial%20use.%E2%80%9D4.https://futureoflife.org/open-letter/pause-giant-ai-experiments/原文来源:网空闲话
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
宙飒天下网
还没有评论,来说两句吧...