2024年是全球大选之年,这一年,美国、俄罗斯、印度、韩国、乌克兰,以色列或被迫大选,美俄两国大选可以说是今年的大选之王,尤其是普京连任,以及美国民众对特朗普的呼唤,都将是全球最为关注的焦点。世界经济论坛的《2024 年全球风险报告》警告称,生成式人工智能工具在传播虚假信息方面可能造成破坏。同时,ChatGPT 的创建者 OpenAI 也承认其工具被用于个性化说服的潜在风险。
随着2024年全球重大选举的临近,OpenAI 将推出打击虚假信息的工具,为今年的关键选举做准备。OpenAI 专注于保护选举的完整性,还禁止使用其技术(例如 ChatGPT 和 DALL-E 3)进行政治竞选。该计划涉及安全系统、威胁情报、法律、工程和政策团队之间的协作,以应对深度伪造、聊天机器人模仿和影响运营等挑战。
防止滥用和提高透明度
OpenAI 的团队正在投入资源以防止滥用,例如误导性的“深度伪造”、规模化的影响操作或冒充候选人的聊天机器人。公司已经在新系统发布前进行红队测试,征求用户和外部合作伙伴的反馈,并构建安全缓解措施以减少潜在的伤害。例如,DALL·E 已设置防护措施,拒绝生成真实人物(包括候选人)的图像请求。
OpenAI 还在不断完善其 ChatGPT 和 API 的使用政策,以应对人们使用或试图滥用其技术的情况。公司特别强调,由于目前尚不清楚其工具在个性化说服方面的有效性,因此暂时不允许人们为政治竞选和游说构建应用程序。
提高对权威投票信息的获取能力
OpenAI 正与美国国家秘书协会(NASS)合作,当用户询问特定的选举程序相关问题时,ChatGPT 将引导用户访问 CanIVote.org,这是关于美国投票信息的权威网站。该公司计划将从这项工作中获得的经验应用于其他国家和地区。
保护选举的完整性
OpenAI 强调,保护选举的完整性需要民主进程的每个角落的合作。公司致力于通过提高准确的投票信息、执行适度的政策和提高透明度来继续其平台安全工作。OpenAI 已经组建了一个跨职能团队,专门负责选举工作,该团队汇集了安全系统、威胁情报、法律、工程和政策团队的专业知识,以快速调查和解决潜在的滥用问题。
通过这些措施,OpenAI 表示将继续与合作伙伴一起工作和学习,以预防其工具在今年全球选举前夕的潜在滥用,并希望为全球民主进程的完整性和公正性做出贡献。同时 OpenAI 表达了其目标是赋予人们使用 AI 改善日常生活和解决复杂问题的能力,同时确保 AI 系统的安全构建、部署和使用。
参考:
How OpenAI is approaching 2024 worldwide elections
开放朋友圈,不定时分享学习感悟,日常思
考。如果有需要,欢迎前排围观。
// 近期阅读推荐
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...