文 | 北京市习近平新时代中国特色社会主义思想研究中心特约研究员、中央民族大学新闻与传播学院教授 毛湛文
作为技术中介,算法无形中左右着我们对外界信息的认知和判断——我们会不知不觉地把算法建构的世界等同于现实世界,久而久之陷入“过滤泡”与“同温层”。当下,确保算法应用符合主流价值观,是技术有序发展的应有之义,更是每一个在“算法化生存”背景下社会个体的现实需要。真正助力算法技术的良性发展,需要从“多元共治、价值向善、以人为本”三个方面入手。
多元共治方面——明晰各方主体责任,倡导企业平台自治、政府问责监督、公众参与管理的协同治理。平台应用方应加强行业自我伦理审查,特别关注对诱导沉迷、引导高额消费等违背公序良俗的算法模型的审查;确立信息搜集的边界,充分保障用户的隐私权与知情权。有关部门应针对算法进行分级、分类管理,做好针对不同类型算法的备案管理;同时应加强部门间协作,面对可能涉及多部门交叉的算法违规问题时协同处置。对公众而言,应加强对“算法素养”的持续培育,通过让广大用户监督算法,共同营造清朗的网络空间。
价值向善方面——引导主流舆论,坚持算法的正向应用,构建“规范化、有温度、更透明”的算法传播环境。相关部门应要求算法应用服务的提供者在算法设计阶段提交及公开其基本原理、目的意图、运行机制等内容,让算法透明性原则更具操作性,从流程上规避算法设计衍生的“自动化不平等”现象。在算法开发环节中,应坚守价值准绳,避免功利趋向和流量导向,确保主流价值观和道德观融入代码程序的设计源头。在行业规范环节中,针对信息谬误、算法歧视和技术失灵等问题,基于“可信任AI”理念推动“可信赖算法”“公正算法”“向上向善算法”的实现。可以考虑通过引入第三方算法评估、提升算法可解释性、训练数据的有效干预、打通用户申诉渠道等,塑造社会对智能技术的信任管理机制。
以人为本方面——提升算法推荐应用的“群体适配性”,寻求“人机协商”的共通意义空间,强调人的主体性。算法治理需要以问题为导向,着眼不同群体遇到的差异性问题。比如,对未成年人,平台方应设置“青少年系统”,减少沉迷互联网带来的负面影响,还应杜绝色情、暴力、血腥等“少儿不宜”类信息向未成年人的推送。对老年群体,应加强算法的适老化改进,减少开屏、弹窗等可能造成误点的推送链接,用好各类算法应用设置的个人信息保护功能。对外卖员等基于算法环境工作的劳动者,企业与平台应当在“冰冷”的算法规则之外增补柔性管理举措,为算法程序的机械运转增添人性关切。对全体社会成员,则需要在“人机互动”中建立主体意识,主动规避“算法滤镜”下的数据造假、信息歧视、隐私泄露等危险风险,寻求“人机协商”的边界和规范。
有学者认为,算法不仅仅是数字世界里一条条必须执行的命令,而且成为生活中的实体,以决定性或探索性的方法挑选、转换和生成数据和知识。当下,做好算法的多元共治和规范发展,以“技术信赖”对抗“算法依赖”、以“价值导向”引领“算法偏向”、以“信息素养”克服“算法喂养”,方可更好地避免技术操控,走向更加文明有序的智能社会。
编辑:陈十九
审核:商密君
征文启事
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...