此篇文章发布距今已超过196天,您需要注意文章的内容或图片是否可用!
本期辑录了2023-2024年第一季度美国网络与信息法学领域近两年来的高质量文章(下),主题涵盖了隐私与数据安全治理、大数据技术发展、人工智能算法合规应用、人工智能知识产权以及自动驾驶汽车规制等议题。文中每篇文章末尾处均附原文链接,供读者查阅。
The Georgetown Law Journal
The Rise of the Hal-mander: Is Gerrymandering by Algorithm the Next Frontier of Partisan Gerrymandering?
哈尔曼德的崛起:算法划分选区是党派划分选区的下一个前沿吗?
Author
Harry A. Levin
The Georgetown Law Journal
Vol. 111
p. 891
Posted: 2022
摘要
我们无法自动化党派划分,但我们可以通过自动化使其永久化。每十年,美国各地的州立法机构和独立委员会都会为国会和州立法选举绘制新的选区,其中许多地图制作者依赖于复杂的软件和计算机算法。改革者还通过算法制定选区重划提案。就像生成数千张分区地图的顾问一样,改革者可以生成数千张符合州和联邦选区重划要求的非分区地图。无论是在表面上中立的算法的掩护下更有效地进行选区划分,还是通过将控制权交给表面上中立的算法来防止选区划分,各州都可以考虑自动重新划分选区的过程。北卡罗来纳州就是一个例子。北卡罗来纳州于 2019 年通过几乎自动化的选区重划过程决定了其州立法区。https://www.law.georgetown.edu/georgetown-law-journal/in-print/volume-111/volume-111-issue-4-april-2023/the-rise-of-the-hal-mander-is-gerrymandering-by-algorithm-the-next-frontier-of-partisan-gerrymandering/
"Race-Blind" Redistricting Algorithms
无种族偏见的重新划分选区算法
Author
Kayla Swan
Duke Law Journal
Vol. 73
p. 1141-1172
Posted: 2024
摘要
在重新划分选区案件中,诉讼当事人越来越多地使用算法证据,采用一系列算法生成的计划来指出该州当前计划的异常状态。但随着最高法院在学生公平录取诉哈佛案中宣布种族盲目的平等保护条款,这些方法在种族划分选区案件中的合宪性仍然不确定。其他学者已经研究了作为算法约束的种族盲目的潜在影响。相反,本文质疑种族盲目重新划分选区算法的实际可能性,并发现盲目的承诺是虚幻的。相反,限制重新划分选区算法中种族输入的要求无法在所检查的任何排他性方法下创造种族中立的结果。
https://scholarship.law.duke.edu/dlj/vol73/iss5/4
Digital Habit Evidence
数字习惯证据
Author
Andrew Guthrie Ferguson
Duke Law Journal
Vol. 72
p. 723-796
Posted: 2022
摘要
本文探讨了“习惯证据”将如何成为基于智能家居、智能汽车、智能设备和物联网爆炸式增长的数字证据新形式的催化剂。习惯证据是一条规则,即对特定刺激的某些种类的半自动、规则化的反应是可信的,因此根据联邦证据规则 (“FRE”) 406 “习惯;惯例”及其州等价物被允许使用。虽然“习惯”自普通法以来就已确立,但在报告的案件中仅以不一致的方式出现,并且在审判实践中未得到充分利用。但有趣的是,一旦应用于数字轨迹和物联网的世界,这条长期休眠的规则可以将我们的“量化生活”转变为一种重要的新的证据力量。事实上,作为量化事实的习惯证据可能会被武器化,以重新构想数字时代的审判实践。
https://scholarship.law.duke.edu/dlj/vol72/iss4/1
Employed Algorithms: A Labor Model of Corporate Liability for AI
受雇的算法:一种基于劳动模型的企业AI责任理论
Author
Mihailis E. Diamantis
Duke Law Journal
Vol. 72
p. 797
Posted: 2022
摘要
劳动力正在数字化。领先的咨询公司估计,到 2030 年,算法系统将取代 45% 的人工岗位。算法与它们所取代的人类员工共享的一个特点是它们造成伤害的能力。即使在今天,企业算法也会歧视贷款申请人、操纵股票市场、串通价格并导致交通死亡。通常情况下,企业雇主应对这些伤害负责,但评估企业责任的规则是在只有人类才能代表企业行事时制定的。这些规则对硅来说适用起来很别扭,甚至根本不适用。一些公司已经发现了这个法律漏洞,并正在迅速实现业务功能自动化,以限制其自身责任风险。本文寻求一种方法,让公司对数字劳动力的危害负责:出于责任目的,一些算法应被视为公司员工。本文借鉴现有的就业功能特征,将“受雇算法”的概念定义为公司对其行使实质性控制并从中获得实质性收益的算法。如果公司雇用了一个导致刑事或民事损害的算法,则公司应承担责任,就像该算法是人类员工一样。然后,原告和检察官可以利用现有的以员工为中心的责任规则,在数字劳动力违法时追究公司的责任。
https://scholarship.law.duke.edu/dlj/vol72/iss4/2
LEAK! The Legal Consequences of Data Misuse in Menstruation-Tracking Apps
泄露!经期追踪应用中数据滥用的法律后果
Author
Tahsin M. Ahmed
California Law Review
Vol. 111
p. 1979
Posted: 2023
摘要
自文明诞生以来,一种恐惧一直困扰着几乎一半的人口:月经周期中漏尿的风险。然而,信息时代带来了一个新的问题,可能会影响任何能够访问互联网等信息技术的人:用户的私人数据被泄露的风险。将这些问题相互联系在一起的是人类对隐私的近乎原始的需求以及它可能受到损害的方式。尽管隐私的含义因社会和司法管辖区而异,但该词包含了身体完整权和免受侵入性搜查等概念。隐私促进个人自主权、尊重和人类尊严等价值观。不同但相关的概念包括机密性和安全性。保密性是指不披露在亲密环境中收集的信息,患者-医生关系是最突出的例子。安全是防止私人信息泄露的技术和程序措施。隐私的价值因人而异,但隐私甚至使那些认为隐私不重要的人受益,因为他们可以控制自己的社会关系。https://www.californialawreview.org/print/leak-the-legal-consequences-of-data-misuse-in-menstruation-tracking-apps
A Home for Digital Equity: Algorithmic Redlining and Property Technology
数字公平的家园:算法红线和房地产技术
Author
Nadiyah J. Humber
California Law Review
Vol. 111
p. 1421
Posted: 2023
摘要
房地产技术(PropTech)致力于实现房地产交易的自动化。然而,租赁市场的自动化可能加剧住房领域的种族歧视和隔离现象。租户筛选工具所依赖的数据源自具有歧视性的历史实践,导致其以算法形式复制了这些实践所产生的一系列不平等结果。本文重点探讨了一种特定的PropTech应用:自动租户筛选。自动租户筛选采用机器学习算法处理信用评分、驱逐记录和犯罪历史等数据,这些数据来源均与导致住房和财富不平等的机构有关。文章对这类数据的运用提出了批评,并着重关注有色人种租户在购房过程中所面临的各类障碍,包括社会政治、财务以及现今的数字住房等方面的难题。为解决算法导致的歧视问题,本文提倡充分利用公平住房法中的一项工具,并将其视为应对PropTech加剧住房隔离现象的有力措施。文章建议采用隔离效应理论的规范框架,以对抗日益严重的住房不平等现象。作为首批关注PropTech算法红线的文章之一,本文还阐述了相应的法律策略。https://www.californialawreview.org/print/a-home-for-digital-equity
Racializing Algorithms
种族化算法
Author
Jessica M. Eaglin
California Law Review
Vol. 111
p. 753-799
Posted: 2023
摘要
人们普遍认为,算法会产生负面的种族和社会影响。学者们倾向于通过法律提供两种解决这一问题的方法——围绕工具进行修补或通过法律和政策废除工具。本文认为,尽管这些范例干预可能会集中解决种族差异,但它们通过技术和法律的交叉点使种族在社会结构中的作用合法化。通过采用以种族主义和法律为中心的理论视角,它揭示了关于种族的根深蒂固的社会假设,这些假设推动了算法作为对大规模监禁的刑事法律改革。它进一步解释了这些相同的假设如何通过法律使社会和历史偶然的种族和种族等级产生过程正常化。从规范的角度来看,本文拒绝了围绕算法进行修补或促进废除算法是法律中唯一可行解决方案的观点。相反,它呼吁法律学者直接考虑如何利用法律挑战技术和社会交叉点处种族等级的产生。本文建议将算法的法律话语转变为刑事法律改革,以此作为推进这一更大项目的关键步骤,将种族主义置于中心位置。https://www.californialawreview.org/print/racializing-algorithms
Data Unions: The Need for Informational Democracy
数据联盟:信息民主的必要性
Author
Eli Freedman
California Law Review
Vol. 111
p. 657
Posted: 2023
摘要
普通消费者每天产生的数据对经济越来越重要。然而,随着这些数据赋予科技公司巨大的财富和权力,我们这些数据生产者却无权决定如何收集和使用我们的数据。为了追求利润而进行数据分析的统治导致了一场针对本来就边缘化群体的持续数据危害。此时此刻,我们需要一种工具来平衡平台和用户之间的议价能力,让消费者对其产生的数据拥有有意义的控制权。在 20 世纪初,劳工组织呼吁进行产业民主:工人有权对自己的劳动条件拥有实质性的发言权。对于当今的数据化信息经济,本文呼吁信息民主的必要性:消费者作为数据生产者,有能力对其生活产生的数据施加有意义的控制。本文提倡将数据联盟作为实现信息民主的一种工具。它将数据联盟概念化为民主选举的组织,这些组织汇总数据以创建集体谈判单位,与平台就允许使用的数据进行谈判。首先,本说明概述了当今经济如何通过数据处理创造价值和造成损害。然后,它认为,由于这种价值和损害创造的特殊性质,数据联盟是独特的监管工具,可以制定有意义的消费者控制。https://www.californialawreview.org/print/data-unions-the-need-for-informational-democracy
Data Privacy, Human Rights, and Algorithmic Opacity
数据隐私、人权和算法不透明性
Author
Sylvia Lu
California Law Review
Vol. 110
p. 2087
Posted: 2022
摘要
几十年前,很难想象人工智能 (AI) 可以渗透我们生活的每一个角落,以监视我们最内心的自我以获取商业利益。在短短几十年内,私营部门见证了人工智能系统的疯狂激增,其中许多系统比预期更强大、更具渗透性。在许多情况下,人工智能系统已成为“王座背后的力量”,通过对个人信息的预测分析来跟踪用户活动并做出重大决策。尽管人工智能的力量越来越大,但专有算法系统在技术上可能很复杂,在法律上被视为商业秘密,并且对于外部人员来说在管理上是不可见的,从而造成了阻碍对人工智能系统进行监督的不透明性。因此,人们发现许多基于人工智能的服务和产品具有侵入性、操纵性和偏见性,侵蚀了现代社会的数据隐私规则、人权和民主规范。人工智能系统的出现由此在算法保密和数据隐私之间产生了深刻的紧张关系。然而,在当今的政策辩论中,隐私背景下的算法透明度是一个同样重要的问题,但它在管理上被忽视、在商业上被回避、在法律上尚未实现。本说明首次阐述了监管机构应如何通过人权、算法披露和举报系统的相互作用来重新考虑有关数据隐私的战略。随着世界越来越关注欧盟的数据保护法——《通用数据保护条例》(GDPR)——作为监管参考框架,本文评估了 GDPR 对不透明人工智能系统引发的数据保护问题的应对措施的有效性。基于对谷歌人工智能应用和隐私披露的案例研究,本文表明,即使是欧盟也未能执行数据保护规则来解决算法不透明性引起的问题。本文认为,由于算法的不透明性已成为监督和执法的首要障碍,欧盟、美国和其他地区的监管机构不应过度保护涉及公共利益的 AI 应用的各个方面的秘密。相反,政策制定者应考虑通过可持续性报告和举报人保护对部署 AI 的公司施加算法披露义务,以最大程度地有效执行数据隐私法、人权和其他民主价值观。https://www.californialawreview.org/print/data-privacy-human-rights-and-algorithmic-opacity
Berkeley Technology Law Journal
Back in the Driver’s Seat: The United States Should Enact a Unified Automated Vehicle Law and Regulation
重返驾驶座:美国应制定统一的自动驾驶汽车法律和法规
Author
James Ng
Berkeley Technology Law Journal
Vol. 39
p. 1
Posted: 2024
摘要
自动驾驶汽车在现代社会中逐渐普及,尽管它们并非完美无缺,但预计它们将为社会带来诸多益处,并将持续存在。然而,随着社会朝着更受计算机控制、更少由人操作的汽车世界发展,美国法律一直无法跟上这些科学发展。联邦和州政府尚未在其自动驾驶汽车法律和法规中实现统一。前者仅提供了自愿指导。对于后者,一些州采取了渐进的方法,而另一些州则采取了更为保守的方法。考虑到当前和即将到来的自动驾驶汽车技术将给索赔人带来困难,无法根据现有的州产品责任法成功提出索赔,本文将探讨潜在的解决方案并提出解决当前缺陷的方案。本文还将探讨欧盟在该法律领域取得的成就,以及其他法律学者为解决该问题提出的解决方案。最后,本文将提议美国制定一项统一的联邦自动驾驶汽车法规,并对自动驾驶汽车产品责任采取私人诉讼措施。https://btlj.org/wp-content/uploads/2024/04/0001_39-1_Ng.pdf
Researcher Access to Social Media Data: Lessons from Clinical Trial Data Sharing
研究人员访问社交媒体数据:临床试验数据共享的经验教训
Author
Christopher J. Morten, Gabriel Nicholas & Salomé Viljoen
Berkeley Technology Law Journal
Vol. 39
p. 1-104
Posted: 2024
摘要
多年来,社交媒体公司一直与立法者争论,研究人员应该获得多少独立的平台数据访问权限。与研究人员共享数据可以让公众更好地了解与社交媒体相关的风险和危害,包括错误信息、儿童安全和政治两极分化等领域。然而,研究人员的访问权限存在争议。隐私倡导者和公司提出了研究人员不负责任地使用此类数据的潜在隐私威胁。此外,社交媒体公司对商业秘密提出了担忧:这些公司持有的数据和由该数据驱动的算法是竞争优势的秘密来源。本文表明,通过借鉴已成功实施的临床试验数据共享监管计划的经验教训,可以找到一种方法来应对这一难题。与社交媒体数据一样,临床试验数据也涉及个人隐私和商业秘密问题。尽管如此,临床试验数据的治理制度还是逐步立法、监管和协调形成的,管理着行业、学术界和其他利益相关者的利益。结果是一个功能上成功的(尽管不完美)的临床试验数据共享生态系统。第二部分概述了研究人员获取社交媒体数据的现状,并提供了一个新颖的问题分类法,这些问题出现在这种制度下。第三部分回顾了管理临床试验数据共享的法律结构,并追溯了丑闻、调查、行业抗议和立法回应的历史,这些历史导致了我们今天所拥有的强制共享和实验计划的混合。第四部分将临床试验数据共享的经验教训应用于社交媒体数据和图表为战略性前进道路指明方向。出现了三个主要教训:首先,对原本秘密数据的研究好处是层叠的和不可预测的;其次,没有机构来实施法律的法律是不够的;第三,数据访问制度必须根据其提供不同类型的数据进行定制。https://btlj.org/wp-content/uploads/2024/04/0003_39-1_Morten.pdf
Everything You Want: The Paradox of Customized Intellectual Property Regimes
你想要的一切:定制化知识产权制度的悖论
Author
Derek E. Bambauer
Berkeley Technology Law Journal
Vol. 39
p. 102-170
Posted: 2024.2
摘要
特殊利益集团有一个共同的愿景:制定针对其行业(最好由其行业起草)的专项立法。然而,从公共选择的角度来看,通过立法俘获而制定的定制规则是最为恶劣的情况:它们使狭隘的利益得以谋取租金,而无法产生充分的社会效益。美国知识产权(IP)法为立法俘获提供了一个有益的案例研究:在过去四十年里,特殊利益集团三次成功地推动了《半导体芯片保护法》、《家庭录音法》和《船体设计保护法》的制定,从而确立了自己的规则。然而,颇具讽刺意味的是,这些量身定制的知识产权体系并未让它们的起草者如愿以偿:这三个体系均陷入了废弃的状态。这一结果挑战了关于特殊利益监管俘获的传统观念,表明大多数法律学者在知识产权及其他领域对立法俘获的担忧相对较少。谜团在于,当利益集团获得自由裁量权来设计管理其规则时,为何它们在利用这一优势方面表现得如此不佳。本文汇集了两场学术辩论。第一场辩论在知识产权领域内:知识产权学说应按行业量身定制,还是包含一般适用的规则?第二场辩论在公共选择领域内:特殊利益对监管的俘获有多大风险?本文指出了定制制度无效的两个关键原因。首先,行业团体是脆弱的、类似分形的不同利益联盟;创作者和抄袭者之间的断层线通常是断裂点。其次,利益集团将当前的商业模式和技术嵌入这些系统中,使监管容易受到颠覆性创新的影响。本文探讨了这些发现如何影响人工智能、气象数据、传统知识、隐私和时尚的定制制度提案,并得出结论,定制制度的有效性和威胁性低于先前的想法。https://btlj.org/wp-content/uploads/2024/04/0004_39-1_Bambauer.pdf
Addressing Personal Data Collection as Unfair Methods of Competition
将个人数据收集视为不公平竞争手段
Author
Maurice E. Stucke
Berkeley Technology Law Journal
Vol. 38
p. 715
Posted: 2023
摘要
执行者、政策制定者、学者和公众都对谷歌、苹果、Meta、亚马逊和微软及其影响力感到担忧。这种影响力部分来自于个人数据。公众普遍认为,少数公司拥有大量数据,就拥有了过多的权力。这里出了问题。跨越政治立场,许多美国人认为大型科技公司的经济实力是美国经济面临的问题。那么,在数字经济中如何保护个人隐私呢?在过去的几十年里,联邦贸易委员会根据《联邦贸易委员会法案》第5节的权力,对侵犯隐私和数据保护的行为进行了起诉,该权力旨在打击“不公平或欺骗性的行为和做法”。有些人敦促该机构走得更远,利用《联邦贸易委员会法案》第5节的“不公平”条款制定一项“数据最小化规则”。尽管这仍然是一个选择,但这条规则制定路径有几个局限性。相反,本文采取了不同的方法。本文敦促FTC根据《联邦贸易委员会法》挑战某些与隐私相关的竞争问题,将其视为“不公平的贸易做法”。本文还探讨了监控经济中许多问题的一个关键源头,即行为广告。正如本文所结论,FTC无法凭借《联邦贸易委员会法》的权力修复监控经济。美国仍然需要一个全面的隐私框架。但FTC可以通过行使国会意图其行使的权力,以帮助遏制数据垄断,从而帮助填补监管空白。https://btlj.org/wp-content/uploads/2023/11/0003_38-2_Stucke.pdf
【整理】吕建宇、李宗灝 网络法理论与实务编辑
【编辑】朱怡宁 网络法理论与实务编辑
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
宙飒天下网
还没有评论,来说两句吧...