2023年8月31日,美国战略与国际研究中心(CSIS)发布题为《管控AI在数字新闻领域的风险》报告。报告首先回顾了以大语言模型为主导的AI技术对数字新闻领域的冲击,指出其所构成的四大风险,并针对这些风险提出六条建议。作者指出,技术平台、新闻编辑室、政府和个人应共同携手应对风险,积极采取行动,保持新闻业的可持续发展。元战略摘编报告重要内容,探讨如何管控AI在新闻领域的风险。
一、时代背景
AI是新闻行业最近面临的困境,尤其是在2022年12月OpenAI发布ChatGPT后。BuzzFeed、澳大利亚新闻集团(News Corps Australia)和G/O Media等几家媒体迅速采取行动,在内容制作流程中应用生成式AI。2023年初,BuzzFeed推出了应用ChatGPT的测验、旅游文章和名为Botatouille的食谱推荐聊天机器人。还有许多其他公司正在制定更长远的战略,比如《华盛顿邮报》宣布在2023年5月成立两个内部团队,探索AI的未来用途。另一方面,作家们普遍对此持谨慎态度。2023年7月,美国东部作家协会和Gizmodo媒体集团工会谴责了G/O Media在未事先咨询编辑人员的情况下发布AI生成的文章,警告道:“不可靠的AI程序以制造虚假信息和剽窃人类作家的作品而臭名昭著,这是对新闻业的生存威胁。”
人们常说,新闻编辑室必须不断发展以适应技术进步,但这种说法既不准确也不公平。即使一些出版商顺应大型科技公司的一时兴起,但也曾因此受到影响。例如,一些数字新闻机构重新设计了自己的发行策略,以利用社交媒体在2010年代初的高峰增长,允许个人用户在分散的渠道上查看和分享文章链接,以换取源源不断的点击量。BuzzFeed最初是通过社交媒体的爆炸式传播而获得影响力的。但2018年1月,Facebook单方面修改了内容排名算法,优先考虑广告商和基于连接的参与,从而降低了外部新闻网站的能见度,BuzzFeed等先行者受到的冲击最大。2023年4月,BuzzFeed以收入不足为由突然关闭了其获得普利策奖的新闻部门,而《纽约时报》等通过传统订阅实现收入来源多元化的媒体则不那么容易受到大型科技公司不透明决策的影响
二、AI技术在数字新闻领域的风险
新闻的可持续发展不能仅靠出版商,大型数字平台必须分担责任。搜索引擎和社交媒体公司有责任了解并应对其对社会的巨大影响。然而,在搜索引擎和社交媒体公司的运营中,美国法律在以下方面的要求相对较少:在算法中建立公平性和透明度,在提供个性化广告时保护敏感的个人信息,参与广告技术实践以促进与新闻出版商的公平竞争,以及减少有害内容在网上的传播。如果美国没有针对技术公司的明文规定,近期AI的加速应用至少会带来四大风险,从长远来看可能会严重损害新闻的可用性和公众对信息的获取。
1.搜索引擎可能会采用AI来回答用户的搜索,这将大大降低用户的搜索次数。
报纸与搜索引擎之间是一种互惠但基本不平等的关系。谷歌控制着全球约92%的搜索引擎市场,每月向新闻网站发送约240亿次浏览量。这可能占出版商在线流量的三分之一以上,而在线流量是数字广告的关键指标。在ChatGPT研究成果发布后不久,谷歌和微软都宣布计划利用生成式AI,以段落的形式直接回答用户的搜索。与当前版本的ChatGPT不同,微软的必应(整合了ChatGPT)和谷歌的Bard都打算从整个互联网生态系统的实时数据中获得回复,从而能够分析突发新闻。通过这种方式,大语言模型可以增强主导搜索引擎的把关能力,从而最大限度地提高用户在其平台上的参与度。
如果大语言模型引导更少的读者通过谷歌点击外部网站,那么数字新闻组织有可能失去网络知名度、受众参与度和广告收入的主要来源。展望未来,如果新闻出版商无法长期可靠地依赖搜索引擎流量,网站可能会越来越依赖付费墙来获得独立于大型技术公司的收入。在此期间,许多报纸大幅提高了订阅费率,因为它们的广告收入同时也出现了下滑。付费订阅可以帮助一些新闻机构建立忠实的读者群,尤其是在其内容专业或独家的情况下。但是,订阅基金的规模不足以支撑所有出版物,规模较小或较为小众的出版物倒闭的可能性更大。
在气候变化、公共卫生和公民权利等主题上,隔离准确和相关信息的获取途径也会产生负面的社会外部效应。没有能力订阅多份报纸的人可能更容易相信他们在社交媒体或搜索引擎上免费看到的错误信息和低质量内容,无论是人工生成的还是AI生成的。在一个更加碎片化的互联网中,人们更有可能存在于自己的意识形态泡沫中,因为聊天机器人无法像人类记者那样提供多样化的观点。社交媒体算法通常根据用户过去的浏览活动或个人兴趣来推荐或推广内容,这进一步强化了基于用户参与而非共同利益的回声室。
2.社交媒体平台正在使用AI对帖子进行自动排序,这使得合法新闻媒体的优先级被大量取消,而转向虚假、垃圾或操纵性的用户上传内容。
在互联网时代之前,新闻机构集中控制着公众的注意力,是大众了解时事的主要窗口。但在过去二十年里,社交媒体平台使出版民主化,允许任何人在国际上传播,将内容排名算法转变为关注度和相关性的新守门人。报纸在发布诽谤性或虚假信息时会面临法律责任,但社交媒体平台一般不会。许多社交媒体平台采用了AI推荐系统,根据用户的预测兴趣或个人联系自动对内容进行排序,目的是最大限度地增加屏幕访问时间,而不是增加集体公共知识。
除文字外,AI生成工具的广泛使用使任何互联网用户都能轻松地在网上发布篡改过的图片、视频和音频,这可能为冒充新闻编辑室提供便利,甚至威胁到记者个人的安全。美国联邦法律中没有专门针对深度伪造AI技术的规定,因此每个社交媒体平台、应用商店、搜索引擎和在线论坛对此类内容的处理方式都不尽相同。Meta的政策是删除“可能误导他人认为视频中的主体说了他们没有说的话”或“在视频中合并、替换或叠加内容,使其看起来像是真实的”的合成媒体。不过,该公司将“模仿或讽刺”排除在外。此外,随着深度伪造图像变得越来越逼真和普遍,合成媒体政策可能会变得越来越难以执行。内容检测算法也必须不断进步;否则,对于面向公众的记者来说,互联网生态系统可能会成为一个更加危险的空间,受众对他们传达的信息的接受程度也会降低。
3.聊天机器人无法履行与人类记者相同的职能,在短期内,新闻业高管可能仍会利用AI来简化运营或证明裁员是合理的。
目前,人工智能在技术能力上还无法与人类作家和编辑相提并论。像ChatGPT这样的大语言模型最适合自动执行特定功能,但它们却不具备高级编辑技能。大语言模型根据其训练数据集预测模式和词语关联,但在大规模部署过程中,大语言模型会出现与事实不符的情况,甚至生成虚假故事。对于ChatGPT等一些默认不标明或引用来源的模型来说,这种行为会带来双重问题。此外,由于许多大语言模型基于来自在线网站和论坛的文本,这些网站和论坛在历史上曾因性别认同、种族或性取向等因素而排斥或敌视个人,大语言模型的自动输出可能会再现更广泛的社会偏见。
尽管存在这些缺陷,但一些企业的新闻高管可能会利用大语言模型在短期内削减开支,而不仅仅是为了提高生产力或创造长期的新价值。2023年1月,CNET公司暂停使用大语言模型,因为在其AI生成的文章中发现了大量错误和抄袭语言,该媒体承认已经“悄悄”发布了几个月,但没有明确披露。正如历史学家大卫·沃尔什(David Walsh)所说:“AI的问题不在于它是否真的会取代我们,而在于它是否会被用来为灾难性的商业决策辩护,这些决策将摧毁整个行业,而这恰恰是因为AI无法真正取代我们。”
2023年3月,OpenAI、OpenResearch和宾夕法尼亚大学的研究人员估计,AI乐虎国际手机版下载可能会影响美国80%劳动力的工作职能,其中作家、记者和新闻工作者最容易受到影响。此外,麻省理工学院、伦敦经济学院和波士顿大学的研究人员发现,在2010年至2018年期间,AI的采用与职位招聘之间存在负相关关系:AI部署每增加1%,公司就会减少约1%的招聘。AI对劳动力的影响不仅仅是一个长期问题,许多作家和记者已经面临大量劳动力的不确定性。
4.生成式AI会增加网上垃圾或虚假内容的泛滥程度,从而掩盖了合法新闻,并将广告费用从传统出版商那里转移走。
虽然当今的大语言模型可以创作出与高水平记者相媲美的原创散文,但他们同样非常适合制作低成本、低质量、高流量的点击诱饵。虽然点击诱饵的制作对大多数传统新闻编辑室毫无帮助,但却有利于广告制作网站(MFA),这些网站是垃圾网站、流量驱动型网站,其唯一目的就是最大限度地提高页面浏览量和广告收入。
广告制作网站不会给公众带来实质性的好处,但如果没有适当的保障措施,在AI时代可能会产生严重的负面外部效应。大语言模型旨在大规模产生成果,非常适合内容农场,其唯一目的是通过无意义的关键词、新闻来源的摘要或逐字文本以及高度重复的垃圾邮件来实现搜索引擎优化(SEO)。这些文章经常列出虚假作者或匿名署名,似乎缺乏人工监督。AI生成的垃圾邮件日益盛行,可能会降低公众对重大时事的信任和理解,尤其是如果它扭曲了真实新闻市场,掩盖了合法新闻编辑室作为信息集中来源的作用。当互联网生态系统充斥着机器人时,人类记者传播可信信息的难度将成倍增加。
三、应对风险的六大举措
世界各地都在大力推动立法,迫使托管新闻内容的大型技术平台向出版商付费。2023年6月,加拿大议会颁布了《网络新闻法》,要求指定的搜索引擎和社交媒体平台为其用户浏览或分享的任何外部文章链接或引文向新闻出版商付费。澳大利亚和欧盟分别于2021年通过了《新闻媒体谈判守则》(NMBC)和《版权指令》,巴西、印度、英国、美国和加利福尼亚州的立法者已经提出或正在积极考虑类似措施。
这些立法措施有时被称为“链接税”,会产生错误的激励作用。过去,这些措施阻碍了谷歌和Meta在其平台上显示新闻内容,从而减少了外部新闻网站的重要流量。未来,这种政策甚至可能促使搜索引擎加速采用生成式AI来回答用户的询问,而不是显示外部链接。强制付费措施还试图加强报纸对大型技术公司的依赖,因为它们并没有解决谷歌和Meta市场主导地位的结构性原因。基于上述原因,美国科技公司需要制定明确的规则,切实防止有害的广告技术、数据收集和AI行为。反过来,这样的规则也能营造一个更健康、更可持续的网络环境,使新闻编辑室能够长期发展。
1.占主导地位的技术平台需要有明确的事前规则,以防止反竞争行为强化其对新闻出版商的把关权力。
如果竞争环境不公平,双方谈判就不可能奏效。近年来,谷歌和Meta采取措施锁定了数字广告和内容分发的把关人权力,因此它们基本上拥有了报纸运营的联盟。反过来,市场主导地位又使这家搜索巨头能够要求获得高达35%的收益,而这些收益原本是流向出版商的。它还为谷歌提供了充足的手段,迫使新闻网站采用加速移动页面格式,并控制其参与标题竞价的能力等。
这些行为给许多司法管辖区敲响了警钟。2023年6月,欧洲委员会对谷歌的广告技术行为提出了正式的反对声明,认为该公司对数字广告流程各个阶段的控制使其能够非法地使网站出版商处于不利地位。2023年1月,美国司法部同样起诉谷歌,指控其反垄断行为扭曲了广告技术领域的自由竞争,并试图拆分其广告管理器套件。此外,ACCC主席罗德·西姆斯(Rod Sims)当时指出,一般竞争法下的调查和执法程序并不适合处理这类广泛的问题,如果要防止反竞争损害,可能需要花费太长时间。澳大利亚竞争与消费者委员会的报告总结了一个普遍存在的问题:执法行动发生在事后,并不能保证消除多年来帮助谷歌和Meta锁定市场力量并分流新闻机构广告收入的整合行为。
在数字时代,传统的反垄断法需要一种现代化的方法——实施前瞻性的防范措施,以防止占主导地位的技术公司损害新生对手、新闻出版商和整个社会。欧盟最近通过《数字市场法案》(Digital Markets Act)出台了新的事前规则,旨在禁止把关人技术平台滥用对市场多方面的控制。美国国会议员提出了几项包含类似建议的法案,以限制自我优先化和收购等做法,但由于这些法案对恶意软件预防、内容节制和其他问题可能产生的影响引起了争论,其发展势头停滞不前。全面的反垄断改革从来都不是一蹴而就或直接实施的,但它对于防止反竞争收购、增加新闻网站的广告技术选择和收入,以及在整体上促进更加多样化和可持续的新闻生态系统至关重要。
2.技术平台和新闻编辑室都需要正式的防护栏,以促进AI开发和部署过程中的伦理、公平和透明。
在ChatGPT发布后的两个月内,约有1亿个实体注册了ChatGPT,这意味着包括搜索引擎和新闻编辑室在内的众多公司都在直接法律保障措施到位之前部署了大语言模型。美国现有的联邦和州隐私法、版权法、消费者保护法和民权法适用于数字空间的某些方面,但在生成式AI背景下如何解释这些法律还存在广泛的法律不确定性。
2023年7月,白宫宣布OpenAI、谷歌、Meta和其他四家AI开发商自愿承诺投资算法,以“应对社会最大的挑战”,并创建“强大的技术机制,确保用户知道什么时候内容是AI生成的”。在没有直接规范生成式AI的强制性法律框架的情况下,像这些广泛的自愿性原则是第一步,大语言模型开发者需要采取重大举措来实现这些原则。例如,OpenAI在2023年1月发布了一款工具,帮助识别AI生成的文本,但由于错误率较高,该工具在6个月后被撤回。此外,作为一个行业,生成式AI在很大程度上仍然模糊了其收集数据、评估和降低风险以及促进内部问责的方式。
随着政治家们就降低AI风险的强制性保障措施展开更多辩论,考虑即将出台的法律如何更好地支持新闻报道和值得信赖的在线信息共享就显得尤为重要。2023年4月,美国商务部国家电信和信息管理局就审计和认证等AI问责措施发布了一份征求意见稿。诸如此类的透明度措施可以帮助新闻读者评估他们所浏览的AI生成文本的可信度和公正性。这些措施还可以帮助营销人员与MFA网站而非传统新闻出版商就自动广告投放进行竞争。无论任何特定算法的风险程度如何,互联网用户和新闻出版商都可以从提高AI发展的公众可见度中获益。
虽然技术平台需要承担法律责任,以确保AI开发的公平性和问责制,但任何选择部署大语言模型的新闻编辑室在这样做时,也必须制定清晰透明的流程。一些新闻机构已经发布了生成式AI的初步原则。例如,《卫报》和新闻/媒体联盟(NMA)都建议公开披露任何AI生成的结果。《卫报》还承诺保留对AI生成部署的人工监督。然而,在制定和发布正式标准方面存在明显差距:根据世界新闻出版协会2023年5月的一项调查,49%的新闻编辑室受访者部署了大语言模型,但只有20%的受访者实施了正式指南。作为基线,新闻编辑室需要明确部署本地化语言工具的目的或背景,包括条件、保障措施和限制。此外还需要加强对AI部署可能产生重大影响的职位的劳动保护。
3.技术平台应承认新闻机构和人类创作者的知识产权、尤其是在使用受版权保护的文章来训练算法时。
AI开发者通过从人类那里搜刮数十亿篇文章、图片、音频和软件代码来训练大语言模型,通常不对原创作者进行补偿、引用、获取许可,甚至不通知原创作者。在美联社于2023年7月与OpenAI达成许可协议几天后,数千名作家签署了一封公开信,敦促大语言模型开发者在使用作家的作品时,既要征得作家的同意,又要向作家提供补偿。此外,据报道,《每日邮报》正在考虑对谷歌提起法律诉讼,因为谷歌在未经许可的情况下搜刮了数十万篇受版权保护的文章来开发Bard。
生成式AI对现有知识产权的解释提出了新的问题,特别是算法是否属于《版权法》中的合理使用例外。尽管AI开发者承认他们曾在未经同意的情况下抄袭受版权保护的资料,但他们也辩称,生成式AI符合合理使用的条件,因为与原始输入相比,其输出在性质上具有足够的“变革性”。此外,AI生成工具在许多情况下都会复制受版权保护的文本或图像,有时甚至会逐字引用源文本,这可能与“转换性使用”的论点相矛盾。展望未来,“合理使用”和“衍生作品”的定义将是国会或法院澄清的关键,以帮助作家和其他内容创作者在制作AI时行使其知识产权。
但是,即使一些版权持有者设法成功地与AI开发者进行谈判或提起诉讼以获得赔偿,一次性付款也只是一种狭隘的解决方案,无法避免对新闻业和其他专业职业造成更严重的长期影响。此外,许可协议很可能是短期的或有限的,而对作家工作和生活工资的破坏将是永久性的。由于算法会根据过去的输出不断产生推论,要设计一个既能量化原始数据点的货币价值,又能永久跟踪后续使用情况的长期剩余支付系统,即使不是不可能,也是很困难的。
尽管版权侵权诉讼一旦胜诉,不太可能带来长期的剩余解决方案,但它们可能会大大减缓甚至暂停大语言模型的商业销售。一些图片托管网站,如Getty Images,已经禁止使用AI生成的图片,以防遭遇诉讼。就生成式AI而言,更加谨慎和循序渐进的采用步伐或许会对该领域的长远发展有利。AI开发者需要时间来设计创造性的方法,与版权持有者合作,提高训练数据的完整性,并减少其算法对新闻业的整体危害。在没有充分了解这些工具所带来的法律和道德知识产权风险的情况下,他们不应在商业上部署这些工具。
4.有必要制定现代化的数据隐私法规,以遏制基于监控的广告,进而将一些市场权力从大型科技公司手中交还给新闻出版商。
由于大语言模型建立在数十亿篇新闻报道、社交媒体帖子、在线论坛和其他基于文本的网络对话的基础上,因此不可避免地会收集到敏感的个人信息。反过来,它们的自动输出可能会泄露个人详细信息,无论这些信息是准确的还是捏造的,这都会带来隐私和声誉风险。
2023年7月,美国联邦贸易委员会(FTC)要求提供有关OpenAI的训练数据来源、风险缓解措施以及揭示特定人群详细信息自动输出的信息。然而,消费者保护机构主要针对的是从事“不公平或欺骗性”行为的公司,因为美国缺乏一部全面的联邦隐私法来直接规范网站公司如何收集和处理个人信息。第116届和第117届国会提出了数十项隐私法案,这些法案本可以使美国的隐私保护现代化,其中最突出的是2022年的《反隐私法》,但都没有成为法律。
这些美国法案中的大多数都是在ChatGPT公开发布之前提出的,并且完全豁免了公开信息,这一重大疏漏可能会让许多大语言模型(通常是基于从面向公众的网页中扫描的数据进行训练)规避任何即将到来的隐私法律限制。即便如此,对所有技术平台处理非公开个人信息的方式进行系统性限制,仍能极大地帮助一些数字广告资金从谷歌和Meta转移到新闻网站。由于基于个人浏览行为或其他个人属性进行算法跟踪和微目标广告的能力较为有限,营销人员可能会越来越青睐基于网页内容的情境广告。
5.大型技术平台需要强有力的内容审核政策,以促进安全的内容管理和健康的信息生态系统,让新闻机构在其中茁壮成长。
1996年《通信体面法》第230条间接加强了大型社交媒体平台和搜索引擎的把关权力。由于拥有独立选择推广、降级、托管或屏蔽哪些内容的法律权力,技术平台对新闻内容的传播和可见性实施了实质性控制,即使它们与外部网站直接竞争流量和屏幕时间。把关人有经济动机让用户沉迷于他们的平台,这有时意味着通过算法推广吸引最多用户注意力的丑闻或激怒性点击广告,同时将有利于公众利益的新闻报道降级。反过来,更多虚假帖子的涌入也同时增加了记者的敌意,阻碍了读者解析网络垃圾以识别真实新闻的能力。
尽管对第230条的担忧是合理的,但完全废除该法规可能会对新闻行业和互联网用户产生负面影响。第230条保护信息的自由交流,允许技术平台托管新闻内容。反过来,记者可能会失去社交媒体用户,而社交媒体是获取线索和文章创意的多样化资源。独立记者或自由职业记者可能难以维持其网络受众或公共品牌,而规模较小的新闻初创公司可能会在起步时遇到极大的困难,尤其是如果技术平台面临法律压力,不得不只与知名的现有实体合作的话。
相反,许多研究人员,包括一些新闻出版商支持修改第230条的中间方案,或以其他方式为技术平台制定合理的防范措施,以处理有害或非法内容。欧盟将于2024年开始实施《数字服务法案》(DSA),这可能为美国提供一个可行的模式。《数字服务法案》要求技术平台遵守最低透明度标准,如公布内容删除统计数据和解释推荐算法。此外,该法案还要求技术平台保持用户控制,如退出个性化内容排名算法,以及标记非法材料的通知和行动系统。DSA阻止技术平台以儿童为目标投放付费广告,这可能会削弱它们在数字营销方面相对于报纸的优势。该法还要求包括Facebook和谷歌在内的大型数字平台评估其服务的“系统性”和“社会或经济”风险,与经批准的研究人员共享公开数据,并允许外部合规性审计。DSA是要求外部透明度和用户控制排名算法的首批主要法律之一,美国和全球立法者还提出了许多其他框架。每项提议都引发了一系列争论,但重要的是要权衡潜在措施如何能更好地促进新闻业在一个健康的生态系统中茁壮成长。
6.各国政府应推行承认新闻业作为公益事业的价值的政策。
新闻业创造了积极的外部效应,受益者远远超过直接订阅客户或读者。新闻编辑室投入大量资源,为公众利益搜集、核实和传播信息,而记者则作为独立机制对强大的机构进行问责。然而,其巨大的社会价值并不适合其所处的自由市场资本主义体系。新闻编辑室的收入来源于广告和订阅,而非他们所传播信息的公共利益,这使得他们的整体底线很容易受到排名算法、读者或市场需求,甚至宏观经济波动的影响。
一些政府认识到新闻业的公民价值,考虑为新闻业提供直接或间接的公共资金。然而,公共资金不一定在每个国家都行得通,尤其是考虑到围绕新闻独立性的法律、文化和政治规范各不相同。美国政客与主流媒体和科技公司之间的关系尤为复杂,这从他们对公共新闻系统的支持力度不足就可见一斑。
除公共资金外,政府还可考虑通过其他途径帮助报纸实现收入来源多样化,从而减少对不稳定流量的依赖。国会还可以考虑建立一些机制,帮助新闻编辑室作为非营利组织或混合组织发挥作用,例如,改变阻止非营利性编辑委员会为候选人背书的规定。尽管如此,单靠非营利机构的身份并不能一劳永逸地解决问题;基金会赠款的数量有限,而且现有新闻订阅者的比例相对较低,这表明不能依靠草根捐赠者来维持新闻业的发展。
四、结 论
随着AI变得越来越普遍,新闻行业将需要在一个更加拥挤、更加混乱、更加缺乏原创性的信息生态系统中开辟出自己的空间。从短期和长期来看,技术平台与新闻编辑室之间的关系将继续发展,但现在必须建立强大的数据管理框架,以支持报纸的财务可行性,并培养一个多样化、值得信赖的在线领域。大型搜索引擎和社交媒体平台需要对个人信息的货币化、广告投放、收购新兴竞争者、自我优先化等排他性行为、版权材料的使用、在线流量的放大或缩小等方面有明确的界限。反过来,技术平台和新闻编辑室都需要承担明确的责任,在AI开发和部署过程中的每一个阶段制定道德和以人为本的标准。
新闻业的长期健康和可持续发展需要的不仅仅是技术解决方案。为新闻编辑室提供直接的资金支持至关重要,无论是通过非营利模式、直接或间接的政府资助,甚至是非传统的货币化方式。但是,无论是新闻业的生产要求还是社会效益,都无法单独转化为资金。要想取得成功,新闻机构还需要一个公民参与的社会,以批判性思维和对社区的集体利益为纽带。此外,企业高管亟需优先考虑撰稿人的投入和福利,包括通过工作保护和工会合同,以维持新闻业作为一个稳定和可获得的职业选择。最终,技术平台、新闻编辑室、政府和个人今天所采取的行动将决定新闻业的长期发展轨迹。
免责声明:本文转自元战略,原作者Allen Wang。文章内容系原作者个人观点,本公众号编译/转载仅为分享、传达不同观点,如有任何异议,欢迎联系我们!
推荐阅读
转自丨元战略
作者丨Allen Wang
研究所简介
国际技术经济研究所(IITE)成立于1985年11月,是隶属于国务院发展研究中心的非营利性研究机构,主要职能是研究我国经济、科技社会发展中的重大政策性、战略性、前瞻性问题,跟踪和分析世界科技、经济发展态势,为中央和有关部委提供决策咨询服务。“全球技术地图”为国际技术经济研究所官方微信账号,致力于向公众传递前沿技术资讯和科技创新洞见。
地址:北京市海淀区小南庄20号楼A座
电话:010-82635522
微信:iite_er
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...