二维码

AI Alignment播客:中国与杰弗里丁的AI超级大国梦

1826 人阅读 | 时间:2019年09月19日 09:28

“2017年7月,中国国务院发布了新一代人工智能发展计划。 该政策概述了中国在未来几年建立价值近1500亿美元的国内人工智能产业的战略,并在2030年成为领先的人工智能。这正式标志着人工智能行业的发展成为国家优先事项,并被纳入  总统习近平对中国宏伟愿景 “(FLI的AI政策-中国页)在这些发展的背景下,并增加了关于AI和中国对话,卢卡斯谈到杰弗里·丁中心AI的治理(GovAI)杰弗里是GovAI的中国领导者,他研究中国的人工智能发展和战略,以及中国更广泛的战略技术方法。 

本集讨论的主题包括:

  • 中国与技术发展的历史关系

  • 中国的AI目标和最近发布的一些原则

  • 杰弗里丁的作品,解读中国的AI梦

  • AI的核心驱动因素以及由此产生的中国人工智能战略

  • 中国AI能力

  • AGI和中国的超级智能意识和思考

  • 消除AI神话,促进适当的模因

  • 美国和中国之间的健康竞争可能是什么样子

您可以在此处进行简短的(3分钟)调查,以分享您对播客的反馈。

 

杰弗里的要点: 

  • “即使你不认为中国的人工智能能力与媒体和其他地方的大肆宣传一样强大,重要的参与者也会把中国视为一个怪物人物,或者是一个狡猾的唤醒者激励者......其他关键角色将这作为一种叙述,作为一个Sputnik时刻,以证明他们想要做的任何政策。因此,我们希望了解正在发生的事情,以及围绕中国人工智能发展情况的对话如何展开。“

  • “肯定存在分歧,但我们不想夸大它们。我认为中国的分析往往发生在一个真空中,就像'哦,这只发生在这个神秘的遥远的土地上,我们称之为中国,它不会发生在其他任何地方。Shoshana Zuboff拥有这本关于监视资本主义的伟大着作,其中展示了美国方面的隐私侵权行为是如此广泛,不仅来自大公司,还来自国家安全机构。所以我认为社会信用体系正在发生类似的现象。耶鲁大学法律中心杰里米·多姆(Jeremy Dom)表示,“我们经常将对人工智能技术的最大担忧投射到中国正在发生的事情上,”

  • “我认为我们必须谨慎选择我们选择的历史类比和模因。因此,“军备竞赛”是对冷战背景的一个非常具体的回应,其中几乎是我们正在与苏联竞争的这些离散类型的导弹以及我们可以计算的离散应用; 甚至可以追溯到一些学者称之为19世纪后期英国和法国之间的第一次军事领域的工业军备竞赛。所有这些实例都可以算数。法国有四个铁人,英国有四个铁人; 他们正在竞相看谁能建造更多。我认为没有那样的东西。没有这种谨慎的事情,我们正在竞相看谁能拥有更多。如果有的话,这是关于谁能更好地从国外吸收AI进展的竞赛 所以这就是我真正想消除的一种模因。与此相关的是,经常影响我们对此的讨论的假设是技术民族主义的假设,即这种观念认为技术包含在国家边界内,民族国家是最重要的行为者 - 这是正确的和良好的一个人有很多实例。但是也有充分的理由采用技术全球主义假设,特别是在技术如何快速扩散的领域,以及在这个国家层面的竞争中,来自不同国家的公司正在共同努力并相互建立标准联盟。所以这就是技术全球化的暗流,那里有人流,观念流,公司流动发生的同时,报道和性感话题总是关于国家级竞争,零和竞争,相对游戏修辞。所以你试图在这两个流之间找到平衡点。“

  • “我认为目前美国很多人都陷入这种心态,世界上唯一存在的两个人是美国和中国。如果你看一下我们的谈话,那么,我也经常表现出这种偏见。我们应该在这个空间和网络中谈论更多关于中欧企业或中日企业的问题,因为那里也发生了很多事情。所以很多美国政策制定者认为这是美中之间的双人游戏。然后从这个意义上说,如果有一些关于使用人工智能发现蛋白质的癌症研究项目,可能会使中国获益10分,并且仅使美国受益8分,但是如果你只关心它会拯救很多人免于癌症关于保持领先于中国的一切,那么你可能不会接受这笔交易。

 

重要时间戳: 

0:00介绍 

2:14谈话的动机

5:44关于中国和人工智能的历史背景 

8:13中国和美国的人工智能原则 

16:20杰弗里丁的作品,解读中国的AI梦 

21:55中国政府是否在制定法规方面发挥了核心作用? 

23:25中国实施的法规和标准能否比美国更快?中国购买公司股票是否具有决策权? 

27:05中国人工智能的组成部分和驱动因素以及它们如何影响中国人工智能战略 

35:30中国政府人工智能发展指导基金 

37:30分析中国的人工智能能力 

44:20考虑到当前的世界状况,人工智能和人工智能战略的未来意义 

49:30 AGI和超级智能在中国有多重要?

52:30 AGI在中国是否有明确的技术AI研究项目? 

53:40消除AI神话并促进适当的模因

56:10国际政治的相对和绝对收益 

59:11 Peter Thiel最近关于超级智能,人工智能和中国的评论 

1:04:10自杰弗里写下解读中国的AI梦以来的重大更新和变化 

1:05:50中美之间的健康竞争是什么样的? 

1:11:05在哪里跟随杰弗里并阅读更多他的作品

 

作品参考 

解读中国的AI梦想

FLI AI政策 - 中国页面

ChinAI通讯

杰夫的Twitter

以前的播客与杰弗里

 

我们希望您继续加入我们的对话,方法是关注我们或订阅YoutubeSpotify,  SoundCloudiTunesGoogle PlayStitcher,  iHeartRadio或您首选的播客网站/应用程序中的播客。您可以在此处找到所有AI Alignment Podcast。

您可以收听上面的播客或阅读下面的成绩单。 GovAI的更多作品可以在这里找到。

 

卢卡斯佩里:大家好,欢迎回到The Future of Life Institute的AI Alignment Podcast。我是Lucas Perry,今天我们将与中国人类未来研究所的Jeffrey Ding以及他们在2030年成为领先的AI超级大国的努力进行对话。在这个播客中,我们提供了一个关于中国历史技术努力的大量描述性报道。 ,他们目前推动中国人工智能成功的意图和方法,在中国内部需要一些基本的人工智能原则; 我们涵盖人工智能进步的驱动因素,成功的组成部分,中国这些变量所产生的战略; 我们还评估了中国当前和未来的人工智能能力,以及所有这些联系在一起的后果。FLI AI Policy China页面和Jeffrey Ding的出版物Deciphering China的AI Dream是这次对话的重要推动者,

如果您发现此播客有趣或有用,请考虑在社交媒体平台,论坛或您认为可能被认为有价值的任何地方与朋友分享。与往常一样,您可以通过跟踪您可能在哪里找到此播客的说明中的SurveyMonkey链接为我提供反馈。 

Jeffrey Ding专注于人工智能战略和中国更广泛的战略技术方法。他是人工智能治理中心的中国领导者。在那里,杰夫研究中国人工智能的发展,他的作品在华盛顿邮报,南华早报,麻省理工学院技术评论,彭博新闻,石英等网站上被引用。他能说一口流利的普通话,曾在美国国务院和香港立法会工作。他还在牛津大学读罗德学者的国际关系博士学位。所以,不用多说,让我们跳进与Jeffrey Ding的对话。

让我们开始吧,先为今天的对话提供一些动力。那么为什么中国对人工智能的协调很重要呢?我们为什么要进行这种对话?为什么人们担心美中AI动态?

Jeffrey Ding:两个主要原因,我认为它们遵循“即使”结构。第一个原因是中国在全面的国家AI能力测量方面可能仅次于美国。这是一个非常难以衡量的抽象事物。但是,如果你正在考虑哪些国家的公司处于技术前沿,大学,研究实验室,然后是工业领域的领先,以及与人工一般情报相关项目的潜在投资。我认为中国仅次于美国,至少就我的直觉和我在这个问题上所做的分析而言。

第二个原因是,即使你不认为中国的人工智能能力与在媒体和其他地方大肆宣传一样强大,重要的参与者也会将中国视为一个怪物形象或者作为一个Sputnik类型的唤醒动机。你可以在美国特别是今天的言论中看到这一点,甚至在那些不一定联系的领域。所以Axios有一份泄露的美国国家安全委员会备忘录,该备忘录正在谈论集中美国电信服务以准备5G。在备忘录中,其中一个理由是因为中国在人工智能方面取得了进步。备忘录并没有将两者结合在一起。有联系--5G可以赋予不同的人工智能技术 - 但这是一个明显的例子,即使中国的AI能力如何,特别是与AGI有关的项目,并不像报道的那样具有实质性,或者我们认为,其他主要参与者会将其作为一种叙述,作为一个Sputnik时刻来证明他们想要做的任何政策。因此,我们希望了解正在发生的事情以及围绕中国人工智能开发正在发生的事情的对话是如何展开的。

Lucas Perry:第一个方面是他们基本上是第二个最强大的AI开发人员。我们可以稍后进入他们对美国的相对实力; 我认为,根据您的估计,相对于美国,他们的AI能力只有一半。在这里,第二个是你所说的 - 在AI Alignment中有关于如何避免比赛很重要的常见模因,因为在比赛中,演员有动力偷工减料以便通过率先部署来获得决定性的战略优势先进的人工智能形式 - 你说,实际了解中国人工智能发展的关系和状态,以消除煽动性的种族叙事,这是一个重要的需求吗?

Jeffrey Ding:是的,当我们谈论人工智能军备竞赛以及至少美国政策制定界的谈话时,我会说中国可能是大多数种族叙事的中心 - 这是我最关注的,美国国家安全界 -没有必要谈论人工智能作为人工智能的决定性战略优势,但绝对是决定性的战略优势,谁拥有更多的生产力,军事力量。所以,是的,我同意这一点。

卢卡斯佩里:好吧,让我们在这里提供一些更多的历史背景,我认为,在这种背景下,为什么会有关于中国在人工智能空间中的作用的讨论日益增多。所以我从FLI AI政策中国页面来看这里:“2017年7月,中国国务院发布了新一代人工智能发展计划。这是一项人工智能研究战略政策,旨在在未来几年内建立一个价值近1500亿美元的国内人工智能产业“ - 再次,这是在2017年 - ”并在2030年成为领先的人工智能产业。这正式标志着发展作为国家优先考虑的人工智能部门,它被包含在习近平主席对中国的宏伟愿景中。“只是在这里添加一点颜色:”鉴于此,

但继续这张照片,我正在画画:“五年之后,它要求人工智能内的选择学科取得突破” - 这将是到2025年。“这将成为经济转型的关键推动力。然后在最后阶段,到2030年,中国打算成为世界首屈一指的人工智能创新中心,这将成为一个新的国家领导者,并建立一个经济大国的关键基础,“用他们的话说。因此,中国在过去几年中一直在发展这种非常明确,有意的立场。

杰弗里丁:是的,当然。而且我认为Jess Newman在中国的网页上整理了人工智能政策 - 做得很好。这是对2017年7月发布的新一代人工智能发展计划的一个很好的总结,我想说这个计划更能反映出百度,腾讯,阿里巴巴等公司在地方层面已经发生的势头,转而专注于人工智能作为其业务战略的核心部分。深圳,其他城市,已经建立了自己的地方基金和计划,这是中国国民政府的一个实例,用我认为保罗·特里奥洛和新美国的其他人的话来说,“骑浪潮”,有点加入这股人工智能发展浪潮。

卢卡斯佩里:所以再次增加一点颜色:在这种背景下,也有人支持原则的发展。我想说可能关于AI的第一个主要原则是在Asilomar会议上制定的,至少是那些与AGI有关的原则。2019年6月,新一代AI治理专家委员会发布了下一代人工智能治理原则,其中包括和谐友好,公平正义,包容性和分享,开放式合作,共同责任和敏捷治理等租户。 

然后在2019年5月,北京AI原则发布。这是一个多利益相关方联盟,包括北京人工智能学院,中国的一些顶尖大学,以及百度,阿里巴巴和腾讯等工业公司。除其他外,这15项原则要求“建设一个具有共同未来的人类社区,并为人类实现有益的人工智能。”因此,似乎原则和意图在中国也有类似的发展回声并反映了各州正在发展的许多原则和意图。

Jeffrey Ding:是的,我认为肯定有很多相似之处,而且我认为不仅仅是最近这一系列人工智能道德文档你已经做了很好的总结。它可以追溯到我们刚才谈到的计划。如果你仔细阅读2017年7月的新一代人工智能计划,那里有很多关于人工智能道德的部分,包括一些担心人类机器人异化的部分。

因此,根据您的阅读方式,您可以阅读,因为已经预见到如果人类目标和AI目标不一致可能会出现的一些问题。即使在3月份,我相信,在2018年,许多政府机构与公司一起推出了一份关于人工智能标准化的白皮书,我将其翻译为新美国。在这方面,他们谈论人工智能安全和安全问题,确保人工智能的设计目标与大多数人的利益,道德和道德一致是如此重要。所以很多这些话题,我甚至不知道它们是否是西方主题。这些只是基本概念:我们希望系统可控且可靠。是的,那些在AGI意义上具有更深层含义,

卢卡斯佩里:所有的仇恨和姿态,以及美国和中国之间发生的一切,这些正在形成的原则和意图,至少在人工智能方面 - 这两者都具有国际意图人类的共同利益; 至少这些是这些文件中所述的内容。您如何看待美中两国在这些原则方面的日常斗争和竞争的现实,这些原则致力于为更广泛的人类共同利益而部署人工智能,而不仅仅是在一个国家?

杰弗里丁:这是一个非常好的问题。我认为要澄清的第一点是这些陈述除非它们得到执行,否则它们背后没有它们,除非有资源专门用于资助这些问题的研究,追踪1.5,跟踪2外交,研究人员之间的技术会议。这些只是人们可以发出的声明,除非实际执行,否则他们没有牙齿。通常,我们知道情况就是这样。谷歌和微软,亚马逊等公司将推出有关面部识别的原则或他们的道德立场,但在幕后他们将追逐利润动机并最大化股东价值。而且我会说腾讯,百度,阿里巴巴也会如此。所以我想先澄清一下。竞争动态是真实的:它不仅仅是一个人工智能故事,而是一个关于中国崛起的更广泛的故事。我来自国际关系背景,所以我是牛津大学的博士生,研究这一点,文学中有一个关于当一股崛起的力量挑战既定力量时会发生什么的大辩论。通常会出现摩擦,而且是如何在不导致事故,误判和军备竞赛的情况下管理这些摩擦。这是它的艰难部分。

Lucas Perry:看来 - 至少对于一个基线来说,我们认为我们在人工智能调整过程中还处于早期阶段还是我们所拥有的长期愿景 - 似乎至少理论上存在一些共同的基本原则反映两种文化。同样,这些北京人工智能原则也包括着重于造福全人类和环境; 服务于隐私,尊严,自由,自治和权利等人类价值观; 持续关注人工智能安全保障; 包容性,开放性; 支持国际合作; 并避免恶意AI竞赛。所以现在的问题似乎只是:实现这些共同原则,确保它们表现出来。

杰弗里丁:是的。我并不是要蔑视这些努力来制定至少表达全人类规划修辞的原则。我认为,过去中美合作的确有很多领域也与其中一些原则相呼应:气候变化研究的双边合作; 有一个很好的核安全合作模块; 我们研究过的不同中心。但与此同时,我也认为即使您刚才提到的术语列表,双方在理解不同术语方面也存在一些差异。

因此,在中国背景下隐私,中国人或政治行为者不一定关心隐私。隐私可能意味着更多的隐私作为工具权利,以确保您的财务数据不会泄露,您不会丢失所有的钱; 确保您的消费者数据免受公司的侵害; 但不一定在其他情况下,隐私被视为一种内在的权利,作为一种民事权利,其中也包括个人对政府监督的保护。这种类型的保护措施并没有像中国的隐私谈话一样受到影响。

Lucas Perry:是的,所以对于我们必须要导航的一些原则,我们会有不同的理解。再一次,你提出了隐私作为一种东西 - 这是人们一直在关注的东西,因为有这种炒作,可能对中国社会信用体系有点歇斯底里,并且有很多误解在那附近。

杰弗里丁:是的,这与我最近一直在思考的很多事情有关,这肯定存在分歧,但我们不想夸大它们。我认为中国的分析常常发生在一个真空中,就像是,“哦,这只发生在我们称之为中国的神秘遥远的土地上,并不会发生在其他任何地方。”Shoshana Zuboff有一本关于监视资本主义的伟大着作,隐私侵犯在美国方面是如此广泛,不仅来自大公司,还来自国家安全机构。

所以我认为社会信用体系正在发生类似的现象。耶鲁大学中国中心的Jeremy Dom说得非常好,他说:“我们经常将对人工智能技术的最大恐惧投射到中国正在发生的事情上,我们通过一个黑暗的玻璃看,我们释放所有的焦虑。发生在中国而没有反思美国发生的事情,英国正在发生什么。“

卢卡斯佩里:对。我猜想,通常在人类心理学中,似乎更容易看到对方的邪恶,而不是自我。

Jeffrey Ding:是的,这对我来说有点超出了范围,但我确信有关于此的研究。

卢卡斯佩里:是的。好的,现在让我们来谈谈你破译中国AI梦想的工作。这是您在2018年发表的作品,在这项工作中,您分为这四个不同的部分。首先,你研究上下文,然后讨论组件,然后讨论功能,然后讨论与中国AI相关的所有后果。您想要解压缩结构吗?

杰弗里丁:是的,这只是一篇描述性的论文。我刚刚开始研究这个领域,我只是有一堆基本问题。因此,问题的第一个问题是:中国人工智能战略的背景是什么?它与其他国家的计划相比如何?它与过去的科技计划相比如何?第二个问题是,他们在推动人工智能发展的推动力方面做了些什么?这就是组件部分。第三个问题是,他们的表现如何?这是关于评估中国的人工智能能力。然后是第四个,所以这意味着什么?为什么这有关系?这就是我谈论中国人工智能对人工智能安全相关问题的影响的后果和潜在影响,我们一直在谈论的一些AGI问题,国家安全,经济发展,

Lucas Perry:让我们继续前进并顺序完成这些。我们已经在这里讨论了一些关于中国正在发生的事情的背景,至少是故意的立场和一些原则的发展。在这里,您是否还有其他关于中国人工智能战略的关键方面或领域的过去的科学技术?只是为我们的听众画一幅画。

杰弗里丁:是的,当然。我认为你可以看到的两个关键技术是增加中国航天工业,航空航天业的计划; 然后还有生物技术。因此,在其他每个领域都有国家级战略计划; 设立了一个机构或办公室来管理这项国家计划; 专项资金很多。通过新一代人工智能计划,在负责实施计划的一系列不同部门中也建立了一种实施办公室。

人工智能也被提升到国家战略技术的水平。那么这两个阶段有什么不同呢?因为太空计划和生物技术计划的成功有多大值得商榷。与人工智能的不同之处在于,您已经拥有了大型科技巨头,他们正在追求人工智能,并拥有将大量投资转移到人工智能领域的资源,独立于政府资助机制:百度,腾讯,阿里巴巴等公司,甚至是创业公司。真的像SenseTime一样崛起。而且你看到这反映在模型的类型中。

它不再是传统的全国冠军模式,政府几乎可以从头开始建立一个公司,也许是在国际金融机构和投资者的帮助下。现在,这是一个国家团队模式,他们要求这些领先的科技巨头的支持,但这并不像这些科技巨头依赖政府补贴或资金生存。他们已经成为具有国际影响力的蓬勃发展的公司。

我要补充的另一个背景是,如果你看一下新一代计划,就会有很多与制造有关的术语。我在解读中国的AI梦中提到过,制造计划有很多联系和回调。而且我认为这是关键,因为这是中国争取人工智能的一个方面,因为他们希望摆脱中等收入陷阱,并在制造链中获得更高水平的增值。所以我想强调这是一个关键的上下文点。

卢卡斯佩里:所以这里的框架是中国政府正在努力使已经存在并已经成功的公司。这与美国和英国形成鲜明对比,似乎政府甚至不是团队合作的一部分。

杰弗里丁:是啊。因此,对于技术标准的发展,可能会有一个很好的比较,这不仅是对这个破译中国梦论文的重点,也是后来很多工作的重点。所以我在谈论技术标准,比如你如何衡量面部识别系统的准确性,以及谁来设定这些措施,或者为不同的AI应用设定产品安全标准。而在许多其他国家,包括美国,其过程更为分散。它主要通过行业联盟来完成。NIST是美国商务部下属的一个机构,它在一定程度上帮助协调,但不像中国标准管理委员会(SAC)所做的那样多,我相信。在那里,更多的是集中努力来创建技术标准。这两者都有利有弊。

通过更分散的方法,您可以通过过早设置标准来最大限度地降低技术锁定的风险,并且您可以让公司拥有更多的自由和竞争。尽管采用更加集中的自上而下的努力可能会导致标准的早期协调,并且当您拥有更多可互操作的协议时,可以利用规模经济。这有助于数据共享,帮助为不同的公司创建稳定的测试平台,以竞争和衡量我之前谈论的内容,如算法准确性。所以这两种不同的方法有利有弊。但我想是的,这确实说明了公司与政府之间的关系如何有所不同,至少在标准制定的背景下如此。

Lucas Perry:那么除了标准制定之外,你会说中国政府在监管方面扮演更重要的角色吗?

杰弗里丁:这是个好问题。它在监管领域可能有所不同。因此,我认为在某些情况下,公司愿意让公司进行实验,然后再制定法规。所以这是移动支付的典型例子:对于像支付宝这样的平台,微信支付这些平台如何能够处理一个灰色的法律领域肯定是一个灰色的空间,因为谁可以处理这些传统上掌握在手中的钱。银行。中国政府没有立即压制它,而是让它自己发挥作用,然后一旦这些移动支付平台变得足够大,以至于它们拥有如此多的资本并对货币存量产生如此大的影响,那么他们开始起草法规,几乎被视为银行。

在人工智能方面,有人说美国和中国在监管方面可能更接近,这比欧盟更不干预。而且我认为这只是AI生态系统结构差异的一部分产品。欧盟很少有大型互联网巨头和人工智能算法公司,所以他们更有动力去监管其他国家的大型科技巨头和人工智能公司。

卢卡斯佩里:所以有两个问题即将来临。一个是,中国政府是否有足够的团结和协调,以便当需要实施标准和法规或人工智能的决策时,他们能够比美国政府更快地行动?第二件事是,我相信你也提到中国政府也试图找到利用潜在政府资金购买这些公司股票的方法,并试图获得决策权。

杰弗里丁:是的,我会从后者开始。参考是建立特殊管理股份:所以这些几乎是象征性的,不到公司股份的1%,这样他们就可以获得董事会席位 - 或者其他工具是通过建立党内委员会公司,所以总有一个领导党领导。我对这些如何运作没有那么多的了解。我认为可能公平地说,许多这些公司的日常和长期规划决策大多只是由他们的领导层所希望的,而不一定是党领导人想要的,因为它很难微观管理这些数十亿美元的巨头。

这是国有企业部门改革中发生的很多事情的一部分,我认为这是国资委 - 有很多缩略语 - 但这是控制国家的机构 - 他们拥有的企业,他们大大减少了他们直接监督的企业数量,并专注于大企业,如大银行或大型石油公司。

关于政策执行顺利的第一点,这不是我仔细研究过的。我认为在某种程度上政府所做的事情会有更多变化。所以我在某处读到,如果你看一下中国大型科技公司与美国大型科技公司的政府关系部门,中国方面的情况就更多了 - 尽管这可能会随着美国近期的发展而改变。我现在想到的两个案例是中国政府担心上瘾游戏,然后发布禁止一些游戏的禁令,包括腾讯的PUBG,这已经破坏了腾讯的游戏收入,并且真的伤害了他们的股票价值。

所以这对于美国政府而言非常难以说,“嘿,这场比赛被禁止了。”与此同时,这场比赛有很多混乱,这就是为什么我在教诲和模棱两可而不是真的给你一个稳定的答案,因为地方政府没有很好地实施。有很多当地中心的关注。特别是技术方面的问题 - 美国也是如此 - 政府中没有那么多的技术人才。因此,如果您不了解技术,那么很多这些技术隐私问题很难制定出良好的法规。所以他们一直在努力做的是审核不同社交媒体科技公司的隐私政策,他们从最大的10家公司开始,并试图审核它们。

卢卡斯佩里:所以你说中国政府和美国一样,缺乏很多科学或技术专长?我脑子里有一些想法,许多中国市长或其他政治人物实际上拥有工程学位或科学学位。

杰弗里丁:这绝对是真的。但我的意思是,通过技术专业知识,我的意思是美国政府对数字服务团队所做的事情,他们让那些曾在尖端科技公司工作的人为政府工作。这类东西在中国很有用。

Lucas Perry:让我们继续讨论第二部分,讨论组件。在这里,您将中国人工智能战略的主要特征与人工智能开发的驱动因素联系起来,在这里,您所说的人工智能开发的驱动因素是用于训练和执行AI算法的芯片形式的硬件,数据作为AI算法的输入,研究和算法开发 - 所以实际的AI研究人员在构建数据的架构和系统上工作,然后是商业AI生态系统,我认为这些生态系统支持并提供前三个方面。您如何看待中国这些组件的状况以及它如何影响中国的人工智能战略?

Jeffrey Ding:我认为我想在此强调的主要问题是,中国政府正在努力填补一些空白,其中很多是关于帮助人们,已经开展工作的公司。其中一个差距是私营企业倾向于对基础研究投资不足或者对更广泛的教育投资不足,因为他们没有获得所有这些收益。因此,政府不仅要支持人工智能作为国家级学科,还要建立人工智能研究所,帮助资助人才计划,以吸引海外领先的研究人员。这就是它的一部分。 

第二部分,我在本节的报告中没有谈到这一点,但我最近研究的越来越多,是政府更积极地推动事情的地方,当他们是最终的终端客户。因此,在监控行业领域绝对是这样:省级公安局正在与公司合作,在硬件,数据,研发和整个安全系统集成过程中开发更先进的高科技监控系统。

卢卡斯佩里:在这里扩展,也有这种理解中国人工智能战略的方式,因为它与先前的技术有关,以及它是如何相似或不同的。类似的方式涉及强有力的国家支持和干预,技术和人才的转移,以及对长期社会整体措施的投资; 我在这里引用你的话。

杰弗里丁:是的。

卢卡斯佩里:此外,你说中国正在采用追加方法来培训和执行人工智能算法。这表明不对称,大多数芯片制造商不在中国,他们必须从Nvidia购买。然后你继续提到如何获取大量数据是人工智能系统的重要驱动因素,中国的数据保护主义有利于中国的人工智能公司和从中国大型国内市场获取数据,但它也有损于跨境汇集数据。

Jeffrey Ding:是的,只是为了扩展这一点,DigiChina的人们进行了很好的研究,这是一个关注网络安全法的新美国研究所 - 我们仍然在弄清楚这将是怎样的完全实施,但原始草案将阻止公司收集在中国境内收集并将其带到中国境外的数据。

实际上,DigiChina的这些人指出,对这项法律的一些主要强烈抵制不仅来自美国跨国公司,还来自中国的跨国公司。数据保护主义的这一方面说明了一个关键的权衡:从某种意义上说,国家和国家安全参与者正在将个人数据作为一种国家安全资产来评估勒索风险。所以这就是美国的整个Grindr案例,我认为Grindr受到美国政府的鼓励或强烈鼓励,无法找到非华人所有者。因此,在一个方面,您希望保护个人信息,但另一方面,免费数据流对于刺激收益和创新以及其中一些大型公司至关重要。

Lucas Perry:这里是否有兴趣向国外的其他公司出售他们的数据?这就是他们反对中国数据保护主义的原因吗?

Jeffrey Ding:我对这个特例并不是很了解,但我认为阿里巴巴和腾讯在世界各地都有实验室。因此,他们可能希望将他们的数据整理在一起,因此他们担心网络安全法会影响到这一点。

Lucas Perry:这里只是为听众强调,访问大量高质量数据对于有效地训练模型和机器学习系统非常重要。数据是一种新的非常有价值的资源。所以你继续在这里说,我再次引用你的话,“中国也在积极招募和培养有才能的研究人员来开发人工智能算法。国务院的人工智能计划概述了一种双管齐下的聚会和培训方式。“这似乎非常重要,但从您的报告中看,中国在很大程度上也失去了人工智能人才。你能说些什么呢?

Jeffrey Ding:人工智能开发中最常见的瓶颈通常是缺乏技术人才。这个差距最终将基于市场上的纯粹运营来填补,但与此同时,人才关注人才,无论是通过一些国家人才计划,还是通过地方政府提供税收减免等方式适用于可能在世界各地设有总部的公司。

例如,Jingchi是一个自动驾驶创业公司,他们认为他们是加利福尼亚州的主要基地或加利福尼亚州的主要基地之一; 但是深圳或广州,我不确定它是哪个地方政府,他们给了他们基本上免费的办公空间,将他们的一个基地搬回中国,并带来了许多有才能的人。你是对的,许多最优秀和最聪明的人也去了美国公司,招聘中国学生的关键渠道之一是在北京设立微软亚洲研究院等海外研究和开发实验室的大公司。

然后我会指出第三件事,这是我最近注意到的事情,当时我正在从科学和技术媒体平台进行翻译,特别关注人才空间:他们已经指出有时候聚会和训练木板之间的紧张关系。所以中国国内的研究人员都抱怨过,所以也许你有两位才华横溢的博士生。一个决定留在中国,另一个决定出国留学。通常情况下,人才计划 - 招聘,聚集这一人才政策 - 将有利于出国博士后留在中国的人,他们可能同样出色。那么这实际上为更多人出国创造了动力。一直有很好的研究表明,许多最优秀和最聪明的人最终留在国外; 对于计算机科学领域的中国博士生来说,特别是美国的住宿率非常高。

卢卡斯·佩里:关于离开美国去中国探望家庭并回来,你对中国博士生焦虑情绪有什么看法?我听说,由于他们的研究主要关注人工智能,并且美国越来越多地怀疑间谍或其他什么,因此可能会因为不被拒之门外而感到焦虑。

Jeffrey Ding:我不知道最近的发展有多少,但我认为只是在申请永久居留权的不同阶段时 - 无论是申请H-1B签证还是申请H-1B签证绿卡管道 - 我听说只是二手,他们避免出国旅行或回去探亲,只是为了表达他们在美国居住的承诺。所以我不知道最近有多少。我的父亲,实际上,他在爱荷华大学开始担任数学博士生,然后转到计算机科学,我记得我们家里有一个人去世,他不能回去,因为在他逗留期间这么早。因此,我确信这对许多在美国的中国留学生来说是一个矛盾的情况。

卢卡斯佩里:所以在这里移动并结束这个组成部分,你也在这里说 - 这可以追溯到我们之前讨论的政府指导基金 - 中国政府也开始在资助AI企业方面发挥更积极的作用,帮助发展人工智能开发的第四个驱动因素,这也是商业人工智能生态系统,它支持并且是硬件数据和算法开发研究的背景。因此,中国政府通过地方政府和国有企业设立的政府指导基金或GGF来支付资金。政府已向国内创业公司投资超过10亿美元。这似乎与美国在这方面的作用形成鲜明对比,

杰弗里丁:对,是的。因此,GGF是一个有趣的融资工具。中国货币网络,我认为这些车辆的最佳英语覆盖率,说它们可能是历史上使用州议会大厦重塑国家经济的最大实验。这些基本上是公私合作伙伴关系,PPP,在世界各地,美国都存在。这个想法基本上是国家的种子和锚定这些投资工具,然后他们与私人资本合作,也投资创业公司,政府认为或者支持特定政策倡议或有利于整体发展的公司。

由于公众可获得的信息相对稀缺,因此很难解读迄今为止的影响。我在报告中提到这些资金尚未成功退出,这意味着他们可能只需要更多时间。我认为还有一些人抱怨大型风险投资公司 - 无论是中国的风险投资公司,还是拥有中国风险投资的国际风险投资公司 - 他们更愿意只是自己去做而不是依赖于所有的条款和潜在的法规与政府合作。所以我认为这绝对是一个时间的例子,而且这是一个非常肥沃的研究领域,我知道有些人正在研究。因此,请留意关于这些GGF的更多结论性发现,特别是它们与新兴技术的关系。

卢卡斯佩里:好吧。因此,我们将进入您的能力部分,该部分评估中国人工智能开发的四个驱动因素的当前状态。在这里,您正在构建一个AI潜在指数,这是一个基于这四个变量的国家潜力的指数,能够创造成功的AI产品。因此,根据您的研究,您给中国的AI潜在指数得分为17,这大约是美国AI潜力指数得分为33的一半。因此,您在此声明从这一发现中得出的必要条件是相对的中国和美国之间的规模,或至少是相称性。因此,我们可以从中得出的结论是,除了获取数据之外,中国在每个驱动因素中落后于美国,而在所有这些方面,中国的能力只有美国的一半。

Jeffrey Ding:是的,所以AIPI,AI潜力指数,绝对只是作为制定衡量标准的第一步,我们可以对此进行比较。我认为当时,甚至现在,我认为我们只是抛出诸如“人工智能领先者?”之类的东西。我正在读这篇最近的一篇文章,就像“中国是GAN的世界领导者”,GA- Ns,Generative Adversarial Networks。这甚至不是一个连贯的主张。您是否正在培养能够推动GAN发展的人才?您是在军事领域应用和部署GAN的领导者吗?您是否是制作与GAN相关的大多数出版物的领导者?

我认为这让我对不同国家的人工智能能力的对话和网络评估感到沮丧,所以这就是为什么我试图建立一个更系统的框架来看待不同的驱动因素,而且基本上是在考虑国家的潜力是什么基于这些驱动程序的标记的AI功能。

从那时起,我所做的主要事情可能就是我在美国中国经济与安全审查委员会面前的书面证词,在那里我对我如何评估中国和美国目前的人工智能能力进行了一些调整。 。基本上我们可以使用这种非常模糊的国家AI功能概念,并将其分为三个横截面。首先,让我们来看看不同国家在人工智能方面的科技投入和产出。那就是:欧洲与中国和美国的出版物有多少?在研发投资意义上的出版物或投入意义上还有多少产出?那么让我们来看看。 

第二个片段是,让我们不只是说AI。我想每次你说AI时总是更好地指定子类型,或者至少在第二个切片中我会看到AI值链的不同层:基础层,技术层和应用层。那么,例如,基础层可能是谁在开发人工智能开源软件方面处于领先地位,该软件是许多这些人工智能应用和技术的技术支柱? 

然后我采取的第三个切片是AI的不同子域 - 所以计算机视觉,预测智能,自然语言处理等等。基本上我的结论是:我在这个书面证词中抛出了一堆统计数据 - 其中一些来自我去年推出的AI潜在指数 - 而我的结论是中国没有准备好超越美国。人工智能的技术领域; 相反,美国在S和T输入和输出的质量,AI价值链的基本层以及AI的关键子域中保持结构优势。

所以是的,这些东西也变得非常快。我想很多人都试图将更多系统的方法放在一起来衡量这些东西。所以杰克克拉克在openAI; 像斯坦福大学的AI指数这样的项目; Matt Sheehan最近为MacroPolo开发了一个非常好的作品,用于开发用于理解数据的五维框架。因此,在这次AIPI的第一次削减中,我的数据指标只是一个非常原始的,拥有更多的手机用户,但显然无论谁将在自动驾驶汽车中领先。因此,对如何衡量不同的驾驶员有更细致的理解肯定会有助于这个领域的发展。

卢卡斯·佩里:关于人工智能研究中的子领域(如GAN或计算机视觉或任意数量的不同子领域),对于对称性或不对称性,你能说些什么?我们是否可以期望在一个国家而不是另一个国家发展非常强大的专业,或者在这个领域存在持久的不对称,或者研究出版物是否在某种程度上颠覆了这一点?

Jeffrey Ding:我认为自然语言处理可能是最好的例子,因为每个人都说NLP,但是你只有那个抽象的词,你永远不会潜入,“哦等等,中国可能在汉语数据处理,语音识别方面具有比较优势,知识映射,“这是有道理的。对于中国公司来说,推出大量开源存储库来培训自动语音识别的动机更大。

因此,尽管微软亚洲研究院也拥有非常强大的NOP能力,但在中文数据处理方面可能会有一些优势。面部识别,可能是另一个具有比较优势的领域:我认为在我的证词中,我引用中国在2017年在该子领域发布了900项专利; 同年,在美国提交的面部识别专利不到150项。因此,这可能部分原因只是因为对监控应用程序有如此多的热情,但在其他领域,如大规模的业务应用程序,美国可能拥有决定性的优势。因此,自动驾驶汽车就是最好的例子:在我看来,谷歌的Waymo,通用汽车的Cruise正在掀起领域。

最后,在我的书面证词中,我也试着看军事应用,我发现一个指标,即美国拥有的专利摘要中提到的“自主”或“无人”一词的军事专利数量超过七倍。在2003年至2015年期间。所以是的,这是我真正感兴趣的研究流程之一,我们怎样才能有更精细的粮食指标,实际上是中国人工智能发展的背景,这样我们才能有更多的衡量标准。了解它。

卢卡斯佩里:好的,所以我们现在已经详细介绍了中国和美国的描述性报告以及您研究的关键描述性见解。现在进入后果,我将简要说明你在论文中揭示的一些见解,然后你可以稍微扩展它们。

杰弗里丁:当然。

Lucas Perry:您将讨论中国人工智能梦想对人工智能安全和道德,国家安全,经济发展和社会治理等问题的潜在影响。这里的思想变得更加多样化和实质性,尽管你声称现在就中国人工智能发展的长期轨迹做出坚定的结论还为时过早; 对于任何其他国家来说,这可能也是如此。您接着得出结论,一群中国演员越来越多地参与人工智能安全和道德问题。 

腾讯研究所撰写了一本新书,其中包括一章,其中作者详细讨论了阿西罗马原理,并要求强有力的规则和控制人工智能的法术。还有一个结论是,人工智能的军事应用可以在国际安全中提供决定性的战略优势。中国军事人工智能处理方式在多大程度上代表着军事变革,这是一个值得研究的重要问题,看看美国和中国之间的战略优势如何继续发生变化。您继续阐明经济利益如何成为中国人工智能发展背后的主要和直接推动力 - 再次,我认为您强调了这种制造业的观点。

最后,中国采用人工智能技术也可能对其社会治理模式产生影响。对于国务院的人工智能计划,你说:“人工智能将在维护社会稳定方面发挥不可替代的作用,这一目标反映在人工智能在各种公共服务(包括司法服务,医疗保健和公共安全)的地方层面整合中。 “所以考虑到你所得到的这些见解以及我们描绘的关于中国和人工智能的描述性图片的结果,你还有什么想补充的吗?

杰弗里丁:是的,我认为当你列出这四类后果时,我只是认为这是使这个领域如此令人兴奋的研究因素,因为如果你仔细想想,这四个研究领域中的每一个都会产生四个研究领域:人工智能伦理学和安全,在仁慈的人工智能努力,FLI正在做的事情,更广泛的技术研究,关键技术研究,技术伦理领域; 然后在社会治理领域,人工智能作为社会控制的工具:人工智能的经济影响会产生什么样的社会余震?你有整个民主研究或技术和威权主义研究领域; 和经济效益,你有这整个创新研究领域:我们如何理解通用技术的生产力效益?当然,人工智能是军事革命的一部分, 

所以很容易开始将它们划分为单独的容器。我认为有些困难,特别是对于我们这些人来说,真正关心的是第一场,人工智能和安全,以及AGI军备竞赛的风险,很多其他人真的非常关心其他三个领域。我们如何将这些领域的概念联系起来?我们如何从这些领域中学习,从这些领域中学习,塑造我们正在使用的语言以与这些领域进行对话 - 然后还看到这些领域实际上与我们的目标是如何发生冲突的?然后我们如何处理这些冲突呢?我们如何优先考虑其他事物?这是一个令人兴奋但令人生畏的前景。

卢卡斯佩里:如果你正在听这个并且有兴趣成为中国景观的人工智能研究员,我们需要你。这里有许多伟大而开放的研究问题可供使用。

杰弗里丁:当然可以。当然。

卢卡斯佩里:所以我从以前的播客中提取了一些见解 - 我可以在这个播客的页面中留下一个链接 - 所以我只想快速点燃这些作为我认为有趣的点我们可能或者可能没有在这里介绍过。你指出语言不对称:最好的中国人工智能研究人员阅读英文和中文,而西方研究人员通常不能这样做。你有一份名为China AI with 1A的时事通讯; 当您将重要的中国科技相关内容翻译成英语时,您的时事通讯会尝试纠正此问题。如果你有兴趣继续跟踪中国和人工智能,我建议大家都这样做。在国际会议上有更多的国际研究合作 - 这是一个大势所趋,你指出:一些中国人工智能会议只有英语。此外, 

我认为你提出的另一点是,中国在人工智能用途方面落后了。我也对此感兴趣,看看你是否可以进一步扩展它,但中国和人工智能安全和超级智能也是一些有趣的东西,因为在这个播客我们经常采取长镜头AI期刊和AGI以及超级智能。所以我想你提到中国的尼克博斯特罗姆是教授,如果我弄错了,请纠正我,王婷婷。此外,如果你能够扩展中国超级智能FLI / FHI氛围的大小或严重程度,以及它的含义是什么,以及中国是否有明确关注此问题的组织,我也很好奇。如果这是一个愚蠢的问题,我很抱歉 但中国的非营利组织是否像美国一样?这有什么作用?中国是否处于拥有FHI或FLI或MIRI或类似事件的边缘?

杰弗里丁:那么解决那里和所有非常好的问题。首先,只是为了澄清,是的,肯定有非营利组织,非政府组织。近年来,国际非政府组织,非营利组织面临着一些压力,但肯定有非营利组织。我之前提到过的一个开源NLP计划,即中文语料库,由一个名为AIShell Foundation的非营利性在线组织组成,他们整合了AIShell-1,AIShell-2,这是最大的开源语音语料库。普通话语音识别。

我没有真正跟进王婷婷。他是中国社会科学院的哲学家。这种“中国的尼克斯博斯特姆”标签更像是一个让人们阅读的时事通讯标题,但他确实投入了大量时间和思考人工智能的长期风险。南京大学的另一位教授,周志华,他发表的文章说,甚至不需要触及一些他所谓的强AI。这些发表在中国计算机联合会的一个非常有影响力的出版物出版社,汇集了许多大名鼎鼎的计算机科学家。所以肯定会有关于这种情况的对话。是否有FHI,FLI等价物,让我们说可能不是,至少现在还没有。

北京大学可能正在这个领域开发一些东西。Berggruen Institute也在考虑一些相关问题。香港也可能发生很多事情; 也许我们只是看起来不够努力。我认为最大的区别在于DeepMind或OpenAI的水平肯定没有,因为即使是具有最佳通用AI功能的公司 - DeepMind和OpenAI几乎都喜欢这些利润和股票无关紧要的独特实体。

所以是的,肯定是一些差异,但老实说,一旦我开始阅读更多,我就更新了,在我们去寻找之前没有人真正看过周志华的文章。所以也许有很多这样的组织和机构,但我们只需要更加努力。

卢卡斯佩里所以在这一点上没有OpenAI或DeepMind等价物,是否有任何研究机构或部门明确关注创建人工智能或超智能安全可扩展机器学习系统的任务,从现在到无限?或者这更像分散的研究人员?

Jeffrey Ding:我认为这就是你如何定义一个AGI项目。就像你刚才说的那样,可能是一个很好的紧密定义。我知道Seth Baum,他做了一些跟踪AGI项目的研究,他说中国有六个。我想说可能是唯一接近的是,我想腾讯说它是开发人工智能的任务之一; 地平线机器人,实际上就像一家芯片公司,他们也将其作为其目标之一。这还取决于你认为神经科学相关通路对AGI的影响程度。因此,可能有一些中国科学院实验室致力于全脑仿真或更多脑灵感的AGI方法,但绝对不能达到DeepMind,OpenAI的水平。

卢卡斯佩里:好的。所以你的论文表中有一些神话,你神秘化了。其中三个是:中国人工智能的方法是由其自上而下和整体性质决定的; 中国正在赢得人工智能军备竞赛; 在中国几乎没有讨论人工智能和安全问题。然后也许最后我可以补充一点,如果你能够补充的话,那就是美国和中国之间的AI军备竞赛。

杰弗里丁:是的,我认为这是一个很好的补充。我认为我们必须小心选择哪些历史类比和模因。因此,“军备竞赛”是对冷战背景的一个非常具体的回应,那里几乎是我们正在与苏联竞争的这些离散类型的导弹以及我们可以计算的离散应用; 甚至可以追溯到一些学者称之为19世纪后期英国和法国之间的第一次军事领域的工业军备竞赛。所有这些实例都可以算数。法国有四个铁人,英国有四个铁人; 他们正在竞相看谁能建造更多。我认为没有那样的东西。没有这种谨慎的事情,我们正在竞相看谁能拥有更多。如果有的话,这是关于谁能更好地从国外吸收AI进展的竞赛

所以这就是我真正想消除的一种模因。与此相关的是,经常影响我们对此的讨论的假设是技术民族主义的假设,即这种观念认为技术包含在国家边界内,民族国家是最重要的行为者 - 这是正确的和良好的一个人有很多实例。但是也有充分的理由采用技术全球主义假设,特别是在技术如何快速扩散的领域,以及在这个国家层面的竞争中,来自不同国家的公司正在共同努力并相互建立标准联盟。所以这就是技术全球化的暗流,那里有人流,观念流,公司流动发生的同时,报道和性感话题总是关于国家级竞争,零和竞争,相对游戏修辞。所以你试图在这两个流之间找到平衡点。

Lucas Perry:关于零和游戏与健康竞争以及人工智能和人工智能研究属性的这种反思你能说些什么?我正在寻求澄清这个二级框架,我们可以采取更加国际化的观点来部署和实施人工智能研究和系统,而不是像你所说的那样,这种技术民族主义者。

Jeffrey Ding:实际上,这个想法来自我的主管:如果仅涉及两个参与者,仅仅从纯粹的自我利益最大化角度来看,相对收益是有意义的。但是一旦你引入了三个或更多的玩家,相对收益并不像优化绝对收益那么有意义。所以也许解释这个问题的一种方法是从一个欧洲国家的角度来看 - 比如说德国 - 而你正在与中国或其他一些国家合作开展人工智能项目,也许美国正在向你施压,要求你们不要合作; 你正在与沙特阿拉伯或中国合作开展一些项目,它将使中国获得10个任意点,如果你根本不选择合作,它将有利于德国八个任意点。

因此,从这个意义上说,理性行动者德国会接受这一协议。你不只是关心比中国更好; 从德国的角度来看,您关心的是保持在欧盟的领导地位,为您的公民提供健康福利,继续为您的经济提供动力。因此,从这个意义上说,即使中国从中受益,相对来说,你也会接受这笔交易。 

我认为目前美国很多人都陷入这种心态,世界上只有两个参与者是美国和中国。如果你看一下我们的谈话,那么,我也经常表现出这种偏见。我们应该更多地谈论中欧,中日在这个领域的合作以及这个领域的网络,因为那里也发生了很多事情。所以很多美国政策制定者认为这是美中之间的双人游戏。然后从这个意义上说,如果有一些关于使用人工智能发现蛋白质的癌症研究项目,可能会使中国获益10分,并且仅使美国受益8分,但是如果你只关心它会拯救很多人免于癌症关于保持领先于中国的一切,那么你可能不会接受这笔交易。

Lucas Perry:因为有更多的演员,这里的想法是你更关心绝对收益,因为这些效用点或其他什么可以转化为决定性的战略优势,如军事优势?

Jeffrey Ding:是的,我认为这是其中的一部分。我在这个例子中的想法基本上就是这样 

如果你作为德国不选择与沙特阿拉伯合作或与中国合作开展这项联合研究项目,那么英国或其他一些国家就会趁机进入。而这种可能性并不存在于你所处的世界想着两个球员。有很多不同的方法来适应这些形式的模型,但这可能是解释它的最简单的方式。

卢卡斯佩里:好的,很酷。所以你在这里谈了一些我们需要消除的重要神话,或者我们需要打击的模因。最近Peter Thiel参与了一系列保守的平台,他还写了一篇专栏文章,基本上把AGI作为军事武器煽风点火,人工智能作为超级智能的途径,“谷歌校园里有很多中国人他们可能是间谍,“谷歌正在积极帮助中国使用人工智能军事技术。在糟糕的模因和战斗神话方面,你有什么想法?

Jeffrey Ding:Thiel有很多错误。我有点困惑,因为他是OpenAI的原始创始人之一,他资助其他机构,真正关心AGI安全,真正关心种族动态 - 然后在这篇文章的中间,他首先说AI这是一种军事技术,然后他回过头来说人工智能在中间是两用的,然后他说这种模糊性“从一个单一的人工智能对抗全人类的叙事中奇怪地缺失。”他出来的任何人都应该知道关于AGI风险的这些对话,你为什么要以终结者AI meme的形式攻击这个稻草人?特别是,你为很多担心全人类AGI风险的组织提供资金。 

另一个真正有问题的主要问题是,如果你担心美国的军事优势,那就比以往任何时候都更加依赖于我们的创新优势。这不是从军事创新转向民用创新,而在美国科技竞争对抗日本时就是如此。更多的是旋转的情况,在商业领域正在进行创新,这些创新正在巩固美国的军事优势。

这种将谷歌描绘为在中国设立实验室的反美的想法是适得其反的。中国各地都有独立的Google开发者大会,因为很多中国程序员都希望使用像TensorFlow这样的Google工具。它可以追溯到我之前谈到的基本AI开源软件,它可以让Google扩展其人才库:人们希望使用Google产品; 他们更习惯于使用Google工具框架来构建所有这些产品。谷歌不是出于慈善事业而帮助中国军队。他们这样做是因为美国的高技能移民制度存在缺陷,所以他们需要到其他国家去获取人才。 

此外,关于这篇文章的另一件事是他没有引用任何这些方面的实证研究,当时创新文献的整体全球化在经验上支持了我所说的很多内容。然后我就微软亚洲研究院进行了自己的实证研究,正如我们所提到的那样,它是他们的第二大实验室,总部设在北京。我跟踪了他们的博士研究生课程:这基本上为中国博士学位课程的学生提供了全额奖学金,你只需要在其中一个夏天在微软亚洲研究院实习。然后我们跟踪他们的职业发展轨迹,其中很多人最终来到美国或在北京的微软亚洲研究院工作。而那些来到美国的人不只是去微软:他们去Snapchat或Facebook或其他公司。这不只是关于人民:正如我之前提到的,我们有关于谁首先生产技术的创新中心主义,但通常是关于谁首先扩散并采用该技术。而且我们并不总是成为现场的第一个,所以我们必须能够采用和传播在其他领域首先发明的技术。这些海外实验室是了解这些其他领域正在发生的事情的最佳门户网站之一。如果我们失去它们,那就是另一种形式的不对称,因为中国人工智能公司正在出国扩张。所以我们必须能够采用和传播在其他领域首先发明的技术。这些海外实验室是了解这些其他领域正在发生的事情的最佳门户网站之一。如果我们失去它们,那就是另一种形式的不对称,因为中国人工智能公司正在出国扩张。所以我们必须能够采用和传播在其他领域首先发明的技术。这些海外实验室是了解这些其他领域正在发生的事情的最佳门户网站之一。如果我们失去它们,那就是另一种形式的不对称,因为中国人工智能公司正在出国扩张。 

老实说,我真的很困惑这篇文章的重点是什么,说实话,这有点令人难过,因为这不是Thiel每天研究的内容。因此,他显然从叙述框架中汲取了一些点点滴滴,这些框架主宰了我们的对话。它实际上可能是一个结构性的污点,我们如何允许话语有这么多这些糟糕的问题模因,我们需要更多的人积极地呼唤他们,在幕后进行心连心的谈话,让人们改变他们的思想或有关这些的富有成效的建设性对话。

我在这里要指出的最后一件事就是这种僵尸冷战思维今天仍然存在,我认为历史学家沃尔特麦克杜格尔非常擅长称呼这个,他谈到我们画这个,这个敌人,和我们用它来证明人类价值观的牺牲是为了推动社会发挥最大的技术潜力。而这通常伴随着牺牲隐私,平等,言论自由等人类价值观。而且我不希望我们与中国竞争谁可以建立更好的工具来传感,压制和监视持不同政见者和少数群体,对吧?让我们看看谁可以建立更好的,我不知道的,工业物联网或构建更好的隐私保护算法,以维持一个更值得信赖的AI生态系统。

卢卡斯佩里:太棒了。所以,随着我们的谈话结束,我们一起走到这里:自从你写了解读中国的AI梦想以来,你已经有了什么更新或重大变化,因为已经有一年了?

Jeffrey Ding:是的,我在功能部分提到了一些更新。后果,我的意思是我认为这些仍然是四个主要的大问题,所有这些都与四个不同的文献基础相关联。最大的变化可能在组件部分。我想,当我刚开始时,我在这个领域相当新鲜,我正在阅读来自中国观察社区的大量文献,还有很多来自中国比较政治或有关中国的文章,所以我把重点放在政府政策上。虽然我认为党和政府绝对是主要参与者,但我认为我可能过分强调了政府政策与地方层面政策的重要性。

因此,如果我要回去重写它,我会更多地了解当地发生的事情,给出更多AI公司的例子,比如iFlytek,我认为这是一个非常有趣的未覆盖公司,以及如何他们正在中城设立一所研究所,与美国的产学合作非常相似,基本上只是确保他们能够培养下一代人才。他们与国家关系也比较密切,我认为控股股份或国有汽车拥有的大部分股份。因此,我可能会回过头来看看其中一些覆盖不足的公司和地方,看看他们在做什么,而不仅仅是看看中央政府的言论。

卢卡斯佩里:好的。美国和中国之间的健康竞争意味着什么?什么是理想的人工智能研究和政治情况?美国和中国在超级智能化道路上可以拥有的关系的理想属性是什么?

杰弗里丁:是的。

卢卡斯佩里:为我解决AI治理,杰夫!

杰弗里丁:如果我能回答这个问题,我想我可能会退休或者其他什么。我不知道。

Lucas Perry:我们仍然需要弄清楚如何实施理想的治理解决方案。

杰弗里丁:是的。我认为一个起点是在通往更先进的人工智能系统的道路上,我们不得不停止关注人工智能,好像它就像这个没有模拟的完全特殊的区域一样,因为即使有独特的AI方面 - 比如他们的自主智能系统,产品超越人类智能的可能性,或超越人类智能的过程 - 我们可以从蒸汽,电力,柴油发动机等过去的通用技术中学到很多东西。我们可以了解过去战略行业的许多竞争,如芯片,钢铁。

因此,我认为可能从一些文献中提炼出来的一件事是人工智能开发的某些方面比其他方面更有可能导致种族动态。因此,您可以采取的行业是可能只有两个,三个,四个或五个主要参与者的行业 - 因此可能是资本成本,新贵成本,自动驾驶汽车的基础设施成本要求世界上只有一两个球员。这就像嘿,如果你是一个战略思考的国家政府,你可能真的想在这个领域有一个球员,这样可能会激励更多的竞争。而在其他领域,也许会有更多的竞争或更少的相对收益需求,零和思维。 

那么在那些只有四五名球员或三四名球员的领域我们可以考虑一些事情。我们可以平衡它,以便至少有一个来自两个主要大国,或者是更好的方法,我不知道,制定全球竞争,全球反垄断政策,以确保总会有一堆来自不同国家的不同球员?所以这些是我想到的一些想到的事情,但是,这绝对是我认为相对于正在考虑它的其他人的零可信度。

卢卡斯佩里:对。不清楚任何人都有非常好的答案在这里。我认为,至少在其上添加一个框架,我的观点是,考虑到计算机视觉和嵌入式机器人系统等许多技术的双重用途性质以及开发自治和图像分类 - 所有这些不同的AI专业子系统都可以是以任意方式组合在一起的。因此,就自主武器而言,FLI的立场是,围绕这些技术的适当和有益用途建立国际标准非常重要。

人们已经知道,图像分类可用于歧视或有益的事物。这些技术可以汇总成任何东西,从字面终结器群机器人到救生医疗。因此,如果可以创建基于我们先前列举的原则表达的明确标准,那么美国和中国之间的关系可以更有成效。鉴于此,我们可能会采取一些途径来实现先进AI系统的美好未来。

Jeffrey Ding:是的,不,我非常喜欢。我正在翻译的一些技术标准文件:我绝对认为在短期内,技术标准是一个很好的前进方式,有点在AGI之前解决入门包类型的问题。甚至一些关于人工智能标准化的中国白皮书也提出了对不同自治系统的智能水平进行排名的想法 - 就像一辆自动驾驶汽车可能不仅仅是一个聪明的扬声器或者其他东西:即使这是一种很好的方式来跟踪进展,是在情报爆炸和空间轨迹方面的连续性。所以,是的,我绝对是第二个想法。标准化工作,自主武器监管工作,作为更大的AGI安全问题的基石。

卢卡斯佩里:我肯定想要回应这个首发包的观点。关于我们将要进入AGI的体系结构或方式有很多未解决的问题,关于政治环境和研究领域将如何及时发生变化。但我认为我们已经有足够的能力和问题,我们应该真正考虑在哪里实践和实施2019年的法规和标准以及原则和意图,这将为AGI和超级智能带来强劲的良好前景。

杰弗里丁:是的。凉。

卢卡斯佩里:杰夫,如果人们想要关注你,那么最好的方法是什么?

Jeffrey Ding:你可以在推特上打我,我是@JJDing99; 或者我发布了一份每周时事通讯,内容包括中国媒体,中国学者以及中国人工智能通讯CHINAI的人工智能相关问题的翻译。如果你只是搜索它,它应该弹出。

卢卡斯佩里:这些播客的链接将在您可能找到此播客的任何地方的描述中提供。杰夫,非常感谢你的到来,感谢你们在这个领域的所有工作,研究和努力,以帮助用AI创造一个强大而有益的未来。

杰弗里丁:好吧,卢卡斯。谢谢。谢谢你的机会。这很有趣。

卢卡斯佩里:如果你喜欢这个播客,请订阅,给它一个喜欢或在你喜欢的社交媒体平台上分享。我们将很快再次回归AI Alignment系列中的另一集。

录制材料结束


©著作权归作者所有:来自ZhiKuGroup博客作者没文化的原创作品,如需转载,请注明出处,否则将追究法律责任 来源:ZhiKuGroup博客,欢迎分享。

评论专区
  • 昵 称必填
  • 邮 箱选填
  • 网 址选填
◎已有 0 人评论
搜索
作者介绍
30天热门
×
×
本站会员尊享VIP特权,现在就加入我们吧!登录注册×
»
会员登录
新用户注册
×
会员注册
已有账号登录
×