来源:有新Newin
在不久前的斯坦福 HAI at Five 活动上,李飞飞(Fei-Fei Li)教授对话硅谷顶级风投 a16z 创始人 Marc Andreessen,展开一场关于“如何消除 AI 创新生态的障碍”的讨论,话题包括开源和闭源 AI 的未来发展,以及 Andreessen 视角下的 AI 生态系统样貌。
Andreessen 不仅是互联网发展初期的重要人物,如今也是推动AI技术进步的重要力量。他指出,开源软件对初创公司和学术界的生存和发展至关重要。如果开源软件被禁止或限制,初创公司将难以为继,学术研究也将停滞。
此外,李飞飞和 Andreessen 进一步探讨了政府监管和自我监管的问题。Andreessen 认为,尽管某些情况下的内部监管是必要的,但过度的审查和控制可能会对创新产生负面影响。他强调,领导力和自由是推动技术进步的关键因素,特别是在 AI 领域。
Andreessen 提到,他的职业生涯很大程度上得益于政府的资助,例如 80 年代的超级计算机项目和 NSFnet(即后来的互联网)。他认为,目前也有类似的需求,需要政府资助大规模的 AI 研究系统,以推动未来的发展。
以下为这次对谈的全部内容,enjoy~
Fei-Fei Li:
Marc 是我多年的朋友和伙伴,我不知道你们对 Marc 的背景了解多少,其实他无需多介绍,但让我印象深刻的是,他参与了互联网的早期发展,成就了互联网。而现在,我们正处在 AI 的黎明。
作为硅谷一位有影响力的 VC ,他的公司正积极推动 AI 的发展。另一个关于 Marc 的有趣事情是,我记得大概是去年,他写了一篇非常有影响力的技术乐观主义宣言,坚信由自由市场驱动的技术进步对人类进步至关重要,获得了很大的关注。
Marc Andreessen:
你说“关注”,你是指受到尊敬和赞同吗?
Fei-Fei Li:
我是指关注。那么我们该从哪开始呢?但我确实想先问你一个问题,对吧?你一直是这个生态系统中反对阻碍和障碍的积极倡导者,包括限制政府的角色,特别是在监管方面。你相信 AI 的发展会比过度监管更广泛地造福社会。
所以,我们在这里庆祝 HAI 成立五周年,正值最新的技术革命浪潮之中。请展开讲讲,和我们分享你的看法。
Marc Andreessen:
是的,很高兴来到这里。看到这所机构在过去五年所做的工作,真是太棒了。有几件事。首先,我认为这个对话的进行非常好。很长一段时间,我在硅谷的前 20 年,我们基本上是在构建工具。
然后,实际上只是在过去的十年里,我描述硅谷在政治、伦理和更大的社会问题上的角色有点像抓住了汽车的狗,我们开发了所有这些工具,结果发现它们确实很重要。它们对社会和政治系统非常重要。我认为这些是非常重要的问题,我认为看到这些对话的进行很棒。
我的框架是这样的,我先讲一个故事来说明我的观点。今天发生的基本对话非常简化,就是关于社交媒体、互联网以及 AI 的新事物是有害还是无害的。如果有害,就需要控制、监管或停止。
这种对话的隐含基础是技术伦理中的一种叫做预防原则的东西。预防原则是一个看起来非常合理的命题,即技术发明者应该能够预测其技术是否会产生负面影响,因为他们有责任阻止有害技术的发展和部署。
预防原则有一个非常有趣的起源,来自 1970 年代德国绿党对民用核能产业崛起的反应。核技术在 40 年代和 50 年代作为军事技术出现,然后在 50 年代和 60 年代民用核能大爆发,承诺从原子中获得无限能源。 70 年代德国绿党崛起并决定停止这一进程,创建了预防原则,提出只要民用核能的开发者不能证明其在所有情况下完全无害,就应停止其部署。这个原则基本上奏效了,停止了核能发展。
在美国,这一理念被采用。1971年,我出生的那一年,时任总统尼克松提出了一个名为“独立计划”的项目,计划到 1980 年在美国建立 1000 座核电站。这个计划将使美国电网完全转向核能,彻底摆脱对中东的依赖,提供完全清洁的零排放能源,加速电动汽车的普及。尼克松提出了这个计划,然后他创建了核监管委员会,阻止了这一计划的实现。
今天,美国没有在建的核电站。如果查看过去 40 年的核能部署图表,会发现它几乎完全停止了。这导致了我们当前政治的许多方面。对于关心碳排放和气候的人来说,这是一个巨大的错失机会。环保运动,现在才开始意识到这一悲剧:我们拥有这颗零排放能源的子弹,但决定不用它。
同时,这也导致了当前俄乌战争的间接后果。德国由于不发展核能,变得非常依赖天然气,进而非常依赖俄罗斯。整个欧盟也因此在过去 20 年里一直在资助普京政权,并且至今仍通过能源购买资助战争努力。我们简直目瞪口呆,感叹他们怎么会犯下如此严重的错误。
全面回顾过去 70 年的民用核能历史,它是最安全的能源形式之一,相关人类死亡数量非常少。所以,我们怎么会做出这样的决定?对我来说,那就是,让我们不再重蹈覆辙。
Fei-Fei Li:
所以你认为在 AI 领域也存在这种危险?
Marc Andreessen:
百分之百是的。这基本上是相同的动态和讨论。你可以详细说明一下。这确实是同样的情况。假设和讨论是,如果存在潜在的危害,就应该进行监管、控制、限制,甚至暂停、停止,各种不同的提议。
但这是一个压倒性负面的框架,一种风险规避的框架,与预防原则非常一致,这就是讨论的框架。
Fei-Fei Li:
不过,形势是不是更复杂一些?如果你看看拜登总统去年发布的行政命令,其中确实有预防措施,但也有激励和竞争的角度,因为当前的地缘政治非常复杂。
所以,你是过于侧重推动技术发展,因为你认为监管已经过多?还是你只是在呼吁更多的工业努力?
Marc Andreessen:
是的。是的。但让我们谈谈地缘政治,因为这非常重要。这是我在华盛顿讨论中观察到的另一件事,特别是在最近。我最近花了很多时间在华盛顿。我们公司很长时间不涉足政治,我们非常努力地保持非政治性,但有一句老苏联的笑话说:“你可能对政治不感兴趣,但政治对你感兴趣。”
所以在过去一年半到两年里,我们在华盛顿变得非常活跃, AI 是我们推动的一个重要部分。这是另一个让我印象深刻的事情,很高兴你提到,这就是华盛顿的讨论,它们基本上是矛盾的。
我会这样描述,如果我星期二去华盛顿,讨论的内容全是国内政策,涉及国内监管,讨论美国公司、大科技公司、小科技公司、大学的工作,是否应该受到控制、限制或停止。我们刚开始讨论的内容。如果我星期四回去,讨论的内容就是中国和地缘政治,这完全是另一种讨论。讨论的是,我们必须赢。
中国过去十年来一直明确表示, AI 是国家战略优先事项,这是他们全民控制、监控和社会信用体系的关键组成部分,是其数字丝绸之路的一部分,旨在推广中国的治理和技术模式,这与美国的精神和未来的军事力量竞争。
在美国,国防部有一个概念,称之为“第三补偿”,几年前宣布 AI 和自主技术是国家防御的关键技术,这对国防系统的制造和国防部的运作,以及未来战争的进行有很多影响。
所以,现在有了一个国家军备竞赛,一个具有强烈影响的国家地缘政治竞争,不仅影响美国和中国,也影响全球和军事领域。在这种情况下,讨论的是我们必须全速前进并获胜。
这并不令人惊讶,华盛顿的人并不认为自己有责任调和这两个话题。我以为他们在星期六会这样做。但到目前为止,他们没有调和这两个话题,实际上他们把这个问题留给我们自己解决。
Fei-Fei Li:
好的,那让我们深入探讨一个话题,因为这两个话题都集中在一个辩论上,就是关于开源的严肃辩论。目前,这在全国范围内展开,在我们的加州也在进行中,我们在州参议院看到一些有问题的法案,试图监管和控制潜在的开源。你对此有何看法?
Marc Andreessen:
是的,开源讨论非常有趣,因为有一种一维版本或一步版本,还有一种两步版本。一维版本与预防原则非常一致,我认为当前的加州法案反映了这一点。欧盟的《 AI 法案》也反映了这一点,我认为加州法案在某种程度上是基于欧盟的《 AI 法案》,这是预防原则在立法中的实施。假设这是潜在有害的,因此必须加以控制以防止危害。这听起来总是很合理,因为谁能反对这一点呢?
然而,考虑第二步是很重要的,特别是在开源方面,第二步会非常令人震惊。我们需要问自己:我们需要设计怎样的社会才能有执行机制来实施任何形式的开源禁令或限制?
这时,我们就进入了《1984》式的领地,需要在每个芯片上安装软件代理,以检查人们是否运行未经批准的开源软件。这立刻让我想到《1984》并不是一本操作手册。我们不应该在所有电脑上运行软件代理来监控用户。而且,政策建议从这里开始变得非常可怕。
实际上,这在《时代》杂志的一篇文章中得到了诚实的阐述。艾利·泽茨考斯基在《时代》杂志上写了一篇文章,提到为了实施对强 AI 和开源的禁令,不仅需要全面的监控,而且要在全球范围内执行。
因为仅在美国实施禁令是不够的,还需要考虑其他 180 个国家。因此,需要全球禁令和全球执行机制,需要准备好让美国空军轰炸那些违规的数据中心。甚至要准备好冒核战争的风险。
因此,我们必须问自己:我们到底希望生活在什么样的社会中?这很重要。可以把我列在反对这种社会的那一边。
Fei-Fei Li:
对,这涉及到执行。那么你能谈谈为什么我们需要开源吗?为什么它如此重要?你与许多初创公司合作,这是硅谷的一部分,为什么开源如此重要?
Marc Andreessen:
是的,这就是另一个角度来看待这个问题。独立于人类自由的问题,开源在创新生态系统中扮演什么角色?
我的看法是,现代技术、现代计算机科学、现代软件之间有一个三角关系,基本上是开源、初创公司(这是我的日常工作)和学术界。
我坦白说,如果开源被禁止或限制到一定程度,首先,初创公司将死掉,因为我们投资的每个初创公司基本上都是基于开源构建的。大家都理所当然地认为可以使用开源来构建每个新的软件项目。
因此,初创公司将倒闭,所有的开发工作将被委派给一个由大公司组成的卡特尔,它们将永远掌权。你需要问自己,这是否真的是你想要的结果。其次,你们可以告诉我,我认为学术界也会受到影响,特别是学术计算机科学。如果没有开源,学术机构的工作将无法进行。
Fei-Fei Li:
是的,我们也是一些最大的开源软件提供者。让我们谈谈学术界,因为你的技术乐观主义宣言中提到了一些重要的东西。
Marc Andreessen:
这是我们的名声和尊敬。是的。
Fei-Fei Li:
多年来,我非常感谢 Marc ,我们是深受彼此尊重的智识朋友,但并不总是同意彼此的观点。我认为,特别是在历史的这个时刻,在校园和学术界,这非常重要。高等 AI 研究所一直以提供这种严谨辩论的平台为荣。
事实上,我们休息之后,你将听到一个关于监管的讨论小组。但在你的宣言中,你使用了“敌人”这个词,并与之相关的“科技伦理”、“信任与安全”等词汇。你提到了象牙塔。
但你说你关心学术界,关心大学,我知道你确实如此。你如何调和你在那里写的内容?你的真正意思是什么?你对学术界在这个历史时刻的看法是什么?
Marc Andreessen:
是的,在我的宣言中,我专门针对的是观点而不是人。我不认为这些涉及的人是敌人,但我确实认为这些是糟糕的想法。我认为我们生活在一个糟糕的想法非常普遍的时代,需要加以挑战。
Fei-Fei Li:
那么为什么“信任与安全”在 AI 中是个问题呢?
Marc Andreessen:
因为它被劫持了,这是预防原则在公司的具体实现。信任与安全对于那些不知道的人来说,是现代科技公司内部的术语。
基本上,这是公司内部事务的等价物,实施内部限制的团队。这最早开始于互联网公司,我认为第一个设立信任与安全团队的公司是 eBay ,负责监管互联网拍卖。
当然,如果你要有一个互联网拍卖网站,你需要有一个警察功能。我记得 eBay 刚开始时,这一功能看起来是不可思议的,因为人们怎么可能互相信任呢?
事实证明, eBay 之所以能成功,有两个原因。其一是创始人Pierre Omidyar相信大多数人是好的,大多数人会列出合法的产品并进行交易。但他也认为需要有一个名为信任与安全的功能,作为警察。所以如果你在 eBay 上买了假货,你可以向某个部门申诉。
Fei-Fei Li:
那是一个未被劫持的信任版本。
Marc Andreessen:
是的,你需要有这个功能,这是绝对必要的。然后第二阶段是社交媒体公司,如果你要提供一个平台让人们交换信息,即使只是出于法律原因,第一修正案也不是绝对的。法律上有11个对言论自由的例外,包括煽动暴力、儿童色情和恐怖主义招募等等。
因此,如果你要有一个在线通讯平台,你需要有一个团队来维护、监控和管理它。但问题总是在哪里划线,这些价值观是什么,当你问这个问题时,你就进入了政治哲学的领域,涉及设计治理,私人治理也是治理。
Fei-Fei Li:
那么你的界限在哪里?你认为在哪些方面信任和安全是重要的,又在哪些方面超出了你的底线?
Marc Andreessen:
首先,这很复杂,复杂有很多原因。这些是大问题,是关于政治结构、社会结构的核心问题,是重大的伦理和道德问题,这些问题本身就非常复杂。在公司的背景下,这变得更加复杂,因为公司理论上是私营实体。
而私营实体的活动领域可以比公共实体更受限制。例如,言论自由这个问题,这是我们校园里正在进行的大辩论之一。
一个简单的例子是,你可以在市中心的广场上自由发表政治言论,但这并不意味着你可以在餐馆里站起来对人们大喊大叫。餐馆的主人有权在餐馆内实施更严格的言论规范,而不是在整个社会范围内。
这在公司中也是一样的。公司有权决定这些规范。就像我有一个九岁的孩子,我希望他能注册互联网服务,但我希望他有一个像迪士尼乐园那样的体验,而不是一个完全自由放任的互联网。我希望他能在有控制的环境中上网。
因此,我认为公司有很大的自由决定这些规范。迪士尼就是一个很好的例子,迪士尼对在乐园内的行为有不同的规定,而这些规定在奥兰多的街头是不会存在的。这些都是好的和有效的。
但是,当你创建内部事务部门时,当你创建一个负责监管行为的警察部门,然后很快这个部门也负责监管言论,你必须问自己,你走得有多远?这个议程会带你走向何方?我认为,如果有多种不同的观点和选择,这是可以的。但如果你最终处在一个普遍审查和控制的环境中,那就有真正的问题了。
Fei-Fei Li:
你想最小化政府监管,也想最小化自我监管?
Marc Andreessen:
不,我不是这么说的。你刚才说的不对,我刚才说的恰恰相反。你肯定支持迪士尼决定迪士尼乐园内发生的事情的能力。
Fei-Fei Li:
我明白,但即使不把重点放在迪士尼,也有可能会过度监管。那么你认为治理应该来自哪里?
Marc Andreessen:
治理必须从领导层开始,这总是一个领导力的问题。
Fei-Fei Li:
对于各个机构来说,这适用于个人机构,那么对于整个社会呢?
Marc Andreessen:
是的,社会层面也需要通过各种方式来实现治理。目前,这些都是非常活跃的辩论,甚至涉及到最高法院,从社会层面来看,还会有更多这样的讨论。而在公司内部,情况也是如此。
我会描述我们行业的状况,像是抓住了汽车的狗。我们的平台上的一切都很重要,这些系统中的一切都很重要,这些公司的运作都很重要。
如果这个行业被缩减到两三个或四个大公司,这些公司获得了监管的垄断权,并基本上与政府联合,那么我们将面临一系列非常重要的社会问题需要解决。
如果在未来的竞争环境中,有大公司、很多初创公司、开源项目和学术界的参与,那么在这些领域之间会有更多的活力和竞争。这样会有更多的灵活性和不同的方法。我希望看到更多的多样性和风格的差异,这将是一个非常健康的结果。
Fei-Fei Li:
这是我们在这一点上完全同意的地方。为了结束这个话题,你来到斯坦福大学,你的整个家庭都是这里的朋友和社区的一部分。你对斯坦福高等 AI 研究所和斯坦福大学的希望和梦想是什么?特别是我们作为世界领先的跨学科 AI 中心,致力于人类中心的 AI 研究,你对我们的角色有什么期望?
Marc Andreessen:
首先我要说的是,就像你提到的,感觉我们正处在 AI 时代的黎明。这是一个有趣的概念,因为你很清楚, AI 其实是一个有着 80 年历史的领域。
Fei-Fei Li:
是的,但我们经历了很多次寒冬。
Marc Andreessen:
这是一个漫长而曲折的过程。可能在座的大家都知道,我以前不知道,这让我感到震惊,第一个关于神经网络理论的论文是在 1950 年。实际上更早,没错,1943 年,作者是谁?是皮特和另一个人,我忘了他的名字。
现场有很多人知道答案。是的,原始的神经网络论文是在 1943 年发表的。托马斯·里德写了一本很棒的书《机器的崛起》,他回溯了非常非常早期的历史。
实际上,在 1930 年代就有关于计算机是否应该是冯·诺依曼机的辩论,最终成为冯·诺依曼机,还是应该模仿人脑。这是一个有着 80~90 年历史的领域。当我在 80 年代末上学时,那是在 80 年代的 AI 繁荣之后,随后是一个大萧条,那是专家系统的浪潮。
所以我不知道是否有历史先例,一个领域可以孵化这么久,然后突然爆发。结果证明它是可行的,我不知道这是多大的惊喜,或许你一直都有信心。
Fei-Fei Li:
我不知道,物理学也孵化了数百年,才有了现代科学。但你说的有道理。
Marc Andreessen:
是的,所以这是一个 80 年的一夜成功。真的是相当了不起的事情。所以我提到这个是因为斯坦福在每一步都扮演了角色。约翰·麦卡锡在斯坦福 AI 研究所工作了很长时间,这里有着非常悠久而丰富的历史。
斯坦福、MIT和兰德公司等其他机构对这次发展负责的很大一部分贡献。所以这里的遗产是巨大的。我完全期待这种技术方面的贡献继续下去。我想,自然语言处理课程现在占斯坦福本科生的四分之一?
Fei-Fei Li:
是的,NLP和计算机视觉课程都有数百名学生。但我不能让你走,我们没有 GPU 的时候,你认为我们会取得如此大的进步吗?
Marc Andreessen:
首先,第一步是确保有软件可以在 GPU 上运行。我希望斯坦福能够捍卫学术自由,实验的自由,创新的自由,发展的自由和部署的自由。
我认为这是绝对必要的,因为如果像斯坦福这样的机构不支持这些,在这样的领域里,我们会遇到大麻烦。这是其一,然后其二,我认为这是政府绝对应该发挥作用的地方。这是我在华盛顿经常谈到的事情。整个职业生涯都依赖于政府资助。
Fei-Fei Li:
是的,你提到超级计算机。
Marc Andreessen:
是的,对于那些不知道的人来说, 80 年代有两个大规模的政府资助项目,一个是资助当时所谓的国家超级计算中心,另一个是资助所谓的 NSFnet,现在我们知道它是互联网,把所有人连接到超级计算机上。
基本上,我的职业生涯之所以存在,是因为 NTSA 在伊利诺伊大学香槟分校的项目是由国家科学基金会资助的,这与我们今天的情况有精确的类比。当时的资助主要是为了物理、化学和生物医学研究的超级计算机。
现在有一个非常明确的平行需求,即资助大规模的 AI 研究系统。实际上,华盛顿对这个问题的接受度相当积极,我认为我们应该对此持有某种程度的乐观态度。但前提是我们生活在一个 AI 研究被允许进行的世界中。