本文给大家分享的是2028年AGI时代来临:DeepMind联合创始人深度解析未来AI发展趋势的相关内容!
随着2028年AGI时代的到来,我们是否已经准备好迎接这个由DeepMind联合创始人深度解析的未来AI发展趋势?AI将如何改变我们的生活、工作和社会?它将会带来哪些挑战和机遇?
这些问题值得我们深思。
DwarkeshPodcast(矮人播客)主持人DwarkeshPatel采访了谷歌Deepmind的创始人兼首席AGI科学家Shanelegg。
他们讨论了AGI的时间节点、可能的新AGI架构、多模态作为下一个行业基准、如何对齐超越人类的模型以及Depmind在模型能力和安全性之间的选择。
为了测试人工智能是接近还是达到这个阈值,我们需要测量不同类型的人类认知广度。
但这很难,因为我们永远不会拥有人「能做到的事」完整集合,这个范围太大,还在不断更新。
在判断是否为AGI时,如果一个人工智能系统在所有可以提出的人类认知任务中都达到了人类的表现水平,那么这就是AGI。
在一般的理解中,可能有一些事情是人类可以做到的,但是机器做不到。
但是当我们尽力的时候,我们找不到这样的。「事情」之后,人类就有了通用人工智能。
但在实际测量中,我们仍然不能提出包含人类所有认知水平的任务,如著名的基准测试:测量大规模多任务语言理解(MeasuringMassiveMultitaskLanguageUnderstanding,MMLU)虽然它包含了许多人类知识领域,但缺乏对语言模型对流的理解。
这类任务的缺失也指出了一个问题:现在的语言模型不像人类的情景记忆。
我们的记忆包括工作记忆,即发生的事情;皮层记忆存在于大脑皮层中。工作记忆和皮层记忆之间还有一个系统,即情景记忆,由海马体负责。
场景记忆主要用于快速学习和记住特定的事件或信息。它允许我们在不同的时间点回忆过去发生的事情,就像你可以回忆起毕业典礼的场景一样,包括穿学士袍的样子、毕业帽的颜色、毕业典礼演讲者的话语、和同学们一起庆祝的场景一样。
情节记忆在帮助我们建立个人经验和学习新信息方面发挥着重要作用。
但模型没有这样的功能,只是通过增加上下文窗口的长度(更像工作记忆)来弥补模型记忆的缺陷。
另一方面,情景记忆有助于人类具有很高的样本效率,可以从较少的样本中学到更多的信息。
对于大型语言模型,它们也可以在上下文窗口中使用信息来实现一定程度的样本效率,但这与人类的学习方法略有不同。
模型可以在上下文窗口快速学习信息,这是一个快速的、局部的学习过程,可以帮助他们适应特定的上下文。
但在实际的模型训练中,他们将经历一个更长的过程来处理数万亿个标记的数据,以便更全面地学习语言的结构和规则。
在这两个阶段之间可能会缺乏一些学习机制或过程,这可能会导致模型在某些情况下无法很好地理解或处理信息。
但是Shanelegg并不认为模型没有情景记忆会是一个基本的限制。
与过去相比,大型语言模型发生了根本性的变化。现在,我们知道如何建立一个有一定理解的模型,并有一个可扩展的方法来实现这一点,从而为解锁许多新的可能性打开了大门。
「现在我们有了一条相对明确的前进道路,可以解决现有模型的大部分缺点,无论是关于妄想、事实、他们的记忆和学习方法,还是理解和其他事情。
我们只需要更多的研究和工作,所有这些问题都会得到改善或解决。」
回到最初的问题:如何衡量人工智能何时达到或超越人类水平?
ShaneLegg说,「这不是一个单一的因素就能解决的,而是问题的本质。
因为它涉及到通用智能。我们必须确保它能完成许多不同的任务,甚至没有漏洞。」
我们已经有了一个系统,可以在某些领域表现得非常令人印象深刻,甚至超越人类水平。
Shanelegg说,他想要一整套非常全面的测试。当有人想以对抗的方式提出机器做不到的事情,人类做不到的事情时,我们到达了AGI。
在Depmind的早期研究中,许多任务都涉及到人工智能在开放环境中的操作。
这符合Shanelegg试图对智力的定义和测量,即在不同的领域和任务中表现良好。
这与模型性能的能力和广度有关。
在评估智能时,有一个框架可以根据任务和环境的复杂性进行加权。
这种平衡有点像奥卡姆剃须刀的原理,倾向于加权更简单、更重要的任务和环境。
柯尔莫哥洛夫的复杂性(Kolmogorovcomplexity)中间有一个自由参数,即参考机器(referencemachine)。
参考机器的选择可以影响智能测量的结果,它可以改变测量中不同任务和环境的权重和分布。
但选择合适的参考机仍然是一个未解决的问题,因为没有一个通用的参考机,人们通常使用图灵机作为参考。
Shanelegg认为,解决这个问题最自然的方法就是思考智能对人类的意义。
人类智能在我们的生活环境中具有重要意义,它确实存在,对世界产生了深远的影响,具有强大的力量。
如果人工智能能够达到人类的智能水平,它将对经济和哲学水平产生重要影响,如改变经济结构,并涉及到我们对智能的哲学理解。
从历史的角度来看,这也是一个重要的转折点。
以人类智能为参考机的选择在很多方面都是合理的。
另一个原因是纯科尔莫哥洛夫复杂性的定义实际上是不可计算的。
我们需要新的人工智能架构吗?
关于人工智能情境记忆的缺陷,Shanelegg认为这涉及到模型的架构问题。
目前的LLMS架构主要依靠上下文窗口和权重,但不足以满足复杂的认知任务。
大脑在处理场景记忆时采用不同的机制,可以快速学习特定的信息,这不同于缓慢学习深度的通用概念。
一个综合性的智能系统应该能够同时处理这两个任务,因此我们需要改进架构。
Shanelegg2008年以人类智能为参考机器的观点。
当时,他提出了一种测量智能的方法,即压缩测试(compssiontest),它涉及到填充文本样本中的单词来衡量智能。
这种方法与目前LLMS的训练方法非常一致,即基于大量数据进行序列预测。
这涉及到Marcushutter的AIXI理论和Solomonoff归纳。
Solomonoff归纳是一种理论上非常优雅、样本效率高的预测系统,虽然它不能应用于实际计算中。
但Shanelegg表示,以Solomonoff归纳为基础,可以构建通用代-理,并通过添加搜索和强化信号使其成为通用人工智能,这就是AIXI的原理。
如果我们有一个优秀的序列预测器,或者Solomonoff总结的一些相似性,那么从这个角度构建一个非常强大和通用的AGI系统只是另一个步骤。
Shanelegg说,这就是我们所看到的:这些极其强大的基本模型实际上是非常优秀的序列预测器,它们根据所有这些数据压缩世界。
然后我们将能够以不同的方式扩展这些模型,并建立一个非常强大的代-理。
Depmind「超级对齐」
「对齐」(Alignment)指保证人工智能系统或通用人工智能(AGI)系统的目标、行为和决策与人类价值观、伦理标准和目标一致。
这是为了防止人工智能系统不符合人类价值观或可能带来危险的行为,并确保他们在处理伦理问题时做出道德决策。
Deepmind在当前流行的强化学习和自博弈中,如ConstitutionAI或RLHF等,已经深耕了几十年。
在解决具有人类智能水平的模型安全问题方面,deepmind继续努力:模型可解释性、过程监督、红队、模型危险水平评估、与机构和政府合作...
Shanelegg认为,当AGI水平的系统出现时,试图限制或遏制其发展并不是一个好的选择。
我们要做的是调整这个模型,使它与人类的伦理价值高度一致,从一开始就具有高度的道德伦理性。
这就要求系统能够深入了解世界,良好的道德伦理理解,以及稳定可靠的推理能力。
可靠的AGI不应该像当前的基础模型那样只输出「第一反应」,而应该具备「第二系统」能力,进行深入的推理和道德分析。
Shanelegg提到,要保证AGI系统遵循人类伦理标准,首先要对系统进行广泛的伦理培训,确保其对人类伦理有良好的了解。
在这个过程中,社会学家和伦理学家需要共同决定系统应该遵循的伦理原则和价值观。
系统需要工程化,以确保它在每一个决策中都使用深刻的世界理解和伦理理解来进行伦理分析。
我们还需要不断审查系统的决策过程和推理过程,以确保其正确的伦理推理。
但要确保系统遵循伦理原则,审计同样重要。
我们需要明确指定系统应遵循的伦理原则,并通过审查确保系统始终遵循这些原则,至少和一组人类专家一样好。
还要警惕强化学习可能带来的潜在危险,因为过度强化可能导致系统学习的欺骗性行为。
Shanelegg认为,在系统达到一定能力水平时,是否需要建立一个框架来制定具体的安全标准是有意义的,但也相当困难。
因为制定一个具体的标准本身就是一项具有挑战性的任务。
安全还是性能?
在DepMind成立之前,ShaneLegg一直担心AGI的安全。
但在早期阶段,聘请专业人员从事一般人工智能安全工作是一个艰巨的挑战。
即使曾在这个领域发布过AGI安全性研究,他们也不愿意全职从事这项工作,因为他们担心这可能会对他们的职业生涯产生影响。
而DeepMind一直在这个领域积极开展研究,并多次强调了AGI安全性的重要性。
关于DeepMind对AI进展的影响,ShaneLegg表示,DeepMind是第一家专注于AGI的公司,一直拥有AGI安全性团队,同时多年来发表了许多关于AGI安全性的。
这些工作提高了AGI安全性领域的可信度,而在不久之前,AGI还是一个较为边缘的术语。
ShaneLegg承认,DeepMind在某种程度上加速了AI的能力发展,但也存在一些问题,例如模型幻觉。
但另一方面,DeepMind的AlphaGo项目确实改变了一些人的看法。
ShaneLegg指出AI领域的发展不仅仅取决于DeepMind,其他重要的公司和机构的参与也至关重要。
ShaneLegg认为尽管DeepMind可能加速了某些方面的进展,但很多想法和创新通常在学术界和工业界之间自然传播,因此很难确定DeepMind的影响程度。
但在关于AGI安全性的问题上,ShaneLegg没有选择最乐观的研究方向,而是提到了一种名为「DeliberativeDialogue」的决策方法。
它旨在通过辩论来评估代-理可以采取的行动或某些问题的正确答案。
这种方法可以将对齐扩展到更强大的系统中。
AGI来临的时间点
2011年,ShaneLegg在自己的一篇博客文章中对通用人工智能(AGI)到来的时间点进行了预测:「我之前对AGI何时到来做一个对数正态分布的预测,其中2028年是均值,2025年是众数。我现在依然保持我的观点,但前提是不发生核战这类疯狂的事件。」
ShaneLegg解释了他的预测基于两个重要观点:机器的计算能力将在未来几十年内呈指数增长,同时全球数据量也将呈指数增长。
当计算和数据量都呈指数增长时,高度可扩展算法的价值会不断提高,因为这些算法可以更有效地利用计算和数据。
通过可扩展算法的发现、模型的训练,未来模型的数据规模将远远超过人类一生中所经历的数据量。
ShaneLegg认为这将是解锁AGI的第一步。
他认为在2028年之前有50%的机会实现AGI。但那时人们也可能遇到现在预期之外的问题。
但在ShaneLegg看来,目前我们遇到的所有问题都有望在未来几年内得到解决。
我们现有的模型将变得更完善,更真实,更及时。
多模态将会是模型的未来,这将使它们变得更加有用。
但就像硬币的两面,模型也可能会出现被滥用的情形。
多模态未来
最后,ShaneLegg提到了下一个AI领域的里程碑将会是多模态模型。
多模态技术将会把语言模型所具备的理解能力扩大到更广泛的领域中。
当未来的人们回想起我们现在拥有的模型,他们可能会想:「天哪,以前的模型只能算是个聊天对话框,它们只能处理文本。」
而多模态模型可以理解图像、、声音,当我们和它们进行交流时,多模态模型将更了解发生了什么。
这种感觉就像是系统真的嵌入到了真实的世界中。
当模型开始处理大量和其他内容时,它们将会对世界有一个更为根本的理解,以及其他各种隐含的知识。
这次,和2028年AGI时代来临:DeepMind联合创始人深度解析未来AI发展趋势有关内容就为朋友们整理到这里,更多优惠活动资讯信息可查看本站其他栏目。