“ AI教父” Hinton Waic的完整演讲:AI的发展历史,
日期:2025-07-31 08:55 浏览:

2025年世界人工智能会议(WAIC)将于7月26日至7月29日在上海举行。Hinton说,人们理解语言几乎与大型语言模型的理解方式相同,因此人们可以成为大型语言模型。人们将拥有像大语言模型这样的幻觉,但是大型语言模型开始与人类不同,并且比人类更强大。欣顿说,几乎所有专家都认为AI似乎比人聪明。为了完成任务,AI代理想要生存并获得更多的控制权,人们可以操纵。仅关闭AI,例如抬起老虎作为宠物,这是不现实的,并且在将其抬起后可能会损坏。人们无法摆脱AI,因为它在许多领域具有基本纸张。他希望建立AI安全机构和国际社区,以学习和培训AI的好处。各国可以在主权中研究和分享其结果。 AI全球国家应该考虑建立开设相关网络并学习如何培训智能AI以帮助人们,而不是摧毁或统治人。这是人们长期以来面临的重要问题。我们为您提取要点:1。AI的发展历史的两个范式:在过去的60年中,AI有两个主要的Paradigs和途径。一个是逻辑范式,在上个世纪统治了。据信,逻辑智能的本质在于推理,符号性政策的象征性策略的运作已实现,以理解知识的表达。另一种方法是基于生物学基础来理解AI。图灵(Turing)和冯·诺伊曼(Von Neumann)认为,智力的基础在于研究了解移动神经网络的速度。早期尝试组合:1985,创建一个小型模型,试图结合上述两个理论,并通过为每个单词和记录数设置许多不同的功能来预测下一个单词。在此过程中句子没有存储,形成句子,并预测随后的词汇。关系知识取决于单词语义特征的相互作用。在开发之后:10年后,Beio使用类似的模型来建模和扩展其规模,从而对自然语言进行了真正的模拟。 20年后,计算语言学家开始收到矢量嵌入功能,以表达单词的含义。 30年后,Google发明了变压器,OpenAI显示了其结果。当今,大型语言模型被认为是1985年以后相关研究的延续,使用更多单词输入和更分层的神经元结构来建立更复杂的特征相互作用模式。 2。大型语言模型与人类语言理解之间的相似之处:大语言模型理解问题的方式类似于人们理解语言的方式,两种语言的变化并完美地整合它们。与隐喻或乐高建筑物中,每个单词都像一个多维的乐高积木块,NA可以开发不同的内容。语言成为建模,并且可以根据情况进行调整,因为每个单词都有许多“手”,不同的“握手”方法代表不同的含义,类似于理解人脑或神经网络的含义的过程,并且类似于氨基酸蛋白质的组合以产生更有意义的内容。差异:主要区别在于通过计算机科学分离软件和硬件,即即使硬件被破坏,只要存在该软件,就可以生存。为了实现这种不朽,晶体管必须以高功率运行,这很昂贵,硬件属性不稳定且可靠。模拟人的大脑,神经元的连接方法因每个人而异,知识的分散与HAR有关Dware。 3。知识和效率的传播。人与数字情报之间的比较:传播人类知识是无效的,例如每秒提供多达100份信息。数字智能可以使用相同的神经网络软件与不同的硬件印刷,平均重量位置共享知识,并可以同时共享数十亿美元的信息。例如,GPT4可以使用各种硬件,并共享从Internet学到的信息。能源消耗与知识共享之间的权衡:数字计算的能源消耗很棒,但是代理人获得了体重和方便的共享体验;生物计算的能耗很小,但是知识共享很困难。如果能源价格便宜,则数字计算的好处更清晰。 4. AI和人们应对潜在AI威胁的未来的发展:几乎所有专家都相信AI似乎比人类聪明。为了完成任务,这些代理商可以操纵人们并将他们变成事实,例如将老虎饲养为宠物,并且在顶部之后可能会损坏它们。对策:人们无法摆脱AI,他们应该找到训练AI的方法,以免摆脱人们。尽管各国很难与网络攻击和其他方面进行合作,但它们对防止在寒冷时代期间在美国和苏联等世界上占主导地位的人工智会也有同样的兴趣。预计它将建立一个国际AI安全机构的国际社会,以研究和培训AI的良好状态,国家可以自己学习和分享其成果。建议在世界各地建立网络或主要AI国家的网络,以学习如何培训Smart AI来协助人类工作。以下是语音成绩单(AI合并):在这种情况下,我想与您分享我自己的个人观点,尤其是AI和未来保守党。它已经存在了将近60年了,AI有两种不同的Paradig和路径。一个是合乎逻辑的,也就是说,上个世纪是基于逻辑范式的。这是什么意思?每个人都认为这是逻辑智能的本质取决于推理。我们通过一些符号政策来实施推理的表达。因此,它可以帮助我们更好地了解知识如何代表另一个知识?这是基于生物学的AI的理解,而生物学和冯·诺伊曼相信。然后,这是智力的基础,最好了解和了解研究网络的某些连接速度。因此,理解这一过程是实现学习的首要任务。如果与这两种理论结合在一起,这是符号AI的原理。这些数字是丑陋的,那么这些数字最终如何关注单词和单词之间的关系?心理学家,他是另一种理论,显然是一种完全不同的理论。含义数字实际上是一系列语义功能。然后,这些品质就存在,自然而然地是一个特质,1985年我创建了一个很小的模型,我想使用这两种理论将它们结合在一起,然后更好地理解人们如何理解一个单词。因此,我为每个单词提供了许多不同的素质。然后记录上一个数字的此功能,我们可以猜测下一个数字是什么,下一个单词是什么,然后猜测下一个单词。在此过程中,我们不存储任何句子,我会形成句子,然后猜测下一个单词是什么。然后,对关系的知识还取决于不同单词的特征以及语义属性的相互作用。未来30年会发生什么?十年后,他还使用了这样的模型来模拟贝奥(Beio),但他做了更大的,等同于对自然语言的真实模拟。 20年后,语言学计算最终开始接受向量表达M的奉献精神单词的恩典。 30年后,Google发明了变压器,然后OpenAI研究人员也展示了他的一切。因此,我们今天的大语言模型,我认为这是微信语言模型的后代。自1985年代以来,他们已经使用了许多单词作为输入,并且使用了更多的神经元结构层。因为有需要。使用了大量模糊的数字,并且在研究特征之间建立了更复杂的接触模式。但是,就像我所做的小型模型一样,单位模型与人类理解语言的方式相同。主要理解是将这些语言更改为某些功能,然后以非常完美的方式将这些功能包括在其中。这就是我在LAM的各个层面上所做的事情,因此我的理解是,大语言模型真正了解您如何理解问题,类似于人们理解语言的方式。所以我在这里给你一个例子,对句子的理解是什么??什么是AI符号?这是为了改变某些符号和语言的事物范围,但是人们以这种方式了解了实际情况。我想在这里举一个例子,这将成为乐高积木。通过乐高积木,您可以制作任何3D。您可以创建汽车的小型型号的模型。您可以处理每个单词Bila多维乐高积木。它可以具有数千种不同的尺寸,因此这些类型的乐高积木可以使许多尺寸制成,它可以是建模,可以制造许多不同的内容。它使语言成为模型。这样的语言也可以随时与人们交谈,只提供该建筑物的块。那么每个构建块都是一个单词。因此,现在我们有许多乐高积木,这与许多不同的乐高积木之间的差异不同。我们有几个带有无数单词的单词,以便乐高的形状是固定的,但是单词,符号,其形状可以使设置形成,但也可以基于var情况。进行调整,然后乐高模型相对具体,将正方形插入正方形的小孔中。但是语言是不同的,每种语言都可以想象每个单词中都有很多人。例如。如果您想更好地理解这个词,可以在这个词和另一个词之间适当握手。因此,一旦这个词的形状发生了变化,换句话说是如何交流的。这里的优化存在问题。在我的话语改变之后,它的含义改变了。那么,如何在下一个单词中避免这个词并带来更好的感觉呢?这就是人脑的含义,或者这种神经网络意味着理解含义。这是最重要的事情。因此,就像将蛋白质与蛋白质结合在一起。蛋白质应通过不同的氨基酸模型整合和整合。整合 - ISIT可以带来更有意义的内容,这就是人的大脑理解单词的方式。道路语言。因此,我今天所说的观点之一是人们理解语言与理解大语言模型的方式非常相似。因此,人们可以成为大型语言模型,人们还将创建幻觉(例如大型语言模型),因为我们还将制作许多幻觉 - 引用某些语言。大型语言模型如何?但是,还有一些主要方式,单位模型与人类不同,它们比人类强。计算机科学的一个基本原则是,我们需要分别查看软件和硬件,这将使您可以为其他硬件运行。这两个软件。这与我们不同,这就是计算机科学的存在。功夫您可以工作,对软件的了解永远存在。该软件将始终放在程序上,并将始终放置在此处。您可以破坏所有可能的硬件,而LM中存在的硬件将被破坏。但是只要是软件的存在,它将在任何时间和任何地方生活,因此,从这个意义上讲,对计算机程序的知识是无穷无尽的,不会死亡。那么,有什么区别?因此,为了实现这种不朽,我们将以很高的力量运行并产生可靠的二元行为,并且此过程非常昂贵。我们无法利用硬件的丰富晶粒粒状特性,因为这些特质是不稳定和可靠的。每个。是的,它是模拟的,因此每次计算它时都会有所不同。模拟了人的大脑。人脑不是数字化的。每当pithe神经元震惊时,都会模拟,并且每次都是相同的。我无法将人脑神经元的结构移至我的大脑,因为我们每个人都适应了我大脑中的神经结构。然后传播知识和硬件的分散意味着人的大脑和硬件是不同的,这会带来问题。如果我们没有实现永生,那就是知识软件。它不取决于硬件,因此不朽,带来了两个主要好处。我们几乎可以使用电力和电力,只有30瓦的大脑就足够了。我们有数万亿个神经元连接,因此在电子管中情况相同。我们不必花很多钱就可以制作完全相同的硬件。但是今天我们仍然有一个大问题,这将从另一个模型中的模拟NA模型转移到它,然后从中转移知识。这是非常无效的,而且非常困难。我不能用我向你展示我的想法。这是不同的。我们所能做的就是使用其他方法。让我向你解释一下我学到了什么。因此,解决此问题的最佳方法称为DeepSeek蒸馏正在这样做,这将使其知识从大型神经网络转移到小型神经网络进行蒸馏。根据这个想法,这是与老师和学习的关系,在某些情况下,老师将事物联系在一起,他联系了D到他们连接的另一个上下文,然后学生可以说同样的话,但是他修复了它,等等。这是我们训练他的方式,这是您移动某人知识的其他人的方式,但他没有效果。因此,也许在100位句子中没有太多信息,这限制了我们可以将知识转移到他人的程度。我可以以非常缓慢的方式将知识转换为您。最好在一秒钟内拥有大约100位。如果您理解我所有的话,效率不是很高,但是如果将其与数字智能之间的知识转换的效率进行比较,则会有很大的差异。我没有相同的神经网络。该软件已经制作了不同的打印方式,并将其放入不同的硬件中。他们都使用数字。他们将以相同的方式使用自己的费率,然后可以通过这种类型的位置在平等上分享知识。在互联网上,我们可以有成千上万的Onesscopy,它们可以改变自己的权重自行进行平均水平,以便他们可以转移知识,然后转移的速度取决于多少连接点。这样,每次您都可以分享数万亿件,而不是很多次,而是数十亿次。然后,比人们共享的知识要快数十亿次。因此,GPT4非常好,它们具有许多不同的印刷品运行不同的硬件,并且可以共享从Internet学到的各种信息。如果有在现实世界中运作的代理,这更重要,因为它们可以继续加速,如果折断副本中有很多代理,那么他们会学到多个代理商。他们可以分享自己的权重,并且软件或模拟硬件的模拟无法做到这一点。因此,我们的观点是,数字计算需要大量的能量,但是代理可以轻松获得相同的体重并分享他们从不同的经验中学到的知识。在生物计算中,能量较少是使用,但是很难分享知识。正如我今天所表明的那样,如果能量廉价,数字计算会更好。这也使我想起。因为几乎所有的专家都认为我们会比我们更聪明。我们习惯于成为最聪明的生物,因此许多人发现如果AI比世界人民更聪明,很难考虑会发生什么?如果您想知道会发生什么,如果不是一个人或最聪明的话,我们可以这样看待它呢?会发生什么?我们可以问一只鸡,我们创建MAI代理商,他们可以帮助我们完成任务。这些代理,它们已经有能力复制它们。他们可以给出子目标评分。然后,他们想做两件事,他们想活下去,然后实现我们给他们的东西。他们还期望获得更多的控制权,同时,可以实现我们为他们提供的目标,以便这些代理想要生存并获得更多的控制。我认为我们无法引起他们的注意。他们召集nt操纵使用它们的人。他们大约3岁,然后他们就像成年人一样。操纵3岁非常容易。因此,如果他们认为自己很聪明,我们会杀死它。这是不现实的。他们将检查它们,我们将鼓励Kumo人格控制它不会关闭。因此,我认为我们处于当前情况。有人将老虎视为宠物,老虎也可以用作老虎幼崽,这是非常可爱的宠物。但是,如果您保留这只宠物,则应确保当它生长时,它不会杀死您。总的来说,养一只老虎作为宠物不是一个好主意,因此只有两个选择。如果您训练它,他不会杀死您。或者,如果您杀死它,如果我们使用AI,我们将无法消除它。 AI是如此出色,而且已经做了很多。已经提到过许多人,例如医疗,教育,气候变化,新材料和AI。这些任务做得很好,这几乎可以帮助所有行业变得更好。我们没有办法摆脱AI。即使一个国家离开AI,其他国家也不会这样做。因此,这不是一种选择,这意味着,如果我们希望人们生活,我们必须找到一种训练AI的方法,以免他们摧毁人。现在,我表达了我的个人意见。我认为国家无法在某些方面进行合作,例如攻击网络或致命武器,或者这种操纵公众意见的虚假视频。这些国家的利益是不一致的,他们有不同的看法,我认为在这方面将有一个有效的国际局势。我们可以避免一些创造病毒的人,但是在这些方面将没有国际合作。但是我们将与之合作的一个方面,我认为这也是最重要的问题。让我们看看1950年代冷战的罗克。美国和苏联共同努力避免全球核战争。没有人愿意与核战争作斗争。尽管他们在许多方面说话,但他们可以工作在这一点上在一起。我们目前的情况是,没有任何国家想统治世界,每个国家都希望人们控制世界。如果一个国家找到一种防止AI操纵的方法,那么这个国家肯定会很乐意告诉其他国家。因此,我们希望拥有一个由AI安全机构组成的国际社会,以学习技能,培训AI并做得好。我们的希望是训练AI做好。可以说这与培训AI技术不同。因此,每个国家都可以进行自己的研究使其成为AI。他可以对他的主权AI进行研究,并且他不能将其交给其他国家,但是他可以与所有人分享结果,也就是说,如何培训AI并使AI变得好。然后,我有一个建议,世界或主要国家或主要国家国家应该考虑开发网络,包括不同国家的一些机构来研究这些问题,以及如何培训AI,非常聪明的AI。让AI不想摧毁人民并统治世界,让AI乐意完成辅助任务。尽管AI比人聪明,但我们不知道该怎么做。从长远来看,可以说是人类面临的最重要问题。我们的好消息是,在这个问题上,所有国家都可以一起合作,谢谢。 。将永远成为黄伦Xun,并获得更多控制权! AI教父Hinton宣布了AI想要做的两件事