人工智能与人类智能相遇
Salk 生物研究所的计算神经科学家Terrence Sejnowski说,深度学习和神经网络等流行词无处不在,但很多流行的理解都是错误的。
The Verge与 Sejkowski 谈到了深度学习是如何突然变得无处不在,它能做什么,不能做什么以及炒作的问题。
首先,我想问一下定义人们几乎可以互换使用诸如人工智能和神经网络以及深度学习和机器学习之类的词但这些是不同的东西——你能解释一下吗
照片:特伦斯·塞诺夫斯基
人工智能可以追溯到 1956 年的美国,当时工程师决定编写一个计算机程序来尝试模仿智能在人工智能中,出现了一个名为机器学习的新领域而不是编写一个逐步的程序来做某事——这是人工智能中的传统方法——你收集了大量关于你试图理解的东西的数据例如,设想您正在尝试识别物体,因此您收集了很多它们的图像然后,通过机器学习,这是一个自动化的过程,可以剖析各种特征,并找出一个是汽车,另一个是订书机
机器学习是一个非常大的领域,可以追溯到很久以前最初,人们称其为模式识别,但算法变得更广泛,在数学上也更复杂在机器学习中是受大脑启发的神经网络,然后是深度学习深度学习算法具有特定的架构,其中有许多层流经网络所以基本上,深度学习是机器学习的一部分,机器学习是人工智能的一部分
深度学习能做什么其他程序做不到的。
编写程序非常耗费人力回到过去,计算机非常慢,内存非常昂贵,以至于他们求助于逻辑,这就是计算机的工作原理这是他们操纵信息位的基本机器语言计算机太慢了,计算太贵了
但是现在,计算成本越来越低,劳动力也越来越贵而且计算变得如此便宜,以至于让计算机学习比让人类编写程序更有效率那时,深度学习实际上开始解决以前没有人编写过程序的问题,例如计算机视觉和翻译等领域
学习是难以置信的计算密集型,但你只需要编写一个程序,通过给它不同的数据集,你就可以解决不同的问题您不必是领域专家因此,对于有大量数据的任何事物,都有成千上万的应用程序
深度学习现在似乎无处不在它是如何变得如此占主导地位的
实际上,我可以将其归结为历史上的一个特定时刻:2012 年 12 月的NIPS 会议,这是最大的 AI 会议在那里, Geoff Hinton和他的两个研究生展示了你可以使用一个名为 ImageNet 的非常大的数据集,其中包含 10,000 个类别和 1000 万张图像,并使用深度学习将分类错误减少 20%
炒作的问题在于人们的时间表是错误的
传统上,在该数据集上,错误在一年内减少不到 1%一年之内,20年的研究就被绕过了这真的打开了闸门
深度学习的灵感来自于大脑那么这些领域——计算机科学和神经科学——是如何协同工作的呢
深度学习的灵感真的来自神经科学看看最成功的深度学习网络那是Yann LeCun开发的卷积神经网络或 CNN
如果你看一下 CNN 的架构,它不仅仅是许多单元,它们以一种反映大脑的基本方式连接起来在视觉系统中研究得最好的大脑部分和视觉皮层的基本工作表明存在简单和复杂的细胞如果你看 CNN 架构,有简单细胞的等价物,也有复杂细胞的等价物,它直接来自我们对视觉系统的理解
Yann 并没有盲目地尝试复制皮层他尝试了许多不同的变化,但他所融合的都是自然所融合的这是一个重要的观察自然和人工智能的融合有很多东西可以教给我们,而且还有很长的路要走
我们对计算机科学的理解在多大程度上取决于我们对大脑的理解。
嗯,我们目前的大部分人工智能都是基于我们在 60 年代对大脑的了解我们现在知道的更多,并且更多的知识被纳入架构中
击败围棋冠军的程序AlphaGo不仅包括皮层模型,还包括称为基底神经节的大脑部分模型,这对于做出一系列决策以实现目标很重要那里有一种称为时间差异的算法,由 Richard Sutton 在 80 年代开发,当与深度学习相结合时,它能够进行人类从未见过的非常复杂的游戏
当我们了解大脑的结构并开始了解如何将它们集成到人工系统中时,它将提供越来越多的能力,远远超出我们现在的水平。特别是,今年的诺贝尔物理学奖授予了气候和材料科学领域的复杂系统,以及高能物理和天体物理学。
人工智能也会影响神经科学吗。。
它们是并行的努力创新的神经技术已经取得了巨大的进步,从一次记录一个神经元到同时记录数千个神经元,同时大脑的许多部分,为此完全打开了一个全新的世界
我说过人工智能和人类智能之间正在发生融合伴随着我们越来越多地了解大脑是如何工作的,这将反映在人工智能中但与此同时,他们实际上正在创造一个完整的学习理论,可以应用于理解大脑,让我们能够分析成千上万的神经元以及它们的活动是如何产生的所以在神经科学和人工智能之间存在这种反馈循环,我认为这更令人兴奋和重要
你的书讨论了深度学习的许多不同应用,从自动驾驶汽车到交易有没有你觉得最有趣的某个领域
一个让我完全震惊的应用是生成对抗网络,或 GANS使用传统的神经网络,你给一个输入,你得到一个输出GAN 能够在没有输入的情况下开发活动——输出
是的,我在这些网络创建假视频的背景下听说了这一点他们真的会产生看起来很现实的新事物,对吧
从某种意义上说,它们正在产生内部活动事实证明,这就是大脑的工作方式你可以向外看,看到一些东西,然后你可以闭上眼睛,你可以开始想象不存在的东西你有一个视觉意象,当事情安静时你会有想法那是因为你的大脑是生成性的现在,这种新型网络可以产生从未存在过的新模式所以你可以给它,例如,数百张汽车的图像,它会创建一个内部结构,可以生成从未存在过的汽车的新图像,它们看起来完全像汽车
另一方面,您认为哪些想法可能被过度炒作。
没有人可以预测或想象这种新技术的引入将对未来的组织方式产生什么影响当然有炒作我们还没有解决真正困难的问题我们没有普遍的智能,但人们说机器人即将取代我们,尽管机器人比人工智能落后得多,因为身体比大脑更复杂,难以复制
让我们只看一项技术进步:激光它是大约 50 年前发明的,它占据了整个房间从那个房间到我演讲时使用的激光笔需要 50 年的技术商业化它必须被推进到你缩小它并以五美元购买它的地步同样的事情也会发生在像自动驾驶汽车这样被炒作的技术上预计明年或可能不会在 10 年内无处不在这可能需要 50 次,但重点是,在此过程中,将会有渐进式的进步,这将使其变得越来越灵活,更加安全,并且与我们组织交通网络的方式更加兼容炒作的问题在于人们的时间表是错误的他们期待太多太快,但在适当的时候它会发生
。郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。
2021-12-08 15:29
2021-12-08 15:28
2021-12-08 15:27
2021-12-08 15:27
2021-12-08 15:26
观察家网© 2012-