中文 英语
18l18luck新利
的意见

计算机技术的下一步是什么?

IBM讨论了人工智能、神经网络和量子计算。

受欢迎程度

在最近的IEDM会议上,IBM阿尔马登研究院副总裁兼实验室主任Jeff Welser坐下来与半导体工程公司讨论了人工智能、机器学习、量子计算和超级计算。以下是那次谈话的节选。

SE:高端计算将走向何方?

六须鲇:我们看到许多不同的系统开始出现。首先,HPC(高性能计算),或者说经典的计算性能提升,会继续千兆级系统已经存在了,着眼于外尺度。我们真的在尝试如何继续构建大型冯·诺依曼架构来解决真正大而快速的问题。它也做类似事务处理的事情。我们将继续推动这一点。但是我们在摩尔定律下所做的正常的缩放已经变得越来越具有挑战性,这些其他的范式也出现了。

IBM红杉是千兆级蓝色基因/Q超级计算机(来源:维基百科)

SE:还发生了什么?

六须鲇:我们现在看到我们所谓的人工智能(AI)的工作量越来越大,这主要是围绕神经网络或机器学习之类的技术。这些与这些高性能计算系统的处理能力有很大的不同。它们不一定需要高精度、极快的浮点运算。例如,他们真正需要的是分析大量数据的能力,然后通过许多不同的周期来训练神经网络。然后,当你得到结果时,你期待的答案不是一个确切的数字。你所期望的是识别一辆在街上行驶的汽车,或者像大脑一样识别阅读的文本。那是另一种问题。你可以在普通电脑上做。已经有人这么做了。但当你开始使用图形处理器时,它们在做神经网络所需的计算时表现得更好。

SE:在神经网络中,系统处理数据并识别模式。随着时间的推移,它会了解哪些属性是重要的。这不是什么新鲜事,对吧?

六须鲇:神经网络并不新鲜。它们至少在20世纪70年代和80年代就已经存在了。直到最近,这个行业才在这方面取得了很大的成功。这源于两件事。一个是我们现在以数字形式标注的数据的绝对流行。你现在有足够的数据来训练一个神经网络。第二,我们现在能够建立一个足够大的神经网络。这真的是一个有足够计算能力的功能。具体来说,GPU架构对于真正运行大型神经网络非常有用。

SE: IBM在这里做什么?

六须鲇:POWER9系统是IBM推出的。它是为高性能计算而设置的。但是从下往上,它还可以运行人工智能工作负载.它混合了图形处理器和POWER处理器,数量庞大,成千上万个这样的处理器组成了一个大系统。想要大型HPC系统的人也认为需要将大型GPU系统混合在一起,以运行AI工作负载,与他们在更传统的空间中所做的事情相一致。

POWER9处理器(来源:IBM)

SE:让我们来谈谈量子计算。在经典计算中,信息以比特形式存储,可以是“0”或“1”。在量子计算中,信息存储在量子比特或量子位中,可以以“0”或“1”或两者的组合形式存在。叠加态使量子计算机能够一次执行数百万次计算。IBM正在开发量子技术电脑,对吗?

六须鲇:我们现在有一个16量子比特的系统,我们在云上,任何人都可以出去使用。我们已经宣布,明年我们将有20个量子比特商业化,一年左右将有50个量子比特。这是针对非常具体的问题。大多数人一听到它,就会想到密码学或者我们将以某种方式破解所有加密。当然,如果我们有数百万个量子比特,这可能是你可以做的事情。但在那之前很久,我们发现你可以用这些系统来做一些事情,比如模拟量子化学或模拟材料过程。基本上,你是在模拟本质上是量子的东西。看起来你可以用相当少的量子位来做到这一点。然而,量子比特相当容易出错。保持量子比特的一致性是一个挑战。

图1。A) 20量子位系统示意图,B) 50量子位系统说明量子位互连。这种复杂的互连结构为IBM Q系统提供了最大的灵活性。50量子位是20量子位架构的自然延伸。C)第一代IBM Q系统的量子处理器包的照片。该处理器在超导量子比特设计、连通性和封装方面进行了改进。(来源:IBM)[/标题)

SE:沃森是什么?

六须鲇:沃森不是一台单独的机器。它是算法和过程的集合。其中许多是在传统硬件上运行的。一些人使用深度学习。基于它试图解决的问题,我们将混合使用算法和硬件。

SE:让我们回到传统的超级计算。这仍然重要吗?挑战是什么?

六须鲇:继续推动高性能计算机的发展至关重要。还有很多问题需要这样的计算,我们无法解决。预测天气就是一个例子。这是一个难以置信的大问题。你会在里面放很多处理器。所以你有很多处理器,但除非它们都能有效地通信,否则你会发现它们真的不会比一次移动一个东西快得多。

SE:还有其他挑战吗?

六须鲇:它在计算能力、内存能力和计算功能之间来回移动数据之间取得了平衡,这样你就可以保持计算机全速运行。

劳伦斯利弗莫尔国家实验室正在准备Sierra,实验室的下一个先进技术的高性能超级计算机。由IBM开发的Sierra系统最终将达到每秒125千万亿次浮点运算。预计在2018年,Sierra将配备两个IBM Power 9处理器和每个节点4个NVIDIA Volta gpu。(来源:劳伦斯利弗莫尔国家实验室)

SE:机器学习在哪里发挥作用?

六须鲇:神经网络和我们所说的人工智能最有用的地方是在非结构化数据中,无论是图像、文本、传感器数据还是音频数据。这些东西并不容易放入数据库中。

SE:你在哪里使用它?

六须鲇:你可以把它应用到很多应用中。如果你想为自动驾驶汽车做图像识别,你需要一些东西,你可以立即找出你周围的东西,并尝试识别它。你可能会用它来交通。到处都有交通摄像头。然后,你试图弄清楚交通是如何移动的。所以它是你试图真正识别模式和对象的任何地方。对于语言,它也很好。

SE:在这些系统的架构方面还没有达成共识。有的使用asic,有的则使用fpga、gpu和mpu,对吧?

六须鲇:我们都在做这个实验。GPU结构本身已经被证明非常有用。你会看到人们推出TPU或在fpga中构建自己的定制电路。我们都在努力为此找到最佳和有效的结构。需要区别的一点是,你是在训练系统吗?所以你需要一个系统来发送大量的数据并更新权重吗?或者你有一个完全训练好的神经网络你已经完成了,你只是想运行然后进行推理,也就是说,只是识别事物。

SE:不久前,IBM推出了一款神经形态芯片TrueNorth。一个TrueNorth处理器由54亿个晶体管连接在一起,形成一个由100万个数字神经元组成的阵列,这些数字神经元通过2.56亿个电突触相互通信。TrueNorth做什么?

六须鲇:它只是用来做推理的。我们的想法是,我们想要达到极低的功耗和快速。我们想在手机或其他移动设备上做实时视频。所以我们去掉了训练中需要的东西,比如很多高精度浮点数。这只是一个神经网络。如果你想在边缘上嵌入,这很好。对于训练,我们将使用普通的GPU训练系统。然后你可以把它下载到芯片上进行推断。

TrueNorth芯片核心阵列(来源:IBM)

SE:神经形态芯片是处理内存数据的快速模式匹配引擎。第一个神经形态类芯片基于sram,其编程能力有限。下一波神经形态芯片将朝着相变和ReRAM方向发展。有什么想法吗?

六须鲇:TrueNorth是全数字CMOS。这是在模仿扣球。你所说的很多记忆基本上都是在试图想出一个类似的东西。这就是很多人现在所关注的问题,并问:这样做的好记忆是什么?感觉是,这可能比数字实现更有效,至少对于神经元连接来说是这样的。

SE:人工智能将走向何方?

六须鲇:专门的人工智能,或特定任务的人工智能,现在真的在工作。我们在这个行业中真正看到的是,人们很快就发现了如何将它应用到不同的行业领域。例如,我们可以把它用作放射科助理。你如何使用它来帮助放射科医生看核磁共振扫描?或者如何使用它来帮助物联网领域?所有这些传感器数据都来自一个工业工厂。你如何利用这些数据来进行预测并更好地经营工厂?所以我们真的处在如何继续开发有意义的领域的阶段。与此同时,我们正在寻找推进这一进程的途径。



1评论

鲁道夫 说:

你说得好像IBM研究院还是1984年左右的样子。IBM拥有一些关于学习的专利。我下一本书的名字暂定为《相位-时间》。但我会忙着回应那些认真对待事情的人。

留下回复


(注:此名称将公开显示)

Baidu