编者按:谷歌、Facebook和微软等公司目前仍可以使用标准电脑芯片,也就是我们常说的CPU来保证神经网络的正常运行。但由于CPU在当初是被设计成全功能处理器,因此处理效率很低。与那些专门处理人工智能系统大量数学运算的芯片相比,神经网络运行速度更快,能耗更低。目前,各大巨头已经瞄准了AI芯片这个方向,正在比拼开发速度。 Yann LeCun曾制造了一种智能芯片,命名为ANNA。那是25年前,也就是1992年,LeCun还是地处纽约城外的贝尔实验室的一名研究员。他和其他几名研究员一起设计了这款芯片来运行深度神经网络,这里的神经网络指的是能通过分析大量数据来完成自主学习任务的复杂精确的系统。但ANNA没能触及大众市场。虽然该神经网络能很好地识别个人支票和信封上的字母和数字,但涉及到其他任务时,其表现差强人意,至少在实用性方面没那么令人满意。 然而如今,神经网络正在快速改变互联网产业的巨头们,包括谷歌、Facebook和微软。现在,LeCun负责Facebook的人工智能中心实验室,研究方向是利用神经网络识别照片中的人脸和其他对象以及翻译等等。LeCun说,在25年后的今天,市场非常需要像ANNA这样的芯片,不久后这些芯片就能实现量产。 谷歌也在最近制造了自己的人工智能芯片,取名为TPU,并广泛配置在公司的大型数据中心里——正是这些数据中心构建起了谷歌庞大的网络帝国。内置于服务器的数千TPU芯片一起完成从识别安卓手机语音输入指令到在谷歌搜索引擎里筛选搜索结果的功能。但这仅仅是即将掀起的新浪潮的开始。上周,据CNBC报道,当初TPU的设计团队中几名工程师现在加入了悄悄成立的新公司Groq并开始制造类似的人工智能芯片,开奖,而其他鼎鼎大名的芯片制造商如英特尔、IBM、高通公司等,在这个方向也有一定动作。 谷歌、Facebook和微软等公司目前仍可以使用标准电脑芯片,也就是我们常说的CPU来保证神经网络的正常运行。但由于CPU在当初是被设计成全功能处理器,因此处理效率很低。与那些专门处理人工智能系统大量数学运算的芯片相比,神经网络运行速度更快,能耗更低。谷歌表示,使用TPU芯片为公司节约的成本足够新建15个数据中心。现在,谷歌和Facebook等公司正在研究将神经网络运用到手机和VR设备上,j2直播,以此减少图像在数据中心间传输的延时。因此他们也需要能配置在个人设备上的人工智能芯片。LeCun说,离更专业化、更高效的芯片还有很大的空间。 换句话说,人工智能芯片市场潜力巨大,因此许多公司都纷纷加入人工智能芯片研发这一浪潮。 技术专家 英特尔在收购了一家名为Nervana的初创公司后,开始研究制造一款专研机器学习的芯片。IBM也正在研发一款硬件结构与神经网络设计类似的芯片。据LeCun透露,最近高通公司也在研制专门运行神经网络的芯片。LeCun对此熟悉,因为他所在的Facebook参与了该芯片研发过程中机器学习方面的技术搭建。高通公司主管技术的副总Jeff Gehlhaar证实了这一消息。他表示,高通公司在原型设计和开发上已经有了很大进展。 同时,nVidia也在努力踏足这一领域。就在上个月,这家硅谷的芯片制造商聘请了Clément Farabet。Clément Farabet在纽约大学师从LeCun,主攻人工智能芯片构建,随后成立了研究深度学习的初创公司Madbits,该公司于2014年被Twitter收购。 nVidia已经成为了人工智能领域的一股主导力量。谷歌和Facebook等公司要想让神经网络实现翻译功能,首先要“训练”神经网络,要让它掌握大量的现成翻译结果。nVidia公司制造的GPU芯片的典型运用就是缩短该“训练”阶段所需的时间。LeCun说,GPU芯片几乎垄断了这一市场,尤其是nVidia的GPU芯片。Farabet的到来说明nVidia公司与高通公司一样,也在探索如何实现神经网络在芯片中的运行。 GPU也就是图形处理器(graphics processing units),一开始并不是为人工智能设计的。最初GPU是用于图形显示。大约5年前,谷歌和Facebook等公司开始把GPU用于神经网络“训练”,结果证明GPU芯片的确是完成这一任务的最佳选择,LeCun也相信今后GPU芯片仍然会发挥这样的作用。他说,现在程序员和公司都对GPU芯片十分熟悉了,并且有使用GPU芯片所需的所有工具手段。GPU芯片的这一地位很难被取代,因为取代它需要的是一整套系统。但LeCun也相信新型的人工智能芯片将会改变大公司运行神经网络的方式,在数据中心和消费者终端都是如此——这几乎涵盖了从智能手机到智能剪草机和吸尘器的所有设备。 (责任编辑:本港台直播) |