英伟达飙升的股价也是美国最佳就职企业前 100 位排名将其排在半导体行业公司前列的原因之一。美国最佳就职企业前 100 排名是通过调查在 1000 个美国大型公司就业的 5 万就业人员而得出的,调查主要考虑的因素包括雇员对公司的评价、顾客对公司的评价以及股东的评价。 在报告考察的 10 个领域内,英伟达在员工薪水支付和员工福利、企业属性和对环境影响上的表现都远超平均水平。友好的员工工作政策,包括富裕的休假时间、弹性的工作时间以及压力缓解项目,这些使英伟达在 Glassdoor 的排名远远好于行业内的其他公司,Glassdoor 是硅谷技术人员跳槽的判断来源网站。在一个男性为主的行业,英伟达甚至有专门提高女性和少数族裔工程师在企业核心职位的政策。 「我运营公司的方式是把公司当做一个人来管理,公司是一个生命体。」黄仁勋说,「公司的文化是公司的精髓也是公司运作的保障。在怎么创建公司上我所学到的唯一有价值的东西就是:公司的文化是这个公司最宝贵的财富。」 由 Nvidia’s GTX 1080 显卡驱动的 Titanfall 2 游戏截屏 黄仁勋一直知道他们的图形芯片不只是能驱动最新的视频游戏,而且还有很大的潜力,但他并未预见到图形芯片向深度学习的转向。深度学习技术(传统上是指神经网络)可以说是在大脑中的神经元和突触的工作方式上获得了一点点启发。至少自 1960 年代以来,它们就一直存在于学术界了,到了 1980 年代和 1990 年代,学术界也取得了一些重大的进展。但这段时间还有两个因素一直在阻碍着深度学习的腾飞:算法的训练所需要的数据量和廉价纯粹的计算处理能力。互联网解决第一个问题,似乎突然之间,我们就有了带着每个人的标签的无限数据。但算力的问题还有待解决。 从 2006 年开始,英伟达发布了一个名叫 CUDA 的编程工具包,该工具包让开发者可以轻松编程屏幕上的每一个像素。为了渲染每一个像素,GPU 往往需要同时执行成千上万个微型的计算操作。这些操作执行的是很多更低层面的数学计算,比如渲染阴影、反射、光照和透明度。在 CUDA 发布之前,给 GPU 编程对程序员来说是一件极其痛苦的事,因为这涉及到编写大量低层面的机器码。而 CUDA 经过了 Nvidia 的多年开发之后,成功将 Java 或 C++ 这样的高级语言开放给了 GPU 编程,从而让 GPU 编程变得更加轻松简单。使用 CUDA,研究者可以更快更便宜地开发他们的深度学习模型。 「深度学习几乎就像是大脑一样,」黄仁勋说,「它高效得难以置信。你几乎可以教他做任何事。但它也有一个巨大的短板:它需要大量的计算。而现在我们有了 GPU,这简直就是为深度学习所设计的完美计算模型。」 大规模采用深度学习的关键时刻出现在 2010 年 Palo Alto 一家日式餐厅的晚宴上。斯坦福大学一位语气温和的教授吴恩达当时正在那里面见谷歌(现 Alphabet)CEO Larry Page 和时任 Google X 负责人的天才计算机科学家 Sebastian Thrun。两年之后,吴恩达写出了世界上最早的一篇关于有效应用 GPU 计算深度学习模型的学术论文。 「在 2008 年,深度学习还非常不受欢迎,」吴恩达说,「思考算法技巧可要性感多了。」 Thrun,首批实用自动驾驶车辆中的一部分就是由他研发的,在斯坦福时与吴恩达一个办公室,而且这两位科学家向 Page 游说,要在谷歌建造一支深度学习研究团队。这是有意义的:对于建造世界上最大的神经网络来说,谷歌庞大的计算基础结构再合适不过了。佩奇同意了,Google Brain(谷歌大脑)也因此诞生。如今,谷歌大脑的深度学习研究几乎渗透到每个谷歌产品中,特别是搜索、语音和图像识别。 当谷歌开始成立谷歌大脑时,2500 英里之外的另一位研究人员也正在摆弄着深度学习技术。2012 年,Alex Krizhevsky 当时还是多伦多大学的博士生,向 ImageNet 提交了一些令人吃惊的研究。Alex Krizhevsky 将 120 万张图片输入一个深度学习神经网络,这个网络是由英伟达的 GeForce 游戏卡驱动的。他的模型的图像识别准确率是当时最高的,误差率仅为 15%——之前还高达 25%,这是一巨大飞跃。Alex Krizhevsky 不仅轻易赢得了比赛,而且其成绩也在学术界中迅速火起来(目前,Alex Krizhevsky 和他的前多伦多大学教授都在谷歌工作。) (责任编辑:本港台直播) |