今年的NIPS大会上,Google不但作为铂金赞助商强势占位,而且携28篇论文亮相,不可不谓风头无二。 据悉Google搞深度学习的不下500人,也发布了TensorFlow等一系列有影响力的开源框架。 苹果则在深度学习领域似乎动作缓慢,人工智能界著名的大(peng)嘴(zi) ,Facebook人工智能实验室总监LeCun也怒喷苹果在人工智能学术圈根本没有一席之地。(当然被他喷过的人很多,以后有机会再八) 请点击此处输入图片描述 不过LeCun万万没想到,苹果却很可能走上了一条农村包围城市的道路,默默在憋大招,搞了一套叫Metal的深度学习框架,让所有程序员都可以轻轻松松的使用深度学习。深度学习有望在苹果的带领下发扬光大,让其他竞争对手陷入人民战争的汪洋大海中... 另外,文末有两个价值百万的idea!!! 请点击此处输入图片描述 先来看一个演示: 请点击此处输入图片描述 这是利用苹果的深度学习开发包Metal调用CNN做的图像识别的演示,可以看到它能在手机上实时的识别出笔记本,iPod,或者是遥控器。 注意,这里有两大亮点,第一就是输入是实时的视频流,第二就是无需联网在iPhone本机就可以做。 这个意义有多大呢? 2012年的时候,谷歌用了一万六千台机器集群,用一千万个Youtube视频,开奖,训练了很长时间才达到识别视频中猫的效果! 如今,你用一个不联网的iPhone就能做到了... 请点击此处输入图片描述 是不是觉得难以置信! 请点击此处输入图片描述 简单的说,苹果的深度学习开发包Metal能够让广大iOS开发者非常方便的调用Metal提供的API来输入数据,选择模型,以及设置并发,并通过Shader的封装直接控制GPU。 再直白点,只要你懂Swift,只需要一台最新的iPhone 7手机,你就能开发基于深度学习的应用! 这套Metal的框架,atv,让你能够搭积木一样搭出一套深度学习的应用,并提供了一套接口让你直接操控GPU里的运算单元(得益于A10芯片是苹果自己做的)。 请点击此处输入图片描述 在程序员大致了解了各种神经网络的适用范围之后,拍脑袋或者实际测试自己适合的神经网络模式,然后就可以鼓捣深度学习的应用了,就像写Swift代码一样容易。 是的,童叟无欺,你可以做语音识别、图像识别、NLP等各种应用,文末我还会提供源代码! 比如利用Metal这个框架,你可以做语音识别!下面是个Demo: 请点击此处输入图片描述 你还可以调用CNN做图像识别,深度学习技能Get! 请点击此处输入图片描述 其他的图像聚类啊打标签啊,也是分分钟的事情啊! 嫌这个图像识别太简单? 第一个例子里,你能开发基于深度学习的实时图像识别,也就是直接用手机摄像头做实时的图像识别。 请点击此处输入图片描述 操作各种图片,聚类啊,打标签啊,滤镜什么的,那是分分钟的事情。 请点击此处输入图片描述 瞬间,你就成了会深度学习懂人工智能的高科技码农,想想是不是有点小激动啊? 不得不说,Metal对于iOS开发者,甚至是所有的程序员来说是意义极其重大的(可以想象其他厂商也许会跟随,不过壁垒在于苹果是自己开发的A10芯片才能够操作底层GPU): 请点击此处输入图片描述 这是一件“开发者的大事,大快所有人心的大好事”。 还不信么? (责任编辑:本港台直播) |