最终,这种分类步骤——被称为监督学习——可能变得自动化,就像公司追求的机器学习圣杯「无监督学习」那般,神经网络有能力自己找出所有这些图片中都有些什么。Paluri 说:「公司正在取得进展,他说,在下一年我们的目标是把人工标注的数量降低 100 倍。」 长远来看,为了 Candela 所说的通用内容理解引擎(generalized content understanding engine),Facebook 会将视觉皮层与自然语言平台的融合。Paluri 说:「无疑我们最终会把它们结合在一起,接着我们会把它做成皮层(cortex)。」 最终,Facebook 希望用于取得进步的核心原理通过论文发表等方式扩展到公司之外,从而使其民主化方法论(democratizing methodology)更广泛地传播机器学习。Mehanna 说:「摈弃花费数年时间努力建构一个智能应用的方式,其实你可以更快地构建应用。想象一下其在医药、安全和交通领域的影响。我认为这些领域应用的构建将快上 100 倍。」
2017 年 2 月 6 号,Facebook 应用计算机视觉团队负责人 Manohar Paluri 在加利福尼亚 Menlo 公园 20 号楼,照片由 Stephen Lam 拍摄 尽管 AML 深度参与了帮助 Facebook 产品能看能听能解释的史诗般进程,扎克伯格也看到其对 Facebook 作为一家社会公益公司的愿景至关重要。在扎克伯格关于构建未来社区的 5700 词的宣言中,他 7 次引用了「人工智能」,并且全部是在机器学习及其他技术如何使未来社区更安全、更加信息化的背景下引用的。 实现这些目标并不容易,相同原因是 Candela 首先担心参加 AML 工作。当你试图连接几十亿人并为其提供主要的信息源时,问题就会出现,即使机器学习也不能完全解决这些来自人的问题。这就是为什么持续更新算法以决定用户在其新闻推送中将看到什么。当你并不确定那是什么时,你如何训练一个网络来传递最优组合。Candela 说:「我认为这个问题几乎不可能解决。我们随机推送新闻故事意味着你在浪费自己的时间,不是吗?我们只推送一个朋友的新闻故事,赢者通吃。你可以彻底结束这个一轮又一轮的讨论,其中没有最优解。我们尝试做一些探索。」Facebook 将会继续用人工智能来解决这个问题,人工智能不可避免地成为了问题的通用解决方案。Candela 看起来满怀希望地说:「在机器学习和人工智能方面有一系列的行动研究来优化探索的恰当水平。」 当然,当 Facebook 发现自己受假新闻牵连并被当成罪魁祸首时,它会快速召集人工智能团队从服务中清除虚假新闻。这是一次不同寻常的集体行动,其中甚至包括眼光长远的常被作为顾问的 FAIR 团队。LeCun 说。结果证明,FAIR 的努力产生了一个解决问题的工具:被称作 World2Vec 的模型(「vec」是科技术语向量(vector)的缩写,参阅:)。World2Vec 给神经网络带来了一种记忆能力,帮助 Facebook 用信息标注每一条内容,比如内容是谁发的,谁又分享了该内容。(不要把它和谷歌的 Word2Vec 搞混了,一开始我就这样)有了这些信息,Facebook 可以理解假新闻的特征及分享模式,使得通过机器学习策略根除假新闻有了可能。「事实证明,验证假新闻与找到用户最想看的网页并没有什么大不同。」LeCun 说。 Candela 团队建立的平台使得 Facebook 能够最快的速度推出需要审查的产品。它们实际表现如何仍有待观察。Candela 说,目前讨论这些算法减少假新闻的能力还为时过早。但无论这些新措施是否有效,目前的困境提出了另一个问题:一个解决问题的算法——即使是机器学习算法——也可能会产生意想不到的甚至有害的后果。有些人认为在 2016 年这样的事已经发生了。 Candela 反对这种观点。「我认为我们已经使世界变得更美好了。」他说道,并讲了一个故事。在采访的前一天,Candela 打电话给一位只有一面之缘的 Facebook 用户——一个朋友的父亲。他看到那个人在 Facebook 上发布了支持特朗普的故事,并对此感到困惑。然后 Candela 意识到他的工作是根据数据做出决定,他缺少重要的信息。所以他联系了这个人并请求进行谈话。对方同意之后他们进行了电话沟通。「这没有改变我的世界,但让我学会了以一个非常不同的方式来观察事情的方法,」Candela 说。「在一个没有 Facebook 的世界里,我永远不会和他出现交集。」 (责任编辑:本港台直播) |