本港台开奖现场直播 j2开奖直播报码现场
当前位置: 新闻频道 > IT新闻 >

报码:【j2开奖】是时候告诉你,AI内心的黑暗秘密了……(3)

时间:2017-04-25 10:52来源:香港现场开奖 作者:j2开奖直播 点击:
然而,我们需要的不仅是AI思维的惊鸿一瞥,也没有简单的解决方案。 深层神经网络内部计算和相互作用,是高层次模式识别和复杂决策的关键, 开奖 ,

然而,我们需要的不仅是AI思维的惊鸿一瞥,也没有简单的解决方案。深层神经网络内部计算和相互作用,是高层次模式识别和复杂决策的关键,开奖,但这些计算是数学函数和变量的泥潭。“如果你有一个很小的神经网络,你可以了解它,”Jaakkola说。“但一旦它变得非常大,它每层有成千上万的单元,也许有几百层,它就将变得无法理解。”

在Jaakkola办公室旁边的是MIT教授Regina Barzilay,她正致力于将将机器学习应用于医学。几年前,她在43岁时,被诊断出患有乳腺癌。诊断本身是令人震惊的,Barzilay也很沮丧,当时尖端的统计和机器学习的方法还没有被用来帮助或指导患者进行治疗肿瘤的研究。她说,人工智能有巨大的潜力去进行医学革命,但认识到这一潜力将意味着不仅仅是超越医疗记录。她希望能使用更多的原始数据。她说:“目前我们还没有充分利用影像资料、病理资料,所有这些信息。”

上一年完成了癌症治疗后,Barzilay和她的学生们开始和马萨诸塞州总医院的医生们一起工作,来开发一个系统,来能够挖掘研究员想要学习的病理报告,来确定患者的具体临床特点。当然,Barzilay明白,系统需要解释它的推理过程。所以,和Jaakkola以及一个学生一起,她加了一步:系统提取和突出文本片段,这是一个具有代表性的发现模式。Barzilay和她的学生也正在开发一种乳腺X线图像深度学习算法,能够发现早期乳腺癌的症状,他们的目标是解释这个系统的推理能力。

美国军方正投入数十亿美元,使用机器学习来引导车辆和飞机识别目标,并帮助分析人员筛选出大量的情报数据。不同于其他领域,甚至是医学领域,国防部已经将证明机器学习的“可解释性”看做一个关键的“绊脚石”。

David Gunning,美国国防高级研究计划局的项目负责人,负责名为Explainable Artificial Intelligence program的人工智能“可解释性”项目。这位满头银发的老兵,曾监督DARPA项目,最终导致Siri的成立。情报分析人员正在测试机器学习,作为识别大量监控数据模式的一种方法。许多自主地面车辆和飞机正在开发和测试。但如果一个机器坦克不能解释自己的行为,士兵可能感到不舒服,分析师也将不愿意对没有理由的命令采取行动。Gunning说:“这些机器学习系统的本质往往是产生大量的假警报,所以英特尔的分析师真的需要额外的帮助来理解为什么要做一个推荐。”

今年3月,在学术界和工业界帮助下,DARPA选择了13个项目,来获得Gunning的项目的资金支持。他们中的一些人可以加入华盛顿大学教授Carlos Guestrin的团队。他和他的同事们已经开发出一种机器学习系统,为其输出提供了理由。基本上,在这种方法下,计算机自动从数据集中找到几个例子,并提供一个简短的解释。例如,一个将电子邮件分类出恐怖分子信息的系统,可以在训练和决策中使用数以百万计的信息。但是使用华盛顿团队的方法,它可以突出在消息中发现的某些关键词。Guestrin的团队还设计了在图像识别系统中,高亮对其进行推理时的关键图像。

这种方式和其他的类似方法一样,比如Barzilay的,就是说明的部分太过简化,所以可能会丢失重要的信息。“我们还没有实现梦想,当AI与你交谈时,让它能够解释。”Guestrin说。“我们有很长的路要走。”

癌症诊断和军事演习这种高风险的情况之外,当该技术日益普及,成为我们生活中重要的应用之后,在其他领域,知道AI是如何给出解释的,也是同样重要。Tom Gruber是苹果公司Siri 团队的负责人,他说,“可解释性”对他的团队而言,同样也是至关重要的,它能帮助Siri成为更聪明和更强大的虚拟助理。他不愿意讨论Siri未来的具体计划,但这很容易想象,如果你收到一个来自Siri的餐馆推荐,你会想知道理由是什么。Ruslan Salakhutdinov,苹果的人工智能研究室主任和卡内基梅隆大学副教授,也看到了“可解释性”是关系着人类与智能机器之间演化的核心问题。“这将带来信任。”他说。

(责任编辑:本港台直播)
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
栏目列表
推荐内容