IP:看起来像是潘多拉魔盒。一方面我们在研究让人类觉得它是人类的人工智能,一方面在暴露新的风险。机器学习看起来以对抗样本的方式引入了新的缺陷。你认为有没可能找到一种方式,保护所有的神经网络不被攻击?还是说这就是模型不可避免的问题? Ian Goodfellow:这是一个非常重要的开放问题。我们希望能够写出一个定理,告诉我们在防御对抗样本上我们能期待多大。目前,我们还没有多少理论上的卫士(guidance)。实际上,防御要比进攻难。 IP:AI 总是基于云服务,这是否让攻击变的很容易? Ian Goodfellow:不是,只要云服务提供商采取合适的安全措施,所有东西放到云中会更好,以便于只防御一个系统。 IP:SVM、决策树这样的人工智能方法都有这个问题吗? Ian Goodfellow:是的。实际上,在许多情况下,同样的输入样本会欺骗多种不同的机器学习算法。 IP:如果一些已经工作的人(不是学生)现有学习机器学习,你有什么推荐? Ian Goodfellow:可读一下我和 Yoshua Bengio 、Aaron Courville 合著的《深度学习》,同时找一些能实践的机器学习项目。机器学习如今到处都是,所以在日常任何工作中都能很轻易的找到机器学习项目。 本文为机器之心整理,转载请联系本公众号获得授权。 ?------------------------------------------------ 加入机器之心(全职记者/实习生):[email protected] 投稿或寻求报道:[email protected] 广告&商务合作:[email protected] (责任编辑:本港台直播) |