Ian Goodfellow:很多想要研究 AI 的人都觉得一个博士学位或者类似的证书是必需品,但是我觉得这已经不再是硬性要求了。我觉得写代码然后把它们放在github上面就是一种很好的吸引注意力的方式。如果你有一个有意思的项目,解决的问题刚好是和顶级研究者一样的问题,那么一旦他们看到了你的github项目,他们就会主动来找你,邀请你去工作。我去年在OpenAI招的、今年在谷歌招的人里面,很多都是因为我先在github上面看到了他们的开源项目,跟他们合作觉得很愉快,然后就把他们招进来了。在arXiv上面发论文也不错。很多时候你的想法可能还推敲得不够深入,没法形成能够被科学界接纳的新的学术成果,但是只是形成一个软件项目就会容易得多、快得多。 吴恩达:所以就是从你的书中学习,再在编程中训练,最后发布在github甚至arXiv上。 Ian Goodfellow:我觉得如果是以看书的方式学习的话,同步开发一个项目真的很重要,找个自己感兴趣的地方试试学到的算法,假设你是一个想学深度学习的户外生物学家,你就可以自己开发一套识别鸟类的系统;或者如果你不知道如何在自己的生活中运用深度学习的话,开奖,你也可以做一个街景照片门牌号分类器,数据集都是现成的,非常好上手。这样就可以看书或者看视频课程的技术解析的过程中对所有的基础技能加以练习。 吴恩达:在过去的两三年时间里,我也看到你做了很多对抗性样本方面的研究,也跟我们讲讲吧。 Ian Goodfellow:对抗性样本其实开创了一个新的研究领域,我把它称作“机器学习安全”领域。以前我们已经见识过了计算机安全问题,攻击者可以欺骗计算机,让它运行别的代码,这是应用层安全;也有的攻击是让计算机错误地识别网络信息的发送者,他们就可以伪装成别的人,这就是网络层安全。现在我们已经表明也可以让机器学习算法出现不正常的表现,即便运行算法的计算机执行的代码是正确的、而且也知道网络信息的发送者到底是谁。我觉得在新技术刚刚出现时就把安全作为它的一部分是很重要的,我们发现已经有一个完整的功能性系统以后再提高它的安全性特别困难。所以我特别支持现在就要重视和提高机器学习安全性的观点,这样才能确保这些算法一开始就是安全的,而不是几年以后再补丁摞补丁。 吴恩达:非常感谢!虽然认识你这么多年了,你讲的这些事情听起来还是那么精彩,我都没想到。谢谢! Ian Goodfellow:谢谢邀请我参加采访,我也聊得很开心! 已经有朋友把7集采访视频搬运到了国内,点击下方链接即可观看。 吴恩达采访 Geoffery Hinton:https://v.wzatv.cc/x/page/u05350zlvrp.html 吴恩达采访 Ian Goodfellow:https://v.wzatv.cc/x/page/k0535avfizp.html 吴恩达采访 Yoshua Bengio:https://v.wzatv.cc/x/page/q0535m1ixns.html 吴恩达采访 Pieter Abbeel:https://v.wzatv.cc/x/page/x0535oygmpo.html 吴恩达采访林元庆 :https://v.wzatv.cc/x/page/a0535pwjpqw.html 吴恩达采访 Andrej Karpathy:https://v.wzatv.cc/x/page/k0535dqg7ea.html 吴恩达采访 Ruslan Salakhutdinov:https://v.wzatv.cc/x/page/o05356x2b24.html (责任编辑:本港台直播) |