对抗样本难以防御也因为它们需要机器学习模型为每个可能的输入生成好的输出。大部分时间,机器学习模型做的很好,但只有在小量的可能输入的情况下它们可能会碰头。 目前为止我们测试的每个策略都失败了是因为它不够自适应(adaptive):它能够限制一种攻击,但对知道该防御手段的攻击者(attacker)而言,它有其它弱点。设计一种能够防御强大的、会自适应的攻击者的手段,这是一个重要的研究领域。 结论 对抗样本表明能以惊人的方式打破许多现代机器学习算法。机器学习上的这些失败证明即使是简单的算法也能表现出与设计初衷相差甚远的行为。我们鼓励机器学习研究人员参与进来,设计提防对抗样本的方法,从而缩短设计者初衷与算法表现之间的差距。 原文链接:https://openai.com/blog/adversarial-example-research/ ©本文为机器之心编译,转载请联系本公众号获得授权。 ?------------------------------------------------ 加入机器之心(全职记者/实习生):[email protected] 投稿或寻求报道:[email protected] 广告&商务合作:[email protected] (责任编辑:本港台直播) |