选自World Economic Forum 机器之心编译 参与:李泽南、曹瑞 2016 美国大选将至,一些研究者和从业者也趁着这股热潮推出了一些基于数据预测大选结果的人工智能程序,但就像人类自己一样,它们所支持的总统候选人也都不一样(一些俄罗斯人开发的一个人工智能程序会选择特朗普当总统 :O)。未来,如果算法成为了我们日常生活的管家,我们可以让算法来帮助我们选出总统吗? 想象一下 2020 年的普通一天,人工智能助手唤你起床,为你端上已准备好的早餐,都是你最喜欢的食物。在晨跑中,播放器会自动播放符合你喜好的最新歌曲。上班路上,电子助手会根据你过去的阅读品味,自动向你推送新闻以供阅读。 你阅览着新闻,注意到总统选举马上就要来了,人工智能参考了你过去的政治看法和本州其他选民的意见,向你推荐了一位民主党候选人。你的手机上,一条弹出信息询问你是否需要 AI 助手帮你准备投票所需文件,你点击「同意」,然后关掉屏幕,继续自己的生活。 人工智能:呆板的数据机器 AI 个人助手在几年前已经走进现实,对于我们来说,把履行公民义务的重任交与它们还是显得有些不合适——即使人工智能几乎总是知道在特定的时刻给我们最好的建议。通过足量的数据学习,人工智能可以为每个人提供准确的,个性化的建议,甚至比你最亲密朋友的建议更完美。 Alphabet 董事长埃里克·施密特坚信,人工智能的发展会让每个人都会变得更聪明,更有能力,更为成功。人工智能已经展现出了巨大潜力,有希望帮助解决人类社会面临的各种复杂挑战,如气候变暖,人口增长和人类发展。 然而机器展现出的潜力也带来了担忧。有调查显示,34% 的人表示自己害怕人工智能,而 24% 的人认为人工智能会对社会造成负面影响。相比较未知的恐惧,人工智能对于数据的依赖带来了现实的隐患,GWI 的研究表明,63% 的民众担心他们的个人信息被科技公司滥用。最近 Oxford Internet Institute 的研究显示,人们对于让人工智能助手打理自己生活的方式持谨慎态度,特别是当这些助理提出自己的建议,却又不告诉你它推理过程的时候。 在这里,开奖,我们没有必要混淆数学与魔法。人工智能并不是在你手机里生活的神秘生物。但我们往往会忘记,人工智能一直在读取我们的个人资料,通过复杂的数学模型,自动推断我们的兴趣、位置、习惯、财务和健康。 开发者的角色 当前关于算法与人类的很多讨论都围绕着设计者在算法中的作用——人工智能创造者的潜在意识和偏差是否会被编码进帮我们做出决定的算法中。很多人担心开发者的个人偏见会被带入算法,其中一点点微妙的歧视就会让部分人群的利益受到侵害——也许还有更坏的结果,科技平台会演变成弱势群体难以逾越的门槛。即使算法和写算法的人没有偏见,没有人能够保证训练算法的数据中一切都是平等的,现实世界本身存在着偏见,数据集中的内容也会对人工智能框架产生影响。 持这一观点的决策者和专家们经常误解人工智能算法出错的原因。他们不断指责开发者,却忽略了自我学习系统的局限性。将错误推给别人是一种自然反应,特别是在你无法理解这些技术时。算法的偏差很少来自于开发它们的工程师。事实上,在大部分情况下,问题的根源出自训练算法的数据,这才是构建未来人工智能社会所要担心的真正危险。 算法决定论 回想一下机器学习到底是怎么工作的,通过应用统计学技术,我们可以开发自动识别数据中特征的算法。为了达到这个目的,系统需要经过巨大数据集的训练,训练模型的数据越多,预测准确率越高。 在个性化数字应用中,这些统计学习技术被用来建立算法,为用户提供个性化服务,计算机阅读了我们的使用模式、品味、偏好、人格特征和社交图谱,随后建立起对于人类的数字观感。计算机形成的社交身份并不基于你的个性或选择,相反,这种虚拟身份来自于你的可统计数据点,和它们的机器解释。这种代替,无论多么复杂,atv,都是人工智能对人类的不完美数字表达。 人工智能只能查找历史数据,为用户所需做出建议。这就是为什么今年 8 月,一个视觉识别神经网络通过 1400 万张照片的训练后预测唐纳德·特朗普将会赢得本届美国总统大选。鉴于这个数据集中并没有女性美国总统,AI 可能判断性别是识别模型的相关特征。但即使排除这一点,如果让这个俄罗斯人训练的人工智能投票的话,它肯定会投特朗普。 (责任编辑:本港台直播) |