极客公园微信号:geekpark
人工智能会把我们未来的生活变成什么样子?也许我们什么都不用做,就万事大吉了。 它能叫你起床,在你吃早餐的时候为你播放一首颇得你欢心的乐曲;然后你会坐着自己的自动驾驶汽车去公司上班,路上没事的时候可以看看一些 AI 已经帮你选好的新闻…… 我们大可以放心,只要你的寿命不是太短,我相信我们在有生之年绝对都能体验到这些生活,而且他们带给我们生活的变化大都是积极正向的。 然而,如果你生活在美帝,你在 4/8/16 年后的这段时期会碰到另一件事,这件事会让你很头疼,但你又不能避免,这就是最近快要到大戏高潮的美国总统大选了。正如我们上面所说,人工智能能帮你做生活中的绝大多数事情,帮你选总统也不在话下。而这时,我们就要考虑一下了:在未来,你是否真的放心让机器算法替你选总统? 人类在算法中应该扮演何种角色? 考虑到你之前表达过的意见和你所在州其他选民的意见数据,你的 AI 助手会为你推荐一个选择,比如说民主党候选人 XXX。这时,你也许只需要点击一下屏幕上的「Agree」就能让 AI 帮你投出这神圣的一票,而这也许就是人们未来的生活。 不过回到现实生活中来,尽管现在已经有了很多的 AI 助手,比如 Siri 和 Cortana,但让人们把这样重要的公民义务交给机器来做还是难以接受的——即使机器可能才知道何种选择对你是最好的。事实上,从理论上说,只要有了足够多的数据,你的 AI 助手给你的建议比其他什么评论员和专家都更靠谱。
但数据显示,机器的智力潜能常常会引起人们的恐惧。有研究显示,34% 的人对 AI 有恐惧,而 24% 的人甚至认为 AI 对社会有害。数据研究机构 GWI 发现,63% 的人担心他们的个人数据会被商业公司利用。 但我们往往会忘记,那种看似无形却又能自动做出推理的数学模型其实是由其他人根据我们的兴趣、地理位置、行为习惯、财产状况和健康情况等多种因素设计得出的。 当前关于算法文化的众多讨论都集中在人类在算法设计中所起的作用:算法设计者潜意识中的信念和偏见是否会被写进能影响我们做决定的算法当中。目前舆论界对此充满恐惧,人们担心开发者们会在编写算法时允许对某些人群的潜在歧视,更糟的是,技术平台会作为通过这些信息的看门人。就像 John Mannes 所说:「一个充满偏见的世界能产生偏见的数据,而偏见化的数据又会继续得到偏见化的 AI 框架。」 推动这一论点的决策者和专家容易误解算法偏见的证据,他们常常责怪算法背后的人而不是算法本身。当你不了解技术内部的运作机制时,找到别人犯下的错误当然是很自然的反应。 但事实上,算法偏见很少源于人类开发者。在大多数情况下,它们都源于用于训练这种算法的数据。而这才是危险的真正来源。 算法决定论:我们塑造了我们的算法,然后它们再来塑造我们 让我们先把这些疑虑放一放,来回顾一下机器学习究竟是如何运作的。 通过应用统计学学习技术,研究人员可以开发能够自动识别数据中所存模式的计算模型。为了实现这一点,这个模型需要在大数据集上进行训练,通过这种训练来发现数据中的边界和关系。数据越多,准确度就越高。 在那些针对用户的个性化应用中,这些统计学习技术用于为用户创建一个算法上的「身份」,其中包括使用习惯、偏好、个性特征、社交结构等多个维度。然而,这中数字化身份不直接基于用户的个性和自我感觉,他们的凭证是一群可测量数据点的集合以及机器给出的理论解释。 但是,AI 只能根据历史数据对未来进行预测,这就是为什么通过过去的美国总统图像训练的神经网络预测唐纳德·川普(Donald Trump)会赢得这次选举,因为过去的美国总统都是男的,数据没办法推断性别是不是模型的相关特征。所以,如果我们使用这个 AI 来替我们投票,它肯定会投给川普。 (责任编辑:本港台直播) |