最近有人在TechCrunch上撰文指出,在训练人工智能与机器学习模型的开始,需要人类提供大量的数据,如对图片进行标记,这些工作是需要人来完成。但是,参与标记的人却带有情绪和倾向。例如,在对一张狗的照片进行标注时,男性和女性就不一样,认为一只狗是否可爱,女性的评分至少要比男性高0.16分。
女性评分至少比男性高1.6分 再举一个例子。微软的机器人Tay曾在Twitter上散播辱骂种族、同性恋的言论,因为它在Twitter上、在互联网上学习到了类似的话。算法让它在互联网上自由的抓取数据,它拥有的,就是互联网上的中庸的、大众的价值观,atv,换句话说,是纷乱嘈杂的数据之间的最大公约数。 真正的问题是,一个由一群程序员或者一片数据决定的算法,一个中庸的、最大公约数的价值观,真的有权利来代替车主驾驶,并在生死时速之间代替车主做出决定吗? 要求每个人行为标准化、脸谱化,这不符合社会现实。 哈佛大学教授桑德尔在他著名的《公平》课上,曾提出“火车撞人”两难伦理困境,它揭示了人类行为模式的复杂程度:疾驰的火车上,正在驾驶室的司机猛然发现前方轨道上有5人正在作业,按铃、刹车都已经晚了。此时,前方有一条岔道,但岔道上也站着1个人。司机是该驾驶火车撞向5个人,还是撞向1个人,如何选择才公平呢?道德依据又是什么? 对于“火车撞人”的假设类似的还有“妻子、母亲同时落水,男人先救谁”问题,算法又该如何抉择?又例如,当我们要送一名危重的病人去急症、或送临产的孕妇去医院,人命关天,我们可能选择闯红灯,这需要人类的机动决策,没有任何迹象表明,无人车能做到这一点。
在很多时候,如果我们选择保障甲方的安全,那么可能意味着得损害乙方的安全。如果我们选择遵守大多数人的规则,可以意味着要牺牲亲情。计算机是否承担得起这沉重的道德负担,我表示怀疑。 说白了,算法能做的,只是执行程序。 我认为,在道德、人性的深处,人工智能还远未抵达。 如果盲目将人工智能置于这样的道德伦理风险下,将会产生更多的问题,当下,不能夸大人工智能的作用,应该实事求是、物尽其用。我认为,无人车要普及,可以在特定的情境之下,例如,为无人车专门修建一条封闭的道路。 现在城市的道路是为“人”的驾驶而设计,而不是为机器驾驶而设计的。如果修建更适合机器运行的道路,并在道路两旁装配一套更方便机器感应、识别的标识系统,无人车的安全性将大大提升。但这意味着,人类必须重建城市的道路体系,就像100 多年前汽车被发明、普及时,人类必须建设适合汽车行驶的公路来代替原来马和行人走的马路一样。 开车不是下棋,无人驾驶汽车也绝非“能够自己行驶”那么简单。除了无人驾驶,无人机、机器人等其他人工智能的全面普及,也同样面临这些问题。 相关阅读:
本文版权归“涂子沛频道”所有 转载授权及其他商务合作 请联系邮箱 思想落地 赞赏有礼 (责任编辑:本港台直播) |