尽管如此,人工智能(或软件或算法)的潜力还是很大的,关键领域是在线生活。基于波特兰的创意技术开发商Feel Train与著名的Black Lives Matter活动家DeRay McKesson合作,联手推出了一个名为@staywokebot的Twitter机器人,该机器人旨在为黑人活动家提供支持性信息,并承担面对社交媒体噪音的一些压力;最终它的目标是作为101级问题的前线,如“为什么不是所有的生命都重要”?机器人已经可以告诉人们如何与当地的代表联系,一个未来的目标就是为复杂而常见的正义问题提供答案,缓解积极分子自身不断参与这些对话的要求。 除此之外,内容版主在像Facebook这样的平台上面临着反乌托邦式的恐怖,在2014年的《连线》杂志中详细地记载了一些特别可怕的细节,这可能看起来是一项不繁杂或者不需要娴熟技巧的工作。目前,算法只能简单地猜测一个笑话,短语或图像的语气或语境,所以人类的直觉仍然是很重要的。那么这个问题就在于,一个真正的人必须日复一日地看每一个潜在的违规内容,衡量每一个人的价值。基于这样的考量,一个智能机器至少可以形成第一防御,至此人类版主也许可能只需要研究一些微妙和更细微的情况。 Mitu Khandaker-Kokoris是英国伦敦一家软件公司的首席创意官,这家软件公司专注于使用人工智能技术开发更加人性化和合理的角色交互——包括游戏世界以及外界棘手地区的社区管理。游戏社区是人们想要测试边界的许多复杂空间之一,就像想要找到让他们感到安全的文化场所一样。我向她介绍了她公司的工具之一,Ally——旨在使各种社会平台变得更安全,更具包容性。 来源:Pixabay “我们如何处理人们彼此之间直接的情感虐待,我们该如何对这些进行干预呢? 目前,对于版主,对于受害者来说,不得不等到问题得到解决是很困难的。“Khandaker-Kokoris说。 Ally提议去识别一些潜在的有问题的互动迹象——不仅仅涉及言论或直接接触,而且还包括缠扰或骚扰等行为。从那里,一个AI角色,其参数由产品所在环境的所有者决定,它将会对目标的行为提出否认,以及判断是否需要采取任何行动。 这种方法可以让用户定义他们自己的个人界限,AI可以从他们与用户的互动中学习什么时候介入和为谁介入。“界限是超级复杂的,”Khandaker-Kokoris说。 “我们可以在某些时候确定某些事情,而不是其他事情,这甚至可能依赖于你当时的心情。所以这个AI角色以及你与他们的互动可以作为你与社区中其他人的互动的传递者。我认为这是一个明显的例子,这样我们可以减少对受害者以及版主的情绪负担。“ 虽然Khandaker-Kokoris确实分享了许多人将情绪劳动外包给自动化的犹豫和担忧,但总体而言,她和我一致同意技术部门需要继续努力,更好地了解情感劳动,以便来解构它,或者说更深一步意义地委托它来做一些事情。和她交谈让我感受到了希望,有选择性地考虑人工智能的干预可能有帮助的,有助于我在比以往任何都更加令人精疲力尽,更具压倒性的和要求更苛刻的环境中——尤其是女性和有色人种,更好地策划个人界限。 与此同时,科技行业似乎会继续在其产品使用女性的声音,但实际上和我们在现实生活中听到的是不一样的,一个新一波的更加智能化的虚拟助理肯定会实现在我们身上的。这是为了安抚我们,诱导和奖励我们,将我们置于智能手机,智能家居和智能汽车中进行培养。 (责任编辑:本港台直播) |