陈洲:其实这一条里面有意思的地方是发送负面信息,如果说这是一种情绪控制是没有问题的,真要发送给他一些信息,2045年几乎不可能。不是现在AI、人工智能方面,更多的是神经学和生物学相关的东西,不应该进展这么快。负面刺激没有问题,我们今天就可以做,没有那么科幻。 洪小文:鲁教授讲的很小心,今天要用电的刺激,未来有没有可能是电磁波等等,距离2045年还有很长一段时间,比如说洗脑,今天都已经在发生了。 比如说中西方不一样的地方,东方看到红色是注意,西方是禁止的。比如说鞭打一个小孩的影像,他看到是很害怕的,这种是很有可能的。 陈晓楠:如果我们真的可以随时随地的控制自己是不是快乐的话,所有的问题都解决了。 陈天罡:这一点我反对鲁教授的观点,技术上对大脑的回路有简单的研究,通过电波可以刺激人的正常应急反应。但是这是一个社会问题,比如说小孩不听话,要哭闹,这个时候给他一个外部刺激让他听话。 包括让人保持永远的快乐可以吗?上升到一个公司和一个政治,大家不用百花齐放,大家通常在洗脑的环境里面,这个环境还用投票吗?完全不用投票了,甚至说我们的好恶,我投反对票。 Ben Goertzle:我们应该把前面的例子和这个例子组合在一起,通过一个帽子不可能注入,一旦有大脑芯片植入脑子,可以学的更快,想的更清楚,俄罗斯的黑客就可以黑你的大脑芯片,可以把记忆和假芯片传到你的大脑里,有人认为是真的,有人把假新闻移走你还要反击,认为他是破坏我的记忆。 你的脑子里计算机的安全是很大的问题,不光是竞选的丑闻,如果有人想抢你的女朋友,他们可以在脑子里植入关于你的坏记忆,你说这不是发生的,是假的记忆,但是她不会相信。 陈罡:接下来30年左右人工智能会带来更海量的存储,更方便的决策,但是只是一个辅助设备。在未来30年,人工智能发展的非常快,但是始终在我们的掌控之中,不会超越人的创造力。 陈晓楠:现在有很多的问题,我们觉得应该这样,和事实会不会发生成这样,未来的不确定性就在这里,大家请投票,我对这个挺有信心的。只有冷静的两票,董痒先生说一说为什么反对。 董痒:我觉得现在大脑接收什么东西,洗脑的话,还是通过自己戴的设备,比如说眼睛、耳朵,才会读到其中。如果有这样的技术,不经过我的眼睛或者利用我的眼睛无限影响我,相当于有一个病毒,本来通过喝水、亲一下才能传染,未来是空气传染,如果这个会发生,人类真的完了,躲都躲不开。 比如说你追求一个女生,本来追不到,你带她去一棵树下。 陈晓楠:这是第一个应用,所有的男生看到这里都这样想。 Ben Goertzle:有一个特别高明的AI的防病毒软件才可以。 鲁白:一个已经做成的实验,把一个电极扎到老鼠的身体中心,按一个按钮,一直会按到它死。刚才他说到女朋友,现在我透露一个信息,中国的一个科学家正在做一个实验,还没有发表,对异性脑子里有一个东西,看到和接触异性的时候,特殊行为的时候,某一个脑的区域会被极具的激活,如果说把这个激活阻断了,他会对异性毫无兴趣。 如果你不给他看异性,只刺激这个东西,他就会感到非常快乐,像看到了异性一样。 陈晓楠:我觉得你讲这句话的时候有光环,可以造神了,走在脑科学家面前非常恐怖,可以透明的看到我的大脑。好的,您成功了,刚才这条正式入选。 接下来我们看一看下一条,我们刚才说到风险担忧,要是这样就糟糕了,这一条也是我们在场的大咖写的,刘江峰先生。 刘江峰:因为写的是2045年的命题作文,但是我觉得甚至可能更快,大家都带着手机,手机现在已经成为人体的体外骨骼,或者人体增强。 现在政府在公共区域布很多无线扫频的设备,手机经过的时候,它知道你在哪里。这是植在你的脑子里而已,天网基本上快成形了,你无可遁形。 包括政府在采用大量的生物指纹,将来和很多信息结合,在这个世界里,你没有任何的自由或任何的隐私。我同意刚才陈罡说的,我们做任何的人工智能或者做任何的技术突破之前,我觉得法律法规或者说人类的伦理的一些边界一定要划分好,马克思说过科学的入口就是地域的入口,我们人类不能走向把自己混灭的道路。 陈晓楠:以后人可能就是行走的数据包,基本上是透明的和您刚才说的问题很像,天眼。 (责任编辑:本港台直播) |