“生命未来研究所”(Future of Life Institute,FLI)概括了“阿西洛马人工智能原则”,列出了23条准则,atv,使未来人工智能的研究人员、科学家和立法者遵循,确保安全、伦理和有益。 文:Michael Irving 编译:多啦A亮 人工智能将严重地破坏世界?人工智能对人类是否有益?我们该摧毁它吗?这听起来像拍科幻电影,但是随着人工智能的快速发展,数百名人工智能和机器人领域的专家们联合编制了“阿西洛马人工智能原则”,列出了23条准则,提出重点和注意事项来指导AI发展,共同保障人类未来伦理、利益和安全。 这23条准则由“生命未来研究所”牵头制定出,旨在确保人类在新技术出现时能顺利规避其潜在的风险。其突出核心成员有Stephen Hawking和Elon Musk。这个组织专注于由新技术和问题构成的潜在威胁,如人工智能、生物技术、核武器和气候变化等。 2017年1月,在美国加利福尼亚州阿西洛马举行的Beneficial AI会议上,该组织收集了来自大学和公司的人工智能研究人员,讨论人工智能的未来及其应如何监管。在会议召开前,该组织让参会者做了一份调查:在未来几年,人工智能需要怎样发展和监管,并用这些参会者的反馈制定出一个前期的目标点。修改后的版本在会上做了讨论研究,只有当90%的研究人员同意最终列出一份原则列表。 「部分签名的专家」 Demis Hassabis ,DeepMind创始人兼CEO Ilya Sutskever ,OpenAI研究总监、联合创始人 Yann LeCun, Facebook AI 研究室总监,纽约大学教授 Yoshua Bengio ,蒙特利尔大学、蒙特利尔学习算法研究所所长 Stuart Russell,加利福尼亚大学伯克利分校计算机科学教授,智能系统中心主任 Peter Norvig ,谷歌研究总监 Ray Kurzweil ,谷歌研究总监;发明家、作家和未来学家,著有《奇点临近》 Jeff Dean, 谷歌Google Brain项目负责人,谷歌高级研究员,AAAI成员 Tom Gruber, 苹果公司;Siri的共同创始人,Siri 项目CTO和设计副总裁 Nils J. Nilsson,AAAI前任主席,斯坦福大学Emeritus Kumagai工程教授 Francesca Rossi, IBM&Padova,计算机科学教授,IJCAI主席、AAAI委员会、AI与伦理问题影响委员会联席主席,ACM成员 总共有808名AI /机器人研究人员签名; 以及 Stephen Hawking ,剑桥大学 Elon Musk,特斯拉CEO Jaan Tallinn ,Skype 联合创始人 Sam Altman ,Y Combinator 总裁 Gill Pratt ,丰田研究院CEO …… 阿西洛马人工智能原则是著名的阿西莫夫的机器人三大法则的扩展版本。阿西洛马人工智能原则主要分为三大类:科研问题、伦理价值和长期问题。 科研问题主要涵盖了科学家和研究人员对人工智能系统开放的职责,以及在计算机科学、经济学、法律、伦理学和社会研究中可能产生的“棘手问题”。在这里要提出重点的是人工智能不能单纯了为了利益而创造,而应该为了在确保人类不被替代的情况下通过自动化实现人类繁荣。保持一个开放、合作的人工智能研究的文化也是一个优先考虑的事情,以确保研究人员和政策制定者在彼此交换信息的同时,不会以危害人类为手段与竞争对手参与竞争。 (责任编辑:本港台直播) |