人工智能的23条“军规”,马斯克、霍金等联合背书
腾讯科技
作者:       2017年2月8日 10:37
计算机

【AI世代编者按】人工智能是一项了不起的技术,它正在以不可思议的方式改变世界。如果你看过电影《终结者》,肯定知道先进的人工智能技术蕴含一些危险。

正因如此,伊隆·马斯克(Elon Musk)、史蒂芬·霍金(Stephen Hawking)才连同另外数百名研究人员、科技领袖和科学家联名支持人工智能应该在生产力、道德和安全领域遵守的23条基本原则。

人工智能的23条“军规”,马斯克、霍金等联合背书

在未来生活研究院(Future of Life Institute)组织数十名专家共同参加Beneficial A.I. 2017大会之后,便正式发布了《艾斯罗马人工智能23定律》(Asilomar A.I. Principles)。这些专家包括机器人学家、物理学家、经济学家、哲学家,他们对人工智能在安全、经济和道德等领域产生的影响展开了激烈辩论。要让这套定律最终获得通过,必须获得多达90%的与会专家认可。

“我们起草了23条定律,范围从研究战略到数字权益,再到可能出现的超级智能等未来的各种问题。认可这些定律的专家已经在上面签下自己的名字。”未来生活研究院网站写道,“这些定律并不全面,显然也可以有不同的解读,但它也凸显出一个问题:目前围绕许多相关问题开展的很多‘默认’行为,可能会破坏在多数与会人员看来十分重要的原则。”

共有892名人工智能或机器人研究人员以及另外1445名专家在这份定律上签字,包括特斯拉CEO马斯克和著名物理学家霍金。

其中一些定律(例如透明度和共享研究成果)实现的可能性较低。即便这些定律无法得到全面落实,但这23条定律仍然可以改进人工智能开发过程,确保这些技术符合道德标准,避免邪恶势力崛起。

以下是《艾斯罗马人工智能23定律》的全部内容:

1、研究目标:

人工智能研究目标不能不受约束,必须发展有益的人工智能。

2、研究资金:

人工智能投资应该附带一部分专项研究基金,确保其得到有益的使用,解决计算机科学、经济、法律、伦理道德和社会研究方面的棘手问题:

——如何确保未来的人工智能系统健康发展,使之符合我们的意愿,避免发生故障或遭到黑客入侵?

——如何通过自动化实现繁荣,同时保护人类的资源,落实人类的目标?

——如何更新法律制度,使之更加公平、效率更高,从而跟上人工智能的发展步伐,控制与人工智能有关的风险?

——人工智能应该符合哪些价值观,还应该具备哪些法律和道德地位?

3、科学政策联系:

人工智能研究人员应该与政策制定者展开有建设性的良性交流。

4、研究文化:

人工智能研究人员和开发者之间应该形成合作、互信、透明的文化。

5、避免竞赛:

[1]  [2]  [3]  
相关阅读
热门文章
蓝戈沙龙