开云手机在线登陆入口-机器人三定律有瑕疵,授权理念才能保护人类?

本文摘要:阿西莫夫“机器人三定律”有瑕疵,“许可理念”才能维护人类?

阿西莫夫“机器人三定律”有瑕疵,“许可理念”才能维护人类?)胡颖编者按:正如可以维护你、协助你、反对你一样,机器人也可能会损害你。如何建构一套敲之四海皆准的机器人不道德原则,是科技工作者被迫面临的技术和伦理双重难题。赫特福德大学的人工智能学者Christoph Salge博士撰文共享了自己的思维。如何防止机器人损害他人?许多现有的机器人,比如在工厂里装配汽车的机器人,在人类相似的时候就不会立刻关闭电源。

但是,这种非常简单蛮横的解决方案并不限于于自动驾驶汽车,它有可能必须在再次发生车祸时应急移动,或者是对于一个护士机器人来说,因为它有可能必须在老人跌倒之前扶起对方。随着机器人沦为我们的仆人、伙伴和同事,我们必须处置日益简单的情况,以及有可能引起的伦理和安全性问题。

科幻小说早已意识到了这个问题,并明确提出了各种有可能的解决方案。最知名的是阿西莫夫(Isaac Asimov)的机器人三原则,它们的明确提出是为了防止机器人损害人类。自2005年以来,我和我在赫特福德大学的同事们仍然在研究一个可以替代的点子。

我们指出不应当容许机器人的不道德,机器人应当被彰显最大限度充分发挥它们行动能力的权利,这样它们就可以为任何特定的场景挑选出最差的解决方案。正如我们在一篇新的论文中所叙述的那样,这一原则有可能包含一套新的标准化准则的基础,以使人类尽量安全性。

阿西莫夫的三原则1. 机器人不有可能损害人类,或者通过不作为,让人类受到损害。2. 机器人必需遵从人类的命令,除非这样的命令与第一定律互为违背。

3. 机器人必需维护自己的不存在,只要这种维护不与第一或第二定律互为违背。尽管这些原则听得一起非常有理,但无数抨击早已说明了了它的严重不足。Asimov自己的故事可以说道就是对自己所明确提出的这三项原则的解构了,展出了它们在有所不同的情况下是如何过热的。

目前,大多数企图草拟新的指导方针的尝试都遵循了类似于的原则,以建构出有安全性、顺从和有效地的机器人。任何具体制订的机器人指导方针所不存在的一个问题是——我们必须将它们转换成机器人需要处置、解读和运用的格式。

解读人类语言和语言背后的生活经验对于一个机器人来说是十分艰难的。明确的不道德目标,例如防止对人类导致损害或维护机器人自身的不存在,在有所不同的情况下有可能意味著有所不同的东西。遵从这些规则有可能最后不会让机器人无法像它的创造者所期望的那样行事。新理念:许可我们的另一种理念——许可,代表着绝望的相反。

被许可意味著有能力、并意识到你可以产生影响。我们仍然在研发将这个社会概念转化成为可分析和可操作者的技术语言的方法。

这将使机器人需要维持它们的自由选择,并以一种减少它们对世界的影响的方式行动。当我们尝试仿真机器人如何在有所不同的场景中用于许可原则时,我们找到它们一般来说不会以令人吃惊的“大自然”的方式行动。它一般来说只拒绝他们对真实世界的运作模式展开建模,但不必须任何专门的人工智能编程来处置特定的场景。

但是为了确保人们的安全性,机器人必须希望保持或提高人类的许可,以及他们自己的赋权。这基本上意味著要具备维护能力和支持性。为人关上一扇锁着的门会减少他们的赋权。

容许人类将不会造成对机器人的短期许可过热。而对人类的相当严重损害可能会几乎避免机器人被彰显的权力。与此同时,机器人必需希望维持自身的运作力量,例如保证它有充足的能量来运作,而会被卡住或损毁。机器人可以适应环境新的环境用于这一标准化原则,而不是预先原作的不道德规则,可以让机器人考虑到环境,并评估人们不曾设想过的场景。

例如,机器人会总是遵循“无法引人类”的规则,而是不会在人们有可能被一个坠落在物扔到之前将他们发售去。人有可能仍不会受到损害,然而这种损害相比之下更加小。

在电影《I, Robot》中,机器人处在一个令人压迫的状态中,通过容许和“维护”来增加对人类的整体损害。但我们的原则是防止这样的情况,因为这意味著机器人丧失了人类的赋权。尽管“许可”获取了一种新的思维安全性机器人不道德的方式,但我们仍有许多工作要做到。

我们要提升它的效率,这样它就可以很更容易地部署在任何机器人上,并外化作机器人较好、安全性的不道德。这是一个十分艰难的挑战,但是,我们深信,许可可以让我们寻找一个切实可行的解决方案,来解决问题当前充满著争议的问题,即如何掌控机器人的不道德,以及如何让机器人——在最基本的意义上——“不具备道德伦理”。

编译器组出品。


本文关键词:开云手机在线登陆入口

本文来源:开云手机在线登陆入口-www.dusalai.com