机器人视觉(机器人#0.5)第28/34页

早在1942年我就发明了“机器人的三个定律”。当然,第一定律是最重要的。它如下:“机器人不会伤害人类,或者通过不作为,允许人类受到伤害。在我的故事中,我总是清楚地表明,法律,特别是第一定律,是所有机器人不可分割的一部分,机器人不能也不会违背它们。

我也说清楚,尽管可能没那么强有力,这些法律并非机器人所固有的。形成机器人的矿石和原料化学品尚未包含法律。法律只是因为它们被故意添加到机器人大脑的设计中,即控制和引导机器人的计算机行动。机器人可能无法掌握法律,或者因为它们过于简单和粗暴,不能给予足够复杂的行为模式来服从它们,或者因为设计机器人的人故意选择不将法律纳入其计算机化妆中。

到目前为止 - 也许在相当长的一段时间内会如此 - 这是第一个持有影响力的替代方案。机器人过于粗暴和原始,无法预见他们的行为会伤害人类并调整他们的行为以避免这种行为。到目前为止,它们只是能够进行几种死记硬背行为的计算机化杠杆,而且它们无法超越其指令的极小范围。结果,机器人已经杀死了人类,就像大量的人类一样非计算机有。这是令人遗憾但可以理解的,我们可以假设,随着机器人的发展具有更复杂的感知感知和更灵活的反应能力,建立安全因素的可能性将越来越大,这相当于三法则

但是第二种选择呢?人类是否会在没有法律的情况下故意制造机器人?我担心这是一个明显的可能性。人们已经在谈论安全机器人了。可能有机器人警卫在建筑物的地面甚至走廊上巡逻。这些机器人的功能可能是挑战任何进入场地或建筑物的人。据推测,那些属于那里或被邀请到那里的人将是卡尔ying(或将被给予)一些卡片或其他形式的识别,机器人会识别这些卡片,然后让他们通过。在我们的安全意识时代,这甚至可能看起来是件好事。它会减少故意破坏和恐怖主义,毕竟只会履行训练有素的护卫犬的功能。

但安全滋生了对更多安全的渴望。一旦机器人能够阻止入侵者,仅仅发出警报可能是不够的。让机器人具有弹射入侵者的能力是很诱人的,即使它在这个过程中会造成伤害 - 就像狗可能会伤到你的腿或喉咙一样。但是,当董事会主席发现他已将他的身份证留在他的身上时会发生什么其他裤子,太心烦意乱离开大楼足够快,以适应机器人?或者如果一个孩子没有适当的间隙进入建筑物怎么办?我怀疑,如果机器人对错误的人进行了粗暴对待,就会立即发出吵闹声,以防止重复错误。

为了进一步极端,有人谈论机器人武器:计算机化的飞机,坦克,火炮,等等,这将以超人的感官和耐力无情地追捕敌人。可能有人认为,这将是一种拯救人类的方式。我们可以舒适地呆在家里,让我们的智能机器为我们而战。如果其中一些被摧毁 - 那么它们只是机器。如果我们有这样的机器并且敌人没有#&##这种战争方法将特别有用。039; t。

但即便如此,我们还能确定我们的机器能够永远告诉朋友的敌人吗?即使我们所有的武器都是由人手和人脑控制的,也存在“友善之火”的问题。 "美国的武器可能会意外地杀死美国士兵或平民,并且过去实际上已经这样做了。这是人为错误,但是很难接受。但是,如果我们的机器人武器不小心搞“友军之火”呢?并消灭美国人民,甚至只是美国财产?这将是更难以采取(特别是如果敌人制定了策略来混淆我们的机器人并鼓励他们打我们自己的一面)。不,我有信心尝试使用没有安全措施的机器人是行不通的,最后,我们将围绕三个法律。

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处: