2008年10月26日

機器人三原則

2008/10/26 16:13

現在所研發出來的機器人, 例如 ASIMO, 是否已被套上三大法則?


這個問題的答案是 沒有 !

艾西莫夫在小說中提出機器人三原則(Three Laws of Robotics)
1.機器人不得傷害人類,或任由人類受到傷害而無所作為.2.機器人應服從人類的一切命令,但命令與第一定律相抵觸時例外.3.機器人必須保護自己的存在,但不得與第一、第二定律相抵觸.

其實還有個第0定律, 一共四條...
1985年艾氏增列了第0定律:
0.機器人不得傷害全體人類,或坐視全人類受到傷害.

第一定律則修改為:
1.除非違反第0定律, 否則機器人不得傷害人類,或任由人類受到傷害而無所作為.
在艾氏的小說中, 三原則本身就已經製造了很大的問題, 例如機械人必需傷害暴徒才能保護無辜民眾, 或是人類常幹蠢事, 為了遵循第一定律, 機械人將人類監禁加以 "保護". 而人類的定義遭修改也使第一定律如同廢物.

回到現實中, 所謂機器人三原則(Three Laws of Robotics)是防止機器人有傷人的 "念頭", 進而防止機械人反叛. 現在擁有思想能力的機器人還非常遙遠, 又何來三原則?

Copyright, 2008 Honda Motor Co., Ltd.

ASIMO 很可愛, 很先進, 能做出許多過去做不到的動作, 不過它沒有自己的思想, 背後還要有一組人馬侍候, 才不會在舞台上和美美的 show girl 撞成一團, 它不需要機器人三原則nc...
並不是有人的形狀才叫機器人, 底下這個是目前為數最多, 力量最強大的機械人:
Copyright © 2002 Kawasaki Robotics (USA), Inc.

這些工業用機械人有足夠的力量可以傷人, 也確實有過許多意外, 但它不會 "想" 要傷人, 更不會 "想" 要保護人類, 頂多是在感測器偵測到有異物入侵工作區時停止動作, 不管是阿貓阿狗還是人類. 您要去跟編程工程師講三原則大概會被一腳踢出門外...

既然機器人的自我思想還很遙遠, 那麼三原則拿來規範設計與操作機械人的人類如何? 很不樂觀...

↑別懷疑, 這是機械人, 除了偵察, 為導引武器提供標定服務外, 現在本身就俱有發射飛彈攻擊目標的能力...


美軍的戰場機械人.

我想, 對於架了機槍掛了飛彈的機器人, 您大概很難要求它遵守三原則...

如果說遙控的不算, 那麼底下這個如何:

很多人或許意外, 不過戰斧是不折不扣的機器人, 也是目前攻擊次數與殺人數量最多的機械人, 還能攜帶核彈...

我想, 就算將來擁有足夠人工智慧的機械人, 人類還是會付予其殺戮任務...

現實, 還是很現實的...

機械人三原則只是艾氏小說中的一個主軸, 他有許多作品也探討三原則所產生的問題... 至於現實中, 目前看來還不需要, 未來... 應該還是有人不甩吧...


沒有留言:

張貼留言