当前位置 - 股票行情交易網 - 文娛動態 - 求機器人三大定則

求機器人三大定則

阿西莫夫( Isaac Asimov)與他的出版人坎貝爾合創了“機器人學三大定律”———

LawⅠ:A ROBOT MAY NOT INJURE A HUMAN BEING OR, THROUGH INACTION, ALLOW A HUMAN BEING TO COME TO HARM.

第壹定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管

LawⅡ:A ROBOT MUST OBEY ORDERS GIVEN IT BY HUMAN BEINGS EXCEPT WHERE SUCH ORDERS WOULD CONFLICT WITH THE FIRST LAW.

第二定律:機器人必須服從人給予它的命令,當該命令與第零定律或者第壹定律沖突時例外

LawⅢ:A ROBOT MUST PROTECT ITS OWN EXISTENCE AS LONG AS SUCH PROTECTION DOES NOT CONFLICT WITH THE FIRST OR SECOND LAW.

第三定律:機器人在不違反第零、第壹、第二定律的情況下要盡可能保護自己的生存

上述三項雖稱為定律,但實際上是制造機器人時的三條守則。阿西莫夫是壹個十分講求邏輯和理性的作家,他有感於機器人為禍的題材充斥科幻界,試圖做出糾正。在他看來,機器人既然由人類制造,為什麽不能壹開始便在設計上杜絕機器人傷害人類的可能性?阿西莫夫的三定律能使得所有機器人都設計得對人類絕對服從和忠誠,否則便不能繼續操作。

在後面的實踐中,阿西莫夫發現需要擴充第壹定律,以保護個體的人類,以便最終保護整體的人類。1985年阿西莫夫對原有的三定律進行修訂,增加了第零定律

Law0:A robot may not injure humanity or, through inaction, allow humanity to come to harm.

第零定律:機器人不得傷害人類,或目睹人類將遭受危險而袖手不管。

第零定律的優先級高於所有其他定律。

除此,另壹個科幻作家羅傑·克拉克在壹篇論文中還指出了三條潛在的定律:  

元定律:機器人可以什麽也不做,除非它的行動符合機器人學定律。此定律置於第零、第壹、第二、第三定律之前。  

第四定律:機器人必須履行內置程序所賦予的責任,除非這與其他高階的定律沖突。  

繁殖定律:機器人不得參與機器人的設計和制造,除非新的機器人的行動服從機器人學定律。  

三定律的不斷完善,說明人們對人工智能是否能最終統治人類持有疑慮,通過為機器人設定行為守則,來確保人類對於這個世界的統治和主導地位。

但是,第零定律的增加卻未必能保護人類的安全,電影《機械公敵》中的超級大腦ViKi的邏輯實際就是在實現“第零定律”--它(他/她?)必須把保護整個人類整個種群的存在視為第壹任務,所以它能夠“合理合法”地強制每個人都待在家裏,並以暴力對付反抗它意誌的個人,而只是為了使人類避免自行殘殺。雖然電影中沒有交待第零定律,但ViKi已經通過自己的AI思考出了人類制定三定律的本質。為了達到“機器人學定律”的“本質”要求--保護人類(humanity)--ViKi選擇了照顧整體利益高於人類個體(A HUMAN BEING)利益的行動,而導致了人類的災難--其實對我們每個人,每個獨立的個體而言,自由才是首要的,什麽戰爭,什麽所謂的“自相殘殺”都不能比失去自由更讓人類痛苦! 這壹點,是作為機器人的那個AI所不能理解和領悟的。

總之,機器人學三定律及其擴充定律根本不能保證我們每個個體的安全,因它可能被日益發展的AI誤解(其實不是誤解,而是正解)!