首頁歷史 > 正文

機器人三大定律無法保護人類

2022-12-31由 精益合作社 發表于 歷史

”2022/1129日,美國舊金山監事會批准了一項政策,允許該市警察使用具備殺傷力的武裝機器人。訊息一出,在全美引發爭議。當地時間6日,舊金山監事會將對該項立法再次進行投票;當天,抗議民眾手持“不要殺手機器人”等標語,聚集在市政廳外高呼口號。“

機器人三大定律無法保護人類

上則新聞讓我想起小時後看科幻片時,我們經常討論的一件事:如果機器人有一天強大的人類都控制不了怎麼辦?好在有資深的大人安慰我們,這種情況不會發生的:機器人有三大定律管制,你們放心吧,最後莫名奇妙的就相信了,有機器人的未來是多麼的美好。

機器人三大定律無法保護人類

阿西莫夫的“機器人學三大法則”

LawⅠ:A ROBOT MAY NOT INJURE A HUMAN BEING OR, THROUGH INACTION, ALLOW A HUMAN BEING TO COME TO HARM。

第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管

LawⅡ:A ROBOT MUST OBEY ORDERS GIVEN IT BY HUMAN BEINGS EXCEPT WHERE SUCH ORDERS WOULD CONFLICT WITH THE FIRST LAW。

第二定律:機器人必須服從人給予它的命令,當該命令與第一定律衝突時例外

LawⅢ:A ROBOT MUST PROTECT ITS OWN EXISTENCE AS LONG AS SUCH PROTECTION DOES NOT CONFLICT WITH THE FIRST OR SECOND LAW。

第三定律:機器人在不違反第一、第二定律的情況下要儘可能保護自己的生存

這個定律後來被人說是有漏洞的,為了維護人類整體的利益可能需要對個別極端人員進行制裁,後來就又補充增加了:

第零定律:機器人必須保護人類的整體利益不受傷害。

但實際上這本身就是一個很模糊的定義,什麼叫

“人類的整 體利益”? 當遇到問題時,誰來解釋定義這個概念,想想都知道會發生什麼情況了,難道期望機器人對這個概念比我們人類理解的更深嗎?

威爾·史密斯

曾說:“《我,機器人》的中心概念是機器人沒有問題,科技本身也不是問題,人類邏輯的極限才是真正的問題。”

機器人三大定律無法保護人類

遙控無人機

除了這個定律外,這個許多科學家、小說家都在積極的想法設法來防止機器傷人的事件發生,也產生了一些其他補充定律,這裡要說明的是,智慧機器人的傷人,不是後端遙控、或人為粗心闖入工廠機器人工作範圍內的生產意外,這些傷人事件仍存在人為控制的範疇,而智慧機器人傷人,是機器有自我辨別、自我邏輯的行為動作,實際上也許種族歧視吧,想想都有點害怕。

機器人三大定律無法保護人類

思考中的機器人

我們再回到現實中來,

聯合國自2017年以來在日內瓦舉行外交對話,一直希望就解決殺手機器人的使用問題達成協議。但迄今為止,各國甚至就是否需要對此類武器進行管控也尚未達成一致意見。2021年12月,在美國再次拒籤後,人民網也發表題為《莫讓人工智慧技術走入歧途》的文章;

機器人三大定律無法保護人類

現在不是有沒有三大定律的問題了,是簡單到機器人可不可以的問題;這期特別收集到幾段智慧機器人影片,看完之後也許能讓我們明白,這已經不是科幻 。

科學家眼裡的殺人無人機

土耳其武器製造商STM推出的自動殺人無人機Kargu

頂部