註冊 / 登入
講座紀錄

南投縣草屯鎮中正路699號

049-2311517

週一至週六 09:00-21:00 週日 09:00-18:00 (假日營業時間)

智基科技開發股份有限公司附設南投私立志光法商補習班草屯分班-府教社字第1060125039號

【國試論壇】人工智慧是否應該受到道德觀的規範

活動時間:2024/03/16 00:00 至 長期開放

標籤: 高考三級   普考   初等考   地方特考三等   地方特考四等   地方特考五等   公職考試   我能考什麼   國營事業聯招新進人員   企業管理  

活動摘要:

國試論壇因有感於公職考試近年來,對於出題及答題申論之內容趨於活化性。用人單位除經由考試方式取才,確保錄用者具備該領域專業水準,更重視應考生的個人觀點,是否符合政府用人單位當下及未來發展需求。 基於以上前提,我們創立了國試論壇,意在集結及提供有價值的相關資訊與觀點,幫助應考生解決需求。 國試論壇的成立,也同時提供了各種相關領域學有專精的人士一個可共同參與、發表有價值資訊的平台。 歡迎讀者針對公職各類考試試題、時事之相關議題創作投稿或閱覽。

人工智慧是否應該受到道德觀的規範

科技公司特斯拉(Tesla) CEO 伊隆·馬斯克(Elon Musk)日前在一場與麻省理工學院學生之座談會上談論運算科技、人工智能及太空探索議題時表示,人工智能是我們目前的最大威脅,將會威脅到人類的生存。他指出發展人工智能就像許多故事中主角召喚惡魔一樣,主角總認為自己有五芒星及聖水的保護,所以可以控制惡魔,然而大家都知道最後不是如此,人類應該關切人工智能的發展,並且設計國家層級之間的監管制度,避免人類做出傻事,造成人類浩劫。
無獨有偶,英國著名物理學家-史帝芬霍金(Stephen Hawking)也警告人工智能將會造成人類滅絕,他指出人類受限於緩慢的生物進化,無法跟人工智能競爭,甚至會被其取代。他以他得了「肌萎縮性脊髓側索硬化症」為例,透過Intel研發的系統使其可以講話,該系統其實就是一種人工智能,類似智慧手機的鍵盤APP,可以學習史帝芬霍金的思考模式,並建議他下一個字應該打什麼。他擔心人工智能持續發展下去,將有可能創造出人類無法與之匹敵的某種東西,甚至可能自己超越自己,並重新自我設計。科技大廠Google、Facebook、Amazon、IBM、Microsoft已成立「Partnership on AI to Benefit People and Society」的非營利組織,集結眾多AI道德研究人員及學者,共同研究人工智能的道德標準及政策推廣。
發展人工智能應該要建立保護措施,必須讓人工智能知道什麼是對的、什麼是錯的,讓他們有是非善惡的判斷基準,就如同科幻小說家以撒·艾西莫夫(Isaac Asimov)提出的機器人三大定律:機器人不得傷害人類,或因不作為使人類受到傷害;除非違背第一法則,機器人必須服從人類的命令;在不違背第一及第二法則下,機器人必須保護自己。要讓機器人能明辨是非,就必須讓他們有「道德」的意識。
一、何謂道德(Ethics)?
道德(Ethics):個體決定行為對或錯的準則,又稱為倫理,我們每個人心中都有一把尺,衡量我們的行為,然而違反法律就一定違反道德嗎,違反道德就一定違反法律嗎,例如意圖為自己或第三人不法之所有,偷人家的東西該當刑法的竊盜罪,會受到法律制裁,在道德上我們當然也認為偷東西是不對的行為,但如果是劫富濟貧的廖添丁呢?雖然違反法律,但在道德上並不會遭致非難,反而我們會讚揚他的義舉,雖違反法律但並沒有違反道德;另外,穿藍白托鞋參加畢業典禮,有違反法律嗎?法律有規定不能穿藍白拖鞋嗎?當然沒有,但大部分人總認為觀感不佳,因此在道德的認知上,是不對的行為,雖違反道德但並沒有違反法律。
此外心理學家柯爾伯格(Kohlberg)提出人的道德發展有三階層,每一階層包含兩個階段,且道德發展會按照以下順序一步步前進,但沒有連續的保證,可能到任何階段後即停止。

 二、人工智能發展道德觀念可能碰到的問題

試想一個問題,今天具有人工智能的機器人負責照顧家裡的小孩,當小孩肚子餓的時候,機器人是否能夠將家裡的寵物煮來吃?大家一定覺得這個問題很恐怖,但若是人工智能不具備道德意識,不知道是非對錯,很有可能發生這樣的情況,因此人工智能的發展必須受到道德觀的約束,避免產生不可抹滅的傷害。然而要將道德觀念灌輸到機器人系統中大家可以想想下列問題:
(一)人類的行為對或錯是由誰認定?
我們常聽到有人說「每個人心中都有一把尺,決定行為對或錯」,然而有沒有可能每個人的尺都不一樣長?另如有些人家教比較嚴謹,因此在一般人看來再普通不過的行為,他們卻認為是不對的,例如有些大學生穿藍白托鞋參加畢業典禮,有些人認為不尊重師長,這樣是不對的;有些人卻認為無所謂(至少那些會這樣穿的學生是這樣認為),那機器人的道德意識應該以誰的為主?
此外,人類對於不同的道德認知,往往透過溝通及討論以解決不同看法造成的歧異,然而機器人是否能夠自由的溝通?是否能夠接受「妥協」?
(二)闖禍的機器人該由誰負責?
機器人是否應該為自己的行為負責?還是由機器人製造公司負責?或者由編寫程式的公司負責?如果認為機器人應該要自己負責,那就代表我們把機器人看成跟我們人類一樣,在法律上是獨立的個體,然而機器人真的可以跟人類在法律上有一樣地位嗎?是否有所謂的機器人權?目前還沒明確看法。
(三)機器人遇到兩難的時候,該以哪一方為主?
當機器人遇到兩個選項必須擇其一的時候,該如何選擇?例如今天機器人開車,遇到闖紅燈的老太太,如果緊急煞車,可能會造成乘客受傷;但不煞車又會撞到老太太,他該以哪一方為主?以人類來說,如果今天開車遇到上述狀況,煞車不及撞到老太太,可能可以「意外」視之,然而機器人的行為舉止都是「預先」透過程式編寫進去,機器人的每一步都是演算法設定好的,因此如果他今天遇到上述狀況選擇撞傷老太太,代表他一開始灌輸的程式就是如此,因此該事件可以說是意外嗎?還是預謀?
(四)人工智慧的發展是否會超出人類的控制
人類之所以能夠在食物鏈的頂端,不在於人類相較其他物種有強壯的體態或鋒利的牙齒,而是因為人類有所謂的智慧,透過智慧可以創造許多的工具,以獵捕比我們更強壯、速度更快的物種。但是當機器人越來越聰明,人工智慧超越我們的智慧,該如何控制他們?維持人類的統治地位?
(五)如何確保人工智能不會產生不可預期的結果
我們如何確保具人工智能的機器人能夠正確解讀我們的命令,而不會誤解,產生非我們預料中的結果,例如跟機器人下指令:「消滅世界上所有癌症」,機器人認為只要全人類死光就不會有癌症,因此殺光所有人類,雖然達到目的,但並非我們所願。
(六)機器人如何確保不會有偏見
由於機器人的發展有賴工程師撰寫程式,若工程師個人有偏見,是否也會讓機器人有偏見,例如某科技公司曾經發展一個軟體,能夠透過人工智能預測未來犯罪情況,但卻對黑人產生偏見。因此確保機器人維持中立、公平將是一個重要課題。
(七)發展人工智能將導致大量失業,以及財富分配更不公平
我們都知道機器人的發展將取代一些工作,例如低技術、高勞力密集的工作,因此將導致失業的問題產生,根據麥肯錫顧問公司調查發現,在不久的將來,全球約有8億人的工作會因機器人的發展而被取代。
此外目前全球經濟主要奉行資本主義,已經造成財富分配不平均,80%的財富集中在20%的人手上,20%的財務則集中在80%的人手上,未來人工智能發展之後,若是導入人工智能的公司老闆,因為使用機器人取代人力,將讓公司減少雇用員工,因此公司賺得的收入幾乎可以一人獨拿,而失業員工更多,將造成財富分配更不公平。
三、結語
人工智能研究權威-美國柏克萊大學教授Stuart Russell認為未來有關人工智能的道德發展將是明星產業,機器人製造商將會向具備人工智能道德發展編寫程式(moral programming)的廠商購買相關數據,以讓其機器人擁有道德意識,做出正確的決定。然而道德,如前所述,是一種「主觀」的判斷,且工程師是否編寫程式的時候能夠維持中立立場?就算機器人真的能夠非常公正、中立,它們是否能夠完全了解命令內容,在達成一樣的目的之下,不會做出非預料的結果?以上的問題都是在人工智能發展的道路上一定會碰到的,雖然以目前的技術而言,可能言之過早,但這些問題若能夠突破,將能夠讓人工智能領域產生重大性的變革。
 

其他相關活動