
馬斯克、庫(kù)茲韋爾等確認(rèn)的23個(gè)原則,將使AI更安全和道德
時(shí)間:2017-02-21
文章轉(zhuǎn)載自機(jī)器人圈,如有侵權(quán)請(qǐng)聯(lián)系刪除。
“生命未來(lái)研究所”(Future of Life Institute,F(xiàn)LI)概括了“阿西洛馬人工智能原則”,列出了23條準(zhǔn)則,使未來(lái)人工智能的研究人員、科學(xué)家和立法者遵循,確保安全、倫理和有益。
文:Michael Irving 編譯:多啦A亮
人工智能將嚴(yán)重地破壞世界?人工智能對(duì)人類是否有益?我們?cè)摯輾鼏幔窟@聽(tīng)起來(lái)像拍科幻電影,但是隨著人工智能的快速發(fā)展,數(shù)百名人工智能和機(jī)器人領(lǐng)域的專家們聯(lián)合編制了“阿西洛馬人工智能原則”,列出了23條準(zhǔn)則,提出重點(diǎn)和注意事項(xiàng)來(lái)指導(dǎo)AI發(fā)展,共同保障人類未來(lái)倫理、利益和安全。
這23條準(zhǔn)則由“生命未來(lái)研究所”牽頭制定出,旨在確保人類在新技術(shù)出現(xiàn)時(shí)能順利規(guī)避其潛在的風(fēng)險(xiǎn)。其突出核心成員有Stephen Hawking和Elon Musk。這個(gè)組織專注于由新技術(shù)和問(wèn)題構(gòu)成的潛在威脅,如人工智能、生物技術(shù)、核武器和氣候變化等。
2017年1月,在美國(guó)加利福尼亞州阿西洛馬舉行的Beneficial AI會(huì)議上,該組織收集了來(lái)自大學(xué)和公司的人工智能研究人員,討論人工智能的未來(lái)及其應(yīng)如何監(jiān)管。在會(huì)議召開(kāi)前,該組織讓參會(huì)者做了一份調(diào)查:在未來(lái)幾年,人工智能需要怎樣發(fā)展和監(jiān)管,并用這些參會(huì)者的反饋制定出一個(gè)前期的目標(biāo)點(diǎn)。修改后的版本在會(huì)上做了討論研究,只有當(dāng)90%的研究人員同意最終列出一份原則列表。
「部分簽名的專家」
Demis Hassabis ,DeepMind創(chuàng)始人兼CEO
Ilya Sutskever ,OpenAI研究總監(jiān)、聯(lián)合創(chuàng)始人
Yann LeCun, Facebook AI 研究室總監(jiān),紐約大學(xué)教授
Yoshua Bengio ,蒙特利爾大學(xué)、蒙特利爾學(xué)習(xí)算法研究所所長(zhǎng)
Stuart Russell,加利福尼亞大學(xué)伯克利分校計(jì)算機(jī)科學(xué)教授,智能系統(tǒng)中心主任
Peter Norvig ,谷歌研究總監(jiān)
Ray Kurzweil ,谷歌研究總監(jiān);發(fā)明家、作家和未來(lái)學(xué)家,著有《奇點(diǎn)臨近》
Jeff Dean, 谷歌Google Brain項(xiàng)目負(fù)責(zé)人,谷歌高級(jí)研究員,AAAI成員
Tom Gruber, 蘋(píng)果公司;Siri的共同創(chuàng)始人,Siri 項(xiàng)目CTO和設(shè)計(jì)副總裁
Nils J. Nilsson,AAAI前任主席,斯坦福大學(xué)Emeritus Kumagai工程教授
Francesca Rossi, IBM&Padova,計(jì)算機(jī)科學(xué)教授,IJCAI主席、AAAI委員會(huì)、AI與倫理問(wèn)題影響委員會(huì)聯(lián)席主席,ACM成員
總共有808名AI /機(jī)器人研究人員簽名;
以及
Stephen Hawking ,劍橋大學(xué)
Elon Musk,特斯拉CEO
Jaan Tallinn ,Skype 聯(lián)合創(chuàng)始人
Sam Altman ,Y Combinator 總裁
Gill Pratt ,豐田研究院CEO
……
阿西洛馬人工智能原則是著名的阿西莫夫的機(jī)器人三大法則的擴(kuò)展版本。阿西洛馬人工智能原則主要分為三大類:科研問(wèn)題、倫理價(jià)值和長(zhǎng)期問(wèn)題。
科研問(wèn)題主要涵蓋了科學(xué)家和研究人員對(duì)人工智能系統(tǒng)開(kāi)放的職責(zé),以及在計(jì)算機(jī)科學(xué)、經(jīng)濟(jì)學(xué)、法律、倫理學(xué)和社會(huì)研究中可能產(chǎn)生的“棘手問(wèn)題”。在這里要提出重點(diǎn)的是人工智能不能單純了為了利益而創(chuàng)造,而應(yīng)該為了在確保人類不被替代的情況下通過(guò)自動(dòng)化實(shí)現(xiàn)人類繁榮。保持一個(gè)開(kāi)放、合作的人工智能研究的文化也是一個(gè)優(yōu)先考慮的事情,以確保研究人員和政策制定者在彼此交換信息的同時(shí),不會(huì)以危害人類為手段與競(jìng)爭(zhēng)對(duì)手參與競(jìng)爭(zhēng)。
在討論環(huán)節(jié)最有意思和爭(zhēng)議的問(wèn)題應(yīng)該是“AI應(yīng)該具有怎樣的價(jià)值觀,應(yīng)該具有何等法律和倫理地位?”一個(gè)擁有機(jī)器人的世界已經(jīng)足夠復(fù)雜,讓機(jī)器人擁有權(quán)力似乎離我們很遠(yuǎn),但是這些爭(zhēng)議已經(jīng)在歐盟開(kāi)始了。我們?cè)皆缈紤]這些問(wèn)題,將來(lái)就會(huì)越容易過(guò)渡。
而問(wèn)題是人工智能該賦予怎樣的權(quán)力?科學(xué)家認(rèn)為人工智能應(yīng)符合一般的“人的價(jià)值”之類的尊嚴(yán)、權(quán)利、自由和文化等多樣性。這意味著將人工智能應(yīng)用于個(gè)人數(shù)據(jù)不應(yīng)侵犯任何人的隱私、自由或安全。如果有什么問(wèn)題,人們需要確定產(chǎn)生這些問(wèn)題的原因和方式,設(shè)計(jì)師和制定者在使用或誤用系統(tǒng)中要承擔(dān)在一定的道德責(zé)任。
這些點(diǎn)都已經(jīng)在實(shí)踐中被考慮到了:科學(xué)家在谷歌DeepMind項(xiàng)目中討論如何實(shí)現(xiàn)用一個(gè)“大紅色按鈕”去干預(yù)一個(gè)已經(jīng)開(kāi)始按行動(dòng)路徑執(zhí)行任務(wù)的機(jī)器人,并防止它抗干擾。
尤其讓人害怕的是要注意“致命的武器軍備競(jìng)賽是應(yīng)該被禁止的”。“生命未來(lái)研究所”在過(guò)去一直強(qiáng)調(diào)這一點(diǎn),2015年向聯(lián)合國(guó)提交了一封公開(kāi)信,請(qǐng)求聯(lián)合國(guó)禁止軍用人工智能的發(fā)展。
科學(xué)家們列出了清單,著眼于潛在的長(zhǎng)期問(wèn)題,包括未來(lái)發(fā)展這一重要技術(shù)平衡資源分配,但要規(guī)劃和減輕人工智能系統(tǒng)可能會(huì)面對(duì)的風(fēng)險(xiǎn),特別是災(zāi)難性的或存在的風(fēng)險(xiǎn)。
為此,安全控制措施應(yīng)適用于AI,可以改善自身技術(shù),阻止劇本里世界末日的發(fā)生,而在一般情況下,“超智只應(yīng)服務(wù)于廣泛共享的倫理理想的發(fā)展,并為全人類利益而不是一個(gè)國(guó)家或組織的利益。”
1)研究目的:人工智能研究的目標(biāo),應(yīng)該是創(chuàng)造有益(于人類)而不是不受(人類)控制的智能。
2)研究經(jīng)費(fèi):投資人工智能應(yīng)該有部份經(jīng)費(fèi)用于研究如何確保有益地使用人工智能,包括計(jì)算機(jī)科學(xué)、經(jīng)濟(jì)學(xué)、法律、倫理以及社會(huì)研究中的棘手問(wèn)題,比如:
如何使未來(lái)的人工智能系統(tǒng)高度健全(“魯棒性”),讓系統(tǒng)按我們的要求運(yùn)行,而不會(huì)發(fā)生故障或遭黑客入侵?
如何通過(guò)自動(dòng)化提升我們的繁榮程度,同時(shí)維持人類的資源和意志?
如何改進(jìn)法制體系使其更公平和高效,能夠跟得上人工智能的發(fā)展速度,并且能夠控制人工智能帶來(lái)的風(fēng)險(xiǎn)?
人工智能應(yīng)該歸屬于什么樣的價(jià)值體系?它該具有何種法律和倫理地位?
3)科學(xué)與政策的聯(lián)系:在人工智能研究者和政策制定者之間應(yīng)該有建設(shè)性的、有益的交流。
4) 科研文化:在人工智能研究者和開(kāi)發(fā)者中應(yīng)該培養(yǎng)一種合作、信任與透明的人文文化。
5)避免競(jìng)爭(zhēng):人工智能系統(tǒng)開(kāi)發(fā)團(tuán)隊(duì)之間應(yīng)該積極合作,以避免安全標(biāo)準(zhǔn)上的有機(jī)可乘。
6) 安全性:人工智能系統(tǒng)在它們整個(gè)運(yùn)行過(guò)程中應(yīng)該是安全和可靠的,而且其可應(yīng)用性的和可行性應(yīng)當(dāng)接受驗(yàn)證。
7) 故障透明性:如果一個(gè)人工智能系統(tǒng)造成了損害,那么造成損害的原因要能被確定。
8)司法透明性:任何自動(dòng)系統(tǒng)參與的司法判決都應(yīng)提供令人滿意的司法解釋以被相關(guān)領(lǐng)域的專家接受。
9)責(zé)任:高級(jí)人工智能系統(tǒng)的設(shè)計(jì)者和建造者,是人工智能使用、誤用和行為所產(chǎn)生的道德影響的參與者,有責(zé)任和機(jī)會(huì)去塑造那些道德影響。
10)價(jià)值歸屬:高度自主的人工智能系統(tǒng)的設(shè)計(jì),應(yīng)該確保它們的目標(biāo)和行為在整個(gè)運(yùn)行中與人類的價(jià)值觀相一致。
11)人類價(jià)值觀:人工智能系統(tǒng)應(yīng)該被設(shè)計(jì)和操作,以使其和人類尊嚴(yán)、權(quán)力、自由和文化多樣性的理想相一致。
12)個(gè)人隱私:在給予人工智能系統(tǒng)以分析和使用數(shù)據(jù)的能力時(shí),人們應(yīng)該擁有權(quán)力去訪問(wèn)、管理和控制他們產(chǎn)生的數(shù)據(jù)。
13)自由和隱私:人工智能在個(gè)人數(shù)據(jù)上的應(yīng)用不能充許無(wú)理由地剝奪人們真實(shí)的或人們能感受到的自由。
14)分享利益:人工智能科技應(yīng)該惠及和服務(wù)盡可能多的人。
15) 共同繁榮:由人工智能創(chuàng)造的經(jīng)濟(jì)繁榮應(yīng)該被廣泛地分享,惠及全人類。
16)人類控制:人類應(yīng)該來(lái)選擇如何和決定是否讓人工智能系統(tǒng)去完成人類選擇的目標(biāo)。
17)非顛覆:高級(jí)人工智能被授予的權(quán)力應(yīng)該尊重和改進(jìn)健康的社會(huì)所依賴的社會(huì)和公民秩序,而不是顛覆。
18)人工智能軍備競(jìng)賽:致命的自動(dòng)化武器的裝備競(jìng)賽應(yīng)該被避免。
19)能力警惕:我們應(yīng)該避免關(guān)于未來(lái)人工智能能力上限的過(guò)高假設(shè),但這一點(diǎn)還沒(méi)有達(dá)成共識(shí)。
20)重要性:高級(jí)人工智能能夠代表地球生命歷史的一個(gè)深刻變化,人類應(yīng)該有相應(yīng)的關(guān)切和資源來(lái)進(jìn)行計(jì)劃和管理。
21)風(fēng)險(xiǎn):人工智能系統(tǒng)造成的風(fēng)險(xiǎn),特別是災(zāi)難性的或有關(guān)人類存亡的風(fēng)險(xiǎn),必須有針對(duì)性地計(jì)劃和努力減輕可預(yù)見(jiàn)的沖擊。
22)遞歸的自我提升:被設(shè)計(jì)成可以迅速提升質(zhì)量和數(shù)量的方式進(jìn)行遞歸自我升級(jí)或自我復(fù)制人工智能系統(tǒng),必須受制于嚴(yán)格的安全和控制標(biāo)準(zhǔn)。
23)公共利益:超級(jí)智能的開(kāi)發(fā)是為了服務(wù)廣泛認(rèn)可的倫理觀念,并且是為了全人類的利益而不是一個(gè)國(guó)家和組織的利益。
“生命未來(lái)研究所”(Future of Life Institute,F(xiàn)LI)概括了“阿西洛馬人工智能原則”,列出了23條準(zhǔn)則,使未來(lái)人工智能的研究人員、科學(xué)家和立法者遵循,確保安全、倫理和有益。
文:Michael Irving 編譯:多啦A亮
人工智能將嚴(yán)重地破壞世界?人工智能對(duì)人類是否有益?我們?cè)摯輾鼏幔窟@聽(tīng)起來(lái)像拍科幻電影,但是隨著人工智能的快速發(fā)展,數(shù)百名人工智能和機(jī)器人領(lǐng)域的專家們聯(lián)合編制了“阿西洛馬人工智能原則”,列出了23條準(zhǔn)則,提出重點(diǎn)和注意事項(xiàng)來(lái)指導(dǎo)AI發(fā)展,共同保障人類未來(lái)倫理、利益和安全。
這23條準(zhǔn)則由“生命未來(lái)研究所”牽頭制定出,旨在確保人類在新技術(shù)出現(xiàn)時(shí)能順利規(guī)避其潛在的風(fēng)險(xiǎn)。其突出核心成員有Stephen Hawking和Elon Musk。這個(gè)組織專注于由新技術(shù)和問(wèn)題構(gòu)成的潛在威脅,如人工智能、生物技術(shù)、核武器和氣候變化等。
2017年1月,在美國(guó)加利福尼亞州阿西洛馬舉行的Beneficial AI會(huì)議上,該組織收集了來(lái)自大學(xué)和公司的人工智能研究人員,討論人工智能的未來(lái)及其應(yīng)如何監(jiān)管。在會(huì)議召開(kāi)前,該組織讓參會(huì)者做了一份調(diào)查:在未來(lái)幾年,人工智能需要怎樣發(fā)展和監(jiān)管,并用這些參會(huì)者的反饋制定出一個(gè)前期的目標(biāo)點(diǎn)。修改后的版本在會(huì)上做了討論研究,只有當(dāng)90%的研究人員同意最終列出一份原則列表。

「部分簽名的專家」
Demis Hassabis ,DeepMind創(chuàng)始人兼CEO
Ilya Sutskever ,OpenAI研究總監(jiān)、聯(lián)合創(chuàng)始人
Yann LeCun, Facebook AI 研究室總監(jiān),紐約大學(xué)教授
Yoshua Bengio ,蒙特利爾大學(xué)、蒙特利爾學(xué)習(xí)算法研究所所長(zhǎng)
Stuart Russell,加利福尼亞大學(xué)伯克利分校計(jì)算機(jī)科學(xué)教授,智能系統(tǒng)中心主任
Peter Norvig ,谷歌研究總監(jiān)
Ray Kurzweil ,谷歌研究總監(jiān);發(fā)明家、作家和未來(lái)學(xué)家,著有《奇點(diǎn)臨近》
Jeff Dean, 谷歌Google Brain項(xiàng)目負(fù)責(zé)人,谷歌高級(jí)研究員,AAAI成員
Tom Gruber, 蘋(píng)果公司;Siri的共同創(chuàng)始人,Siri 項(xiàng)目CTO和設(shè)計(jì)副總裁
Nils J. Nilsson,AAAI前任主席,斯坦福大學(xué)Emeritus Kumagai工程教授
Francesca Rossi, IBM&Padova,計(jì)算機(jī)科學(xué)教授,IJCAI主席、AAAI委員會(huì)、AI與倫理問(wèn)題影響委員會(huì)聯(lián)席主席,ACM成員
總共有808名AI /機(jī)器人研究人員簽名;
以及
Stephen Hawking ,劍橋大學(xué)
Elon Musk,特斯拉CEO
Jaan Tallinn ,Skype 聯(lián)合創(chuàng)始人
Sam Altman ,Y Combinator 總裁
Gill Pratt ,豐田研究院CEO
……

阿西洛馬人工智能原則是著名的阿西莫夫的機(jī)器人三大法則的擴(kuò)展版本。阿西洛馬人工智能原則主要分為三大類:科研問(wèn)題、倫理價(jià)值和長(zhǎng)期問(wèn)題。
科研問(wèn)題主要涵蓋了科學(xué)家和研究人員對(duì)人工智能系統(tǒng)開(kāi)放的職責(zé),以及在計(jì)算機(jī)科學(xué)、經(jīng)濟(jì)學(xué)、法律、倫理學(xué)和社會(huì)研究中可能產(chǎn)生的“棘手問(wèn)題”。在這里要提出重點(diǎn)的是人工智能不能單純了為了利益而創(chuàng)造,而應(yīng)該為了在確保人類不被替代的情況下通過(guò)自動(dòng)化實(shí)現(xiàn)人類繁榮。保持一個(gè)開(kāi)放、合作的人工智能研究的文化也是一個(gè)優(yōu)先考慮的事情,以確保研究人員和政策制定者在彼此交換信息的同時(shí),不會(huì)以危害人類為手段與競(jìng)爭(zhēng)對(duì)手參與競(jìng)爭(zhēng)。
在討論環(huán)節(jié)最有意思和爭(zhēng)議的問(wèn)題應(yīng)該是“AI應(yīng)該具有怎樣的價(jià)值觀,應(yīng)該具有何等法律和倫理地位?”一個(gè)擁有機(jī)器人的世界已經(jīng)足夠復(fù)雜,讓機(jī)器人擁有權(quán)力似乎離我們很遠(yuǎn),但是這些爭(zhēng)議已經(jīng)在歐盟開(kāi)始了。我們?cè)皆缈紤]這些問(wèn)題,將來(lái)就會(huì)越容易過(guò)渡。
而問(wèn)題是人工智能該賦予怎樣的權(quán)力?科學(xué)家認(rèn)為人工智能應(yīng)符合一般的“人的價(jià)值”之類的尊嚴(yán)、權(quán)利、自由和文化等多樣性。這意味著將人工智能應(yīng)用于個(gè)人數(shù)據(jù)不應(yīng)侵犯任何人的隱私、自由或安全。如果有什么問(wèn)題,人們需要確定產(chǎn)生這些問(wèn)題的原因和方式,設(shè)計(jì)師和制定者在使用或誤用系統(tǒng)中要承擔(dān)在一定的道德責(zé)任。
這些點(diǎn)都已經(jīng)在實(shí)踐中被考慮到了:科學(xué)家在谷歌DeepMind項(xiàng)目中討論如何實(shí)現(xiàn)用一個(gè)“大紅色按鈕”去干預(yù)一個(gè)已經(jīng)開(kāi)始按行動(dòng)路徑執(zhí)行任務(wù)的機(jī)器人,并防止它抗干擾。
尤其讓人害怕的是要注意“致命的武器軍備競(jìng)賽是應(yīng)該被禁止的”。“生命未來(lái)研究所”在過(guò)去一直強(qiáng)調(diào)這一點(diǎn),2015年向聯(lián)合國(guó)提交了一封公開(kāi)信,請(qǐng)求聯(lián)合國(guó)禁止軍用人工智能的發(fā)展。
科學(xué)家們列出了清單,著眼于潛在的長(zhǎng)期問(wèn)題,包括未來(lái)發(fā)展這一重要技術(shù)平衡資源分配,但要規(guī)劃和減輕人工智能系統(tǒng)可能會(huì)面對(duì)的風(fēng)險(xiǎn),特別是災(zāi)難性的或存在的風(fēng)險(xiǎn)。
為此,安全控制措施應(yīng)適用于AI,可以改善自身技術(shù),阻止劇本里世界末日的發(fā)生,而在一般情況下,“超智只應(yīng)服務(wù)于廣泛共享的倫理理想的發(fā)展,并為全人類利益而不是一個(gè)國(guó)家或組織的利益。”
「Asilomar AI Principles 阿西洛馬人工智能原則」
科研問(wèn)題
1)研究目的:人工智能研究的目標(biāo),應(yīng)該是創(chuàng)造有益(于人類)而不是不受(人類)控制的智能。
2)研究經(jīng)費(fèi):投資人工智能應(yīng)該有部份經(jīng)費(fèi)用于研究如何確保有益地使用人工智能,包括計(jì)算機(jī)科學(xué)、經(jīng)濟(jì)學(xué)、法律、倫理以及社會(huì)研究中的棘手問(wèn)題,比如:
如何使未來(lái)的人工智能系統(tǒng)高度健全(“魯棒性”),讓系統(tǒng)按我們的要求運(yùn)行,而不會(huì)發(fā)生故障或遭黑客入侵?
如何通過(guò)自動(dòng)化提升我們的繁榮程度,同時(shí)維持人類的資源和意志?
如何改進(jìn)法制體系使其更公平和高效,能夠跟得上人工智能的發(fā)展速度,并且能夠控制人工智能帶來(lái)的風(fēng)險(xiǎn)?
人工智能應(yīng)該歸屬于什么樣的價(jià)值體系?它該具有何種法律和倫理地位?
3)科學(xué)與政策的聯(lián)系:在人工智能研究者和政策制定者之間應(yīng)該有建設(shè)性的、有益的交流。
4) 科研文化:在人工智能研究者和開(kāi)發(fā)者中應(yīng)該培養(yǎng)一種合作、信任與透明的人文文化。
5)避免競(jìng)爭(zhēng):人工智能系統(tǒng)開(kāi)發(fā)團(tuán)隊(duì)之間應(yīng)該積極合作,以避免安全標(biāo)準(zhǔn)上的有機(jī)可乘。
倫理和價(jià)值
6) 安全性:人工智能系統(tǒng)在它們整個(gè)運(yùn)行過(guò)程中應(yīng)該是安全和可靠的,而且其可應(yīng)用性的和可行性應(yīng)當(dāng)接受驗(yàn)證。
7) 故障透明性:如果一個(gè)人工智能系統(tǒng)造成了損害,那么造成損害的原因要能被確定。
8)司法透明性:任何自動(dòng)系統(tǒng)參與的司法判決都應(yīng)提供令人滿意的司法解釋以被相關(guān)領(lǐng)域的專家接受。
9)責(zé)任:高級(jí)人工智能系統(tǒng)的設(shè)計(jì)者和建造者,是人工智能使用、誤用和行為所產(chǎn)生的道德影響的參與者,有責(zé)任和機(jī)會(huì)去塑造那些道德影響。
10)價(jià)值歸屬:高度自主的人工智能系統(tǒng)的設(shè)計(jì),應(yīng)該確保它們的目標(biāo)和行為在整個(gè)運(yùn)行中與人類的價(jià)值觀相一致。
11)人類價(jià)值觀:人工智能系統(tǒng)應(yīng)該被設(shè)計(jì)和操作,以使其和人類尊嚴(yán)、權(quán)力、自由和文化多樣性的理想相一致。
12)個(gè)人隱私:在給予人工智能系統(tǒng)以分析和使用數(shù)據(jù)的能力時(shí),人們應(yīng)該擁有權(quán)力去訪問(wèn)、管理和控制他們產(chǎn)生的數(shù)據(jù)。
13)自由和隱私:人工智能在個(gè)人數(shù)據(jù)上的應(yīng)用不能充許無(wú)理由地剝奪人們真實(shí)的或人們能感受到的自由。
14)分享利益:人工智能科技應(yīng)該惠及和服務(wù)盡可能多的人。
15) 共同繁榮:由人工智能創(chuàng)造的經(jīng)濟(jì)繁榮應(yīng)該被廣泛地分享,惠及全人類。
16)人類控制:人類應(yīng)該來(lái)選擇如何和決定是否讓人工智能系統(tǒng)去完成人類選擇的目標(biāo)。
17)非顛覆:高級(jí)人工智能被授予的權(quán)力應(yīng)該尊重和改進(jìn)健康的社會(huì)所依賴的社會(huì)和公民秩序,而不是顛覆。
18)人工智能軍備競(jìng)賽:致命的自動(dòng)化武器的裝備競(jìng)賽應(yīng)該被避免。
更長(zhǎng)期的問(wèn)題
19)能力警惕:我們應(yīng)該避免關(guān)于未來(lái)人工智能能力上限的過(guò)高假設(shè),但這一點(diǎn)還沒(méi)有達(dá)成共識(shí)。
20)重要性:高級(jí)人工智能能夠代表地球生命歷史的一個(gè)深刻變化,人類應(yīng)該有相應(yīng)的關(guān)切和資源來(lái)進(jìn)行計(jì)劃和管理。
21)風(fēng)險(xiǎn):人工智能系統(tǒng)造成的風(fēng)險(xiǎn),特別是災(zāi)難性的或有關(guān)人類存亡的風(fēng)險(xiǎn),必須有針對(duì)性地計(jì)劃和努力減輕可預(yù)見(jiàn)的沖擊。
22)遞歸的自我提升:被設(shè)計(jì)成可以迅速提升質(zhì)量和數(shù)量的方式進(jìn)行遞歸自我升級(jí)或自我復(fù)制人工智能系統(tǒng),必須受制于嚴(yán)格的安全和控制標(biāo)準(zhǔn)。
23)公共利益:超級(jí)智能的開(kāi)發(fā)是為了服務(wù)廣泛認(rèn)可的倫理觀念,并且是為了全人類的利益而不是一個(gè)國(guó)家和組織的利益。
相關(guān)閱讀:
-
分享本文到:
-
關(guān)注隨銳:
微信掃描,獲取最新資訊 -
聯(lián)系我們:
如果您有任何問(wèn)題或建議,
請(qǐng)與我們聯(lián)系:
suiruikeji@suirui.com