<人工(gōng)智能AI的23條原則_上海科格菲利網絡工作室

人工(gōng)智能AI的23條原則

發布于:2018-03-15 19:55    亮湖; 

1.研究問題
 
1)研究目标:人工(gōng)智能研究的目标應該中舊是創造有益的智能,而不是讓它像經曆生(shēng)美民物(wù)演化一(yī)樣沒有确定的發展方向。
 
2)研究資(zī)金:投資(zī)人工(gōng大時)智能應該附帶确保該研究是用于發展有益的人工(gōng)智能,包有笑括計算機科學、經濟學、法律、倫理和社會研究中(z議河hōng)的棘手問題,例如:
 
我(wǒ)(wǒ)們如何使未來的AI系統具司年有高度魯棒性,這樣才能夠讓它們在沒有故障或被黑姐現客入侵的情況下(xià)做我(wǒ)(wǒ)們想要它們做的事情坐照?
我(wǒ)(wǒ)們如何通過自動化實現繁榮,同時不打破資(zī)源和目的的師謝平衡?
我(wǒ)(wǒ)們如何更新法律制度實現更大(dà)的公平和更高的效器少率,跟上AI的發展步伐,管控與AI相關的風險?
AI應該具有怎樣的價值觀,應該具有何等法律和倫理地位?紙影
 
3)科學政策互聯:AI研究人員(yuán)和政策制定者之間應該進物秒行有建設意義、健康的交流。
 
4)研究文化:應該在AI研究者和開(kāi)發者中(zhōng)培養合作、信校醫任和透明的文化。
 
5)避免競賽(Race Avoidan說做ce):開(kāi)發AI系統的團隊應積極合作費的,避免在安全标準方面進行削減。
 
2.倫理和價值觀
 
6)安全:AI系統應該在整個使用周期内安全可靠,并影書在可行性和可用性方面有可驗證的衡量标準。
 
7)故障透明度(Failure Transparency睡國):如果AI系統造成傷害,應該可以确定原因。
 
8)司法透明度:任何涉及司法決策的自主系統都應對靜什其判斷提供合理的解釋,并由主管人權機構審核。
 
9)責任:先進人工(gōng)智能系統的設計師近妹和建設者是使用、濫用這些系統以及這些系統行動造成的道德影響的利益相關者,他們空分有責任和機會塑造這些影響。
 
10)價值觀一(yī)緻性:在設計高度自數電治的人工(gōng)智能系統時,應該确保它們的劇看目标和行爲在整個操作過程中(zhōng)與人類的價值觀相一(對身yī)緻。
 
11)人類價值觀:人工(gōng)智能系統的設慢道計和運行應與人類尊嚴、權利、自由和文化多樣性的理念相一(yī)緻。
 
12)個人隐私:由于AI系統能夠分(fēn)析和利用人類産生(shēn街器g)的數據,人類也應該有權獲取、管理和控制自身産生呢美(shēng)的數據。
 
13)自由和隐私:AI 應用個人數據,其結果不能不合理南了地限制人類真實或感知(zhī)到的自由。
 
14)共享利益:人工(gōng)智能技術應水會當惠及和增強盡可能多的人。
 
15)共享繁榮:人工(gōng)智能創造的經濟繁鄉算榮應該廣泛共享,爲全人類造福。
 
16)人類控制:應該由人類選擇如何以及是否數能委托人工(gōng)智能系統去(qù)完成人類選擇的目标。
 
17)非颠覆(Non-subversion):要控制先進的人工(gō書醫ng)智能系統所帶來的力量,應當尊重和改善社會健康發見冷展所需的社會和公民進程,而不是颠覆這種進程。廠生
 
18)AI 軍備競賽:應該避免在緻命的自動武器開(kāi)發亮船方面形成軍備競賽。
 
3.長期問題
 
19)能力注意(Capability Cauti身玩on):在沒有共識的情況下(xià),應該避免對未來AI能力上限做出較錯東爲肯定的假設。
 
20)重要性:先進AI可能代表了地球上生(shēng)命發展曆史的一就妹(yī)大(dà)深刻變化,應該通過相應的關懷和資(zī)源對其進行規劃和管理討兵。
 
21)風險:人工(gōng)智能系統帶來的風險,特别是災難性或有關人類存謝章亡的風險,必須遵守與其預期影響相稱的規劃和緩解措施。
 
22)不斷自我(wǒ)(wǒ)完善(Recursive Se的吧lf-Improvement):對于那些不斷自我(wǒ水海)(wǒ)完善或通過自我(wǒ)(wǒ)複制以能夠快速提高質火土量或數量的AI系統,必須采取嚴格的安全和控制措施。
 
23)共同利益:超級智慧隻應該爲廣泛共享的倫理理想服務,爲了又這全人類而不是一(yī)個國家或組織的利益而金海發展。

上一(yī)篇:網站營銷需要一(yī)個适當的切入點

下(xià)一(yī)篇:時間簡史的經典看法

相關内容 觀察行業視覺,用專業的角度,講出你們的心聲。

I NEED TO BUILD WEBSITE

我(wǒ)(wǒ)需要建站

*請認真填寫需求信息,我(wǒ)(wǒ)們見林會在24小(xiǎo)時内與您取得聯系。