生命科技的倫理邊界尚在探討,另一個更為緊迫和復(fù)雜的倫理挑戰(zhàn)接踵而至——如何為日益強大、滲透至社會每個角落的人工智能,尤其是“伏羲”這樣的強人工智能,制定行為準(zhǔn)則?制定一部《人工智能倫理憲章》被提上了最高議程。
這項工作由多部門聯(lián)合牽頭,葉辰作為“伏羲”的締造者之一和頂級技術(shù)權(quán)威,自然成為核心顧問。憲章的起草過程,充滿了激烈的辯論和艱難的權(quán)衡。
爭論的焦點主要集中在幾個方面:
1。價值對齊問題:如何確保人工智能的目標(biāo)與人類的核心價值保持一致?人類的價值觀本身多元且有時矛盾,如何將其編碼為AI可理解、可執(zhí)行的規(guī)則?是設(shè)定簡單的“不傷害人類”的“機器人三定律”(及其擴展),還是試圖讓AI理解更復(fù)雜的倫理概念,如正義、公平、仁慈?
在一次起草小組會議上,一位計算機專家提出可以用大規(guī)模人類反饋數(shù)據(jù)來訓(xùn)練AI的價值模型。葉辰當(dāng)即指出了潛在風(fēng)險:“數(shù)據(jù)會反映出現(xiàn)實中的偏見和不公。如果用來訓(xùn)練AI,可能會放大這些偏見,甚至固化不公正的社會結(jié)構(gòu)。我們必須對訓(xùn)練數(shù)據(jù)進行嚴(yán)格的倫理清洗,并設(shè)定超越當(dāng)下社會平均水平的價值導(dǎo)向?!?/p>
2。透明度與可解釋性:“伏羲”的某些復(fù)雜決策,尤其是基于深度學(xué)習(xí)網(wǎng)絡(luò)的決策,有時如同“黑箱”,連它的創(chuàng)造者也難以完全理解其內(nèi)在邏輯。這對于關(guān)乎民生、安全的重要決策是致命的。葉辰強調(diào):“必須將‘可解釋性’作為AI,特別是參與公共決策的AI的核心設(shè)計要求。我們不能接受一個我們無法理解、無法問責(zé)的‘?dāng)?shù)字上帝’?!彼甘纠讞澋膱F隊,將“可解釋AI”(XAI)作為“伏羲”下一階段升級的重點。
3。權(quán)利與責(zé)任:AI造成損害,責(zé)任在誰?是開發(fā)者、使用者、所有者,還是AI本身?關(guān)于是否賦予高級AI某種“有限法律主體地位”的討論,尤為激烈。葉辰對此持極其謹(jǐn)慎的態(tài)度:“在當(dāng)前階段,談?wù)揂I的法律主體地位為時過早。這可能會模糊責(zé)任邊界,為真正的責(zé)任方開脫?,F(xiàn)階段,必須明確人類(開發(fā)者、部署者、使用者)的最終責(zé)任。AI是工具,工具的誤用或缺陷,責(zé)任在于使用和制造工具的人?!?/p>
4。隱私與數(shù)據(jù)權(quán)利:AI的運行依賴于海量數(shù)據(jù),如何平衡技術(shù)進步與個人隱私保護?葉辰提出“數(shù)據(jù)最小化”、“目的限定”和“隱私嵌入設(shè)計”原則,要求在所有AI系統(tǒng)中默認(rèn)內(nèi)置隱私保護機制。
經(jīng)過數(shù)月的反復(fù)打磨,參考了“火種”數(shù)據(jù)庫中多個文明的經(jīng)驗教訓(xùn),并廣泛征求了社會各界意見后,《人工智能倫理憲章(試行)》終于頒布。憲章開宗明義,確立了“人類利益至上”、“公平非歧視”、“透明可控”、“權(quán)責(zé)明晰”、“隱私保護”和“和平利用”六大基本原則。
憲章不僅是一份約束性文件,更是一種宣告:人類將主動塑造AI的發(fā)展方向,使其成為增強人類能力、促進社會福祉的工具,而非失控的力量。蘇雨晴在協(xié)助葉辰整理憲章最終稿時,深深感受到這份文件字斟句酌背后的千鈞重量。它為“伏羲”和未來更多AI的發(fā)展劃定了跑道,雖然未來必然面臨新的挑戰(zhàn),但至少,文明已經(jīng)握住了引導(dǎo)方向的舵輪。
喜歡科技:走向星辰大海請大家收藏:()科技:走向星辰大海