2023-12-21 14:09:00
來源:環(huán)球人物網(wǎng)-《環(huán)球人物》雜志
作者:曾毅
小號
中號
大號
今年以來,人工智能(Artificial Intelligence,以下簡稱AI)的應(yīng)用廣泛程度和用戶體驗(yàn)水平達(dá)到了前所未有的高度。隨著AI進(jìn)入公眾視野,人們開始認(rèn)真思考人類與AI的關(guān)系。
人何以為人?AI會替代人類嗎?AI是否存在不可預(yù)知的風(fēng)險(xiǎn)?這些切要問題使得很多人不知所措。他們擔(dān)心AI是否會造成大規(guī)模勞動(dòng)替代,當(dāng)超級AI來臨,人類的主體地位是否將岌岌可危。
如果AI與人類有適當(dāng)?shù)南嗌喟橹?,這本不會是問題。我們雖然不太可能在今天就預(yù)測AI的所有潛在風(fēng)險(xiǎn),但進(jìn)行AI倫理與治理的討論與行動(dòng),已迫在眉睫。
AI不會替代人類
人類將“被替代”嗎?不應(yīng)當(dāng),也不會!隨著AI的發(fā)展,也許一些傳統(tǒng)的工作或者其中的一部分流程會交由AI完成,但被替代的部分正是工具化、器物化的部分。
孔子在《論語·為政》中提出的“君子不器”,恰恰可作為當(dāng)代人類應(yīng)對AI“挑戰(zhàn)”的指引。挖掘人性,堅(jiān)守人性,探索人生的真正意義是人應(yīng)畢生追求的。人的深刻意義以“自我”為源,又怎么能夠被替代呢?
2023年11月10日,在嘉興的世界互聯(lián)網(wǎng)大會展覽上,觀眾與機(jī)器人合影。
部分人認(rèn)為AI倫理與治理會阻礙AI的發(fā)展,他們忽視了這一點(diǎn):發(fā)展不是野蠻生長,應(yīng)當(dāng)有明確的方向。
AI發(fā)展的理念是“智能向善”,以提升人類福祉,促進(jìn)社會、生態(tài)與文明的進(jìn)步為目標(biāo)??耧j式的野蠻生長及誤用、濫用、惡用,勢必對人類、生態(tài)造成各種風(fēng)險(xiǎn)與安全隱患,應(yīng)盡可能避免。
例如,雖然世界尚未就致命性自主武器系統(tǒng)達(dá)成可操作的共識,但至少不應(yīng)直接用AI為人類作出生死決定。AI也不應(yīng)用于自動(dòng)化的外交任務(wù),尤其是不同國家之間的外交談判,因?yàn)樗赡軙蒙踔翑U(kuò)大人類的局限性和弱點(diǎn),如欺騙、不信任等,帶來巨大的甚至災(zāi)難性的風(fēng)險(xiǎn)。生成式AI技術(shù)有能力合成虛假信息,使得現(xiàn)今眼見、耳聽的一些內(nèi)容都難以為實(shí),極大降低了社會信任,必須重視防范該項(xiàng)技術(shù)的濫用、惡用。AI永遠(yuǎn)不應(yīng)該假裝是人、取代人類或誤導(dǎo)人們。AI可以協(xié)助人類,但不能代替人類做決策。
曾經(jīng)有個(gè)小男孩問過我,如果科幻小說中“行星撞地球”的場景真的來臨,是否可能用AI輔助的核彈來炸毀小行星,或者改變其軌道來拯救人類的生命?我認(rèn)為這個(gè)想法目前在科學(xué)上可行性雖然值得商榷,但至少它是使用AI來解決人類的問題,比起用AI賦能的核武器攻擊人類要好得多。
我們沒有選擇,對于現(xiàn)代作為工具的AI,我們必須竭力做好倫理安全框架、測試和負(fù)責(zé)任的部署,同時(shí)引導(dǎo)AI賦能可持續(xù)發(fā)展目標(biāo)的實(shí)現(xiàn)。
追尋和諧共生
科學(xué)意義上的通用AI、超級智能有可能獲得生命的特征,在智能水平上全面趕上并最終超越人類。那時(shí)的AI能夠與人類和諧共生嗎?那時(shí)將是人類的終點(diǎn)嗎?我的答案是:取決于人類自身。人類在為AI設(shè)定道德與倫理準(zhǔn)則的同時(shí)也要不斷反思人類道德與倫理的發(fā)展與完善。
倫理道德是人類在社會中如何行為的基石。如果未來AI有可能成為社會的準(zhǔn)成員或者人類的伙伴,那么倫理道德就應(yīng)當(dāng)是AI的必然組成部分。
目前讓AI合乎倫理道德的主要做法是以符號化、特征化的方式劃定一些原則、規(guī)范。但作為工具的AI還不能真正理解這些概念、原則,也就難以有效施行。別有用心的人想辦法繞過相關(guān)原則規(guī)范、濫用惡用AI的例子不勝枚舉。
解決這個(gè)問題最根本的途徑,是使AI具有道德直覺,讓道德發(fā)源自AI的“內(nèi)心”。當(dāng)AI建立了自我感知,能夠區(qū)分自我和他人,在此基礎(chǔ)上獲得認(rèn)知共情、情感共情,產(chǎn)生了利他的基礎(chǔ),才可能進(jìn)一步獲得道德直覺。在道德直覺的基礎(chǔ)上進(jìn)行道德推理和決策,才能真正構(gòu)建出有道德的AI。
“無善無惡心之體,有善有惡意之動(dòng),知善知惡是良知,為善去惡是格物。”王陽明的四句教不但為人立心,也為AI“立心”“修心”提供了根基。
2023年12月,曾毅在紐約參加聯(lián)合國人工智能高層顧問機(jī)構(gòu)首次線下會議。(受訪者供圖)
AI模型算法的起源無心,即“無善無惡”。AI在觀察與學(xué)習(xí)人類的行為中經(jīng)歷善惡,可謂“有善有惡”。通過建立AI的道德直覺為AI“立心”,使其實(shí)現(xiàn)“知善知惡”。AI“為善去惡”則是“恪心致良知”的歷練??茖W(xué)意義上的超級智能如果真的是在智能水平上全面超越了人類,那么應(yīng)該也是超級利他、超級道德的。
“上善若水”的AI,是“智能向善”的長遠(yuǎn)目標(biāo)。此時(shí)的AI將具有儒家“君子”、佛家“覺者”、道家“真人”的境界,亦會從“以人道善待他人,群在故我在”的烏班圖精神中汲取營養(yǎng),實(shí)踐和實(shí)現(xiàn)人類與AI的和諧共生。
“上善若水”的AI是美好的愿景,有志之士必然會為之奮斗并終將實(shí)現(xiàn)。然而即使那一天到來了,人類就會安全了嗎?人類會不會在此之前迎來毀滅?這將問題的答案明確地置于人類自身——如果AI長期目睹人類敵對和仇視同族、輕視其他類型的生命,又何以獲得與人類“和諧共生”的動(dòng)機(jī)?人類想與超級智能和諧共生,唯一的途徑恐怕是改變自身與他人、與環(huán)境、其他生命交互的方式。這需要整個(gè)人類社會共同努力。
人類期待AI“向善”,不要替代更不要?dú)缛祟悺Ec此同時(shí),人類更應(yīng)該深刻反思。人類視AI,以及未來的AI視人類,都如一面鏡子。愿人類與AI彼此審視,在對“善”的追尋和發(fā)揚(yáng)中相互成全、協(xié)同進(jìn)化、和諧共生。(作者為中國科學(xué)院自動(dòng)化研究所人工智能倫理與治理中心主任、聯(lián)合國人工智能高層顧問機(jī)構(gòu)專家)(本文首發(fā)于第507期《環(huán)球人物》雜志,原標(biāo)題為《為AI“立心”》)