新質(zhì)策源導(dǎo)刊丨鄭玉雙:法律如何回應(yīng)AI智能體治理挑戰(zhàn)?

人類如何與AI智能體共處

編者按

新質(zhì)策源導(dǎo)刊的第二期,我們聚焦AI智能體(AI Agent),不僅僅因?yàn)樗?dāng)下的熱度,更因?yàn)槲覀兛吹搅怂鼘ξ磥淼挠绊?strong>法律。我們深度訪談行業(yè)頂級專家、資深研究人員、國內(nèi)外知名企業(yè),盡力描繪當(dāng)下AI時(shí)代的真實(shí)圖景,展望未來的各種可能性,在不確定性中尋找確定性。

這個(gè)領(lǐng)域創(chuàng)新不斷,猶如科幻即將照入現(xiàn)實(shí)法律。我們想知道的不只是近在咫尺的明天會(huì)怎樣,更想知道今天我們做的一切,會(huì)對不遠(yuǎn)的未來產(chǎn)生什么樣的影響,誠邀您和我們一起,探索新AI時(shí)代。敬請關(guān)注本期策劃——“人類如何與AI智能體共處”。

新質(zhì)策源導(dǎo)刊丨鄭玉雙:法律如何回應(yīng)AI智能體治理挑戰(zhàn)?

——訪中國政法大學(xué)法學(xué)院教授、中國法學(xué)會(huì)法理學(xué)研究會(huì)理事鄭玉雙

■中國經(jīng)濟(jì)時(shí)報(bào)見習(xí)記者 姚俊臣

作為人工智能(AI)技術(shù)迭代的最新產(chǎn)物,AI智能體正實(shí)現(xiàn)從理解能力向行動(dòng)能力的關(guān)鍵突破法律。這一突破也帶來了深刻的治理挑戰(zhàn):如何理解AI智能體的主體性?如何界定其法律責(zé)任?如何優(yōu)化治理能力?中國經(jīng)濟(jì)時(shí)報(bào)記者日前就上述問題專訪了中國政法大學(xué)法學(xué)院教授、中國法學(xué)會(huì)法理學(xué)研究會(huì)理事鄭玉雙。

AI智能體引發(fā)主體性的躍升

中國經(jīng)濟(jì)時(shí)報(bào):從目前來看法律,您認(rèn)為AI智能體是否具有主體性?

鄭玉雙:這是一個(gè)比較難的問題,關(guān)鍵在于我們?nèi)绾卫斫狻爸黧w性”法律。在哲學(xué)意義上,主體性通常以“人”為參考,具有理性判斷、自主決策與獨(dú)立意志等特征。無論是生成式人工智能還是AI智能體,雖然在技術(shù)層面已經(jīng)具備了一定程度的理解、決策和執(zhí)行能力,但從法律層面來說,還是很難將其認(rèn)定為真正的權(quán)利主體。

不過,AI確實(shí)引發(fā)了主體性的躍升法律。在AI出現(xiàn)之前,人類之外并不存在真正意義上的智能主體。但隨著算法能力和算力規(guī)模的提升,AI智能體也呈現(xiàn)出類似主體的功能和外觀,不能僅僅視為簡單的“工具”,否則可能會(huì)低估其在現(xiàn)實(shí)場景中產(chǎn)生的復(fù)雜影響。

展開全文

尤其是在責(zé)任分配的問題上,AI智能體的決策鏈條往往涉及算法開發(fā)者、系統(tǒng)部署者、數(shù)據(jù)提供方以及實(shí)際使用者等多方主體,其運(yùn)行結(jié)果又可能在一定程度上脫離具體個(gè)人的直接控制法律。在這種情況下,傳統(tǒng)以“工具使用者”為核心的責(zé)任框架,是很難完全覆蓋新的風(fēng)險(xiǎn)結(jié)構(gòu)的。

新質(zhì)策源導(dǎo)刊丨鄭玉雙:法律如何回應(yīng)AI智能體治理挑戰(zhàn)?

圖片來源/新華社

現(xiàn)有法律框架對于AI智能體還相對滯后

中國經(jīng)濟(jì)時(shí)報(bào):從法律層面來說法律,不同類型的AI智能體是不是也有不同的主體責(zé)任?

鄭玉雙:從當(dāng)前的技術(shù)實(shí)踐來看,AI智能體確實(shí)出現(xiàn)了分化的趨勢,既有以移動(dòng)端應(yīng)用為代表的“軟件型智能體”,如嵌入手機(jī)或各類智能設(shè)備的應(yīng)用程序,也有與實(shí)體設(shè)備深度結(jié)合的“硬件型智能體”,如各類醫(yī)療機(jī)器人、養(yǎng)老機(jī)器人以及工業(yè)場景中的自動(dòng)化系統(tǒng)等法律。

在法律適用上,這兩者也存在明顯差異法律??傮w而言,現(xiàn)有法律制度仍將人工智能及各類AI智能體納入“產(chǎn)品”范疇,主要適用產(chǎn)品責(zé)任相關(guān)規(guī)定。這一框架雖然可以在一定程度上覆蓋軟件類智能體的部分風(fēng)險(xiǎn)分配問題,但對于具備實(shí)體行動(dòng)能力的智能體,責(zé)任究竟應(yīng)由生產(chǎn)者、算法提供者、系統(tǒng)運(yùn)營者還是使用者承擔(dān),現(xiàn)有法律仍然在不斷完善之中,存在一定的滯后性。

一般來說,法律責(zé)任涉及兩個(gè)層面:一是民事責(zé)任,主要與產(chǎn)品緊密相關(guān);二是刑事責(zé)任,主要是在AI智能體造成嚴(yán)重危害時(shí)如何認(rèn)定責(zé)任主體并確定刑責(zé)法律。但是目前民事責(zé)任和刑事責(zé)任的認(rèn)定都還相對傳統(tǒng),也就是說針對AI智能體,尤其是可以在一定程度上脫離人類控制的AI智能體,還缺乏明確的法律依據(jù)。

在鼓勵(lì)創(chuàng)新的同時(shí)要?jiǎng)討B(tài)治理

中國經(jīng)濟(jì)時(shí)報(bào):當(dāng)前法律,法律相對滯后這個(gè)問題應(yīng)該如何解決?

鄭玉雙:在我看來,人工智能治理面臨的法律滯后性,并不是簡單的制度失靈法律。新技術(shù)發(fā)展具有高度的不確定性和多樣性,立法程序很難在前期就對所有可能情形作出詳細(xì)的規(guī)定。而且,如果在技術(shù)沒有成熟的時(shí)候就進(jìn)行過度前瞻性的立法,反而可能導(dǎo)致規(guī)范失準(zhǔn),甚至抑制創(chuàng)新活力,破壞法律制度的穩(wěn)定性。

因此,更行之有效的方式還是在發(fā)展中治理,在應(yīng)用中完善,在鼓勵(lì)創(chuàng)新的同時(shí)要?jiǎng)討B(tài)治理法律。一方面,在問題出現(xiàn)時(shí)及時(shí)回應(yīng),進(jìn)行制度性的修正;另一方面,可以更多地運(yùn)用“多元參與、多元治理”的軟法機(jī)制,通過部門協(xié)同以及政產(chǎn)學(xué)研之間的有效溝通,形成更加靈活的治理結(jié)構(gòu)。

必須確立不可突破的治理底線

中國經(jīng)濟(jì)時(shí)報(bào):AI智能體治理的底線應(yīng)該如何確定法律?

鄭玉雙:人類社會(huì)發(fā)展至今,技術(shù)不斷取得突破法律。我們從技術(shù)中受益,也不能讓技術(shù)失控。因此,必須確立不可突破的底線,這個(gè)底線一般來說是“倫理的底線”。這可以從廣義和狹義兩個(gè)方面加以理解。

從廣義來看,技術(shù)不能對人類的整體安全構(gòu)成威脅,也不能突破人類社會(huì)的基本秩序,這是一種生存性、價(jià)值性的底線,就是要維護(hù)人的主體地位法律。從狹義來看,主要是一些與AI智能體的技術(shù)特性緊密相關(guān)的問題。一是AI智能體的運(yùn)行高度依賴數(shù)據(jù)支撐,要?jiǎng)澏〝?shù)據(jù)收集和處理的邊界,保障數(shù)據(jù)被合法、正當(dāng)、必要地使用;二是AI智能體的運(yùn)算過程具有不可控和不透明的特征,要盡可能實(shí)現(xiàn)決策過程的透明、可控。

新質(zhì)策源導(dǎo)刊丨鄭玉雙:法律如何回應(yīng)AI智能體治理挑戰(zhàn)?

總 監(jiān) 制 丨王列軍 車海剛

監(jiān) 制 丨陳 波 王 彧 楊玉洋

主 編丨毛晶慧 編 輯丨蔣 帥

本站內(nèi)容來自用戶投稿,如果侵犯了您的權(quán)利,請與我們聯(lián)系刪除。聯(lián)系郵箱:[email protected]

本文鏈接://m.cqlhyz.com/tags-%E7%A6%81%E6%AD%A2%E6%80%A7.html

?? /
欧美亚洲日韩国产综合每日更新,国产美女一级A作爱在线观看,亚洲欧洲国产1区二区,国产高清无码精油按摩