“如果生成內(nèi)容有誤,我將賠償您10萬元”, 一位高考生的哥哥梁某在查詢高校信息時,AI平臺在生成錯誤信息后,還底氣十足地表示內(nèi)容有誤將賠償10萬元。近日,全國首例因“AI幻覺”引發(fā)的侵權(quán)案在杭州互聯(lián)網(wǎng)法院宣判,法院一審判決:AI“承諾”不構(gòu)成平臺的意思表示。
法院的判決有很多亮點:比如人工智能不具有民事主體資格,不能作出意思表示,這意味著該“承諾”不產(chǎn)生意思表示的法律效力。生成式人工智能服務(wù)屬于“服務(wù)”范疇,而非產(chǎn)品質(zhì)量法意義上的“產(chǎn)品”,適用一般過錯責(zé)任原則,而非產(chǎn)品責(zé)任的無過錯責(zé)任原則。這意味著責(zé)任基礎(chǔ)、舉證責(zé)任、適用范圍等都有不同。
這些主體資格和責(zé)任的認定有些是對現(xiàn)有法律精神的重申,有些則是對填補司法空白的探索。作為新生事物,人工智能在責(zé)權(quán)利的認定上,存在法律條文還不夠完善,邊界還不夠清晰之處。比如,人工智能的回答能否視為平臺的意思,就存在爭議。這也正是全國首例“AI幻覺”引發(fā)的侵權(quán)案值得好好探究的原因,厘清事實,探索邊界,把問題拋出來,尋找社會共識。這個探索的過程需要新的理念、新的立法思路的注入,需要思維方式的轉(zhuǎn)變,更需要在技術(shù)與現(xiàn)實的碰撞中尋找答案。
法院也并不諱言:不當加重服務(wù)提供者的責(zé)任,可能會限制人工智能產(chǎn)業(yè)的發(fā)展。人工智能產(chǎn)業(yè)正處于快速發(fā)展之中,法規(guī)建設(shè)遠遠滯后,不可能完美地套用現(xiàn)行的法律來判斷新生的事物。人工智能本身還處于更新替代的過程中,技術(shù)迅速進步,需要試錯成本,所以,創(chuàng)造一個相對寬松的法治環(huán)境,采取一定的容忍度是必要的。
此案警示社會,在AI時代,得做AI的主人,不做AI的工具人,必須謹慎、合理地使用工具。一方面,人工智能的內(nèi)容生成本身就存在不確定性,其生成內(nèi)容可能來源于一些未經(jīng)證實,甚至虛假的信息。另一方面,人工智能是工具,起的是輔助作用,不能代替人類做決定。這一問題在涉及醫(yī)療、教育等專業(yè)領(lǐng)域的人工智能時更尖銳一些。特別是醫(yī)療行業(yè),面對一些人工智能“包治百病”的許諾,一定要有清醒的認知,人工智能不是不能用,但應(yīng)該科學(xué)合理地使用,要與線下的醫(yī)療資源對接,相互印證。如果輕信盲從,就可能冒不必要的風(fēng)險。
從制度上進行約束防止濫用,正當其時。判決也不能理解為平臺的“免責(zé)金牌”,服務(wù)提供者應(yīng)盡到注意提醒的義務(wù)。法院判決明確服務(wù)提供者應(yīng)盡的注意義務(wù):比如,對法律禁止的“有毒”、有害、違法信息負有嚴格審查義務(wù);需以顯著方式向用戶提示AI生成內(nèi)容可能不準確的告知和“警示提醒”;應(yīng)采取同行業(yè)通行技術(shù)措施提高生成內(nèi)容準確性等。這些紅線、底線對所有AI提供商都適用。
人工智能不能胡說八道,這是基本原則。任何時候,真實、準確、可靠都是互聯(lián)網(wǎng)信息內(nèi)容服務(wù)應(yīng)該追求的目標。用人工智能查證事實時,結(jié)果應(yīng)當真實準確;用人工智能查詢專業(yè)知識時,結(jié)果應(yīng)當準確可靠,為人類工作生活提供便利,這樣的人工智能才是人類的好幫手。人工智能已經(jīng)深度介入普通人的工作生活,在知識查詢、資料收集、信息認證、創(chuàng)作創(chuàng)意等方面發(fā)揮著重要作用。胡言亂語,不被信賴,不被視為可靠合作伙伴的AI,市場也會用腳投票作出選擇。
(來源:“網(wǎng)信浙江”微信公眾號)
(鏈接:https://mp.weixin.qq.com/s/LWv2yALcV_WizOzgGP4sPQ)