算法推薦的“技術(shù)中立”成為了許多平臺(tái)企業(yè)規(guī)避侵權(quán)責(zé)任的抗辯理由,若加放任,不僅可能導(dǎo)致受害者無(wú)法得到應(yīng)有的補(bǔ)償,還有可能導(dǎo)致算法推薦技術(shù)被濫用,不利于行業(yè)的健康有序發(fā)展。
文 | 陳兵 編輯 |朱弢
來(lái)源:財(cái)經(jīng)E法
隨著移動(dòng)互聯(lián)基礎(chǔ)設(shè)施的建設(shè)和移動(dòng)終端設(shè)備的普及,信息通信技術(shù)和數(shù)字?jǐn)?shù)據(jù)技術(shù)的應(yīng)用場(chǎng)景和頻次得到極大豐富和提升,海量的用戶數(shù)據(jù)的生產(chǎn)、流動(dòng)、使用、開(kāi)發(fā)得到極大提速,算法技術(shù)的開(kāi)發(fā)和應(yīng)用得到極大激勵(lì)。以海量數(shù)據(jù)為基礎(chǔ)的算法推薦技術(shù)與網(wǎng)約車(chē)、網(wǎng)絡(luò)購(gòu)物、靈活用工等應(yīng)用場(chǎng)景深度融合,給數(shù)字經(jīng)濟(jì)高質(zhì)量發(fā)展注入強(qiáng)大動(dòng)能。然而,算法推薦服務(wù)的廣泛應(yīng)用也可能引發(fā)算法黑箱、算法歧視、信息繭房等問(wèn)題,對(duì)市場(chǎng)秩序、消費(fèi)者福利以及經(jīng)營(yíng)者權(quán)益產(chǎn)生不利影響。
近期,中國(guó)首例算法推薦案——北京市海淀區(qū)人民法院對(duì)北京愛(ài)奇藝科技有限公司(下稱“愛(ài)奇藝”)訴北京字節(jié)跳動(dòng)科技有限公司(下稱“字節(jié)跳動(dòng)”)侵害《延禧攻略》(下稱“延劇”)信息網(wǎng)絡(luò)傳播權(quán)一案作出判決。
在案中,原告愛(ài)奇藝訴稱,字節(jié)跳動(dòng)未經(jīng)授權(quán),在延劇熱播期間,其運(yùn)營(yíng)的今日頭條App利用信息流推薦技術(shù),將用戶上傳的截取自延劇的短視頻向公眾傳播并推薦。愛(ài)奇藝認(rèn)為,字節(jié)跳動(dòng)在應(yīng)知或明知侵權(quán)內(nèi)容的情況下,未盡到合理注意義務(wù),存在主觀過(guò)錯(cuò),侵害了自己對(duì)延劇享有的信息網(wǎng)絡(luò)傳播權(quán)。
法院經(jīng)審理認(rèn)定,字節(jié)跳動(dòng)具有充分的條件、能力和合理的理由知道其眾多頭條號(hào)用戶大量地實(shí)施了涉案侵權(quán)行為,屬于法律所規(guī)定的應(yīng)當(dāng)知道情形。字節(jié)跳動(dòng)在本案中所采取的相關(guān)措施,尚未達(dá)到“必要”程度。
最終,法院認(rèn)為字節(jié)跳動(dòng)的涉案行為構(gòu)成幫助侵權(quán),并判定其賠償原告愛(ài)奇藝經(jīng)濟(jì)損失150萬(wàn)元及訴訟合理開(kāi)支50萬(wàn)元,共計(jì)200萬(wàn)元。
作為全國(guó)首例算法推薦案,該案引發(fā)了對(duì)提供算法推薦服務(wù)的平臺(tái)應(yīng)承擔(dān)何等注意義務(wù)及責(zé)任的廣泛探討。毋庸置疑,明確算法推薦侵權(quán)責(zé)任,將更有利于算法推薦技術(shù)的合理合法應(yīng)用,同時(shí)也警醒算法推薦服務(wù)提供者,有助于引導(dǎo)有關(guān)行業(yè)和平臺(tái)合規(guī)運(yùn)營(yíng)。
算法推薦侵權(quán)歸責(zé)之困
一般情況下,行為人因過(guò)錯(cuò)侵害他人合法權(quán)益造成損害的,應(yīng)承擔(dān)侵權(quán)責(zé)任。然而,隨著自動(dòng)化算法技術(shù)的廣泛應(yīng)用,平臺(tái)可以在無(wú)需人為干預(yù)的情況下進(jìn)行信息推送、合同簽訂以及信息刪除等行為。若這種自動(dòng)化算法產(chǎn)生的行為導(dǎo)致侵權(quán)損害發(fā)生,將可能面臨法律責(zé)任追究困難的局面,由于算法技術(shù)是中立的,并不存在人為導(dǎo)致的主觀過(guò)錯(cuò),這種困境也被一些學(xué)者稱為“責(zé)任鴻溝”。
所謂“責(zé)任鴻溝”,是算法的設(shè)計(jì)者和運(yùn)營(yíng)者未能預(yù)測(cè)算法自主學(xué)習(xí)及其運(yùn)行產(chǎn)生的后果,人對(duì)機(jī)器的行動(dòng)并沒(méi)有足夠的控制權(quán),因此無(wú)法要求人去承擔(dān)類似傳統(tǒng)的機(jī)器制造者和操作者的過(guò)錯(cuò)責(zé)任。依照傳統(tǒng)的歸責(zé)原則,一個(gè)法律主體只有在其知曉自己的行為及其后果,并且可以自由選擇是否作為的時(shí)候,才應(yīng)該承擔(dān)法律責(zé)任。
“責(zé)任鴻溝”在愛(ài)奇藝訴字節(jié)跳動(dòng)一案中亦有體現(xiàn),字節(jié)公司在辯稱其已盡到合理注意義務(wù)時(shí)提出,涉案信息流推薦技術(shù)不會(huì)識(shí)別視頻的具體內(nèi)容,其無(wú)選擇推薦涉嫌侵權(quán)內(nèi)容的主觀意愿,不存在法律意義上的推薦行為?傮w而言,字節(jié)跳動(dòng)意在主張推送侵權(quán)視頻是算法推薦技術(shù)所為,公司不具有主觀過(guò)錯(cuò)。
由此,算法推薦的“技術(shù)中立”成為許多平臺(tái)企業(yè)規(guī)避侵權(quán)責(zé)任的抗辯理由,若放任其規(guī)避應(yīng)承擔(dān)的相應(yīng)責(zé)任,不僅可能導(dǎo)致受害者無(wú)法得到應(yīng)有的補(bǔ)償,還有可能導(dǎo)致算法推薦技術(shù)被濫用,成為平臺(tái)企業(yè)規(guī)避法律責(zé)任的“擋箭牌”,不利于相關(guān)行業(yè)的健康有序發(fā)展。
那么應(yīng)如何認(rèn)定算法推薦侵權(quán)的法律責(zé)任呢?
算法推薦侵權(quán)的兩種情形
算法推薦侵權(quán)的法律責(zé)任認(rèn)定,應(yīng)當(dāng)結(jié)合個(gè)案具體情形進(jìn)行判斷,此處將區(qū)分幾種情形進(jìn)行分析,明確不同類型的算法推薦侵權(quán)的責(zé)任認(rèn)定、責(zé)任分配以及責(zé)任承擔(dān)方式。
在涉及算法推薦侵權(quán)的案件中,侵權(quán)行為通常可能牽涉三個(gè)主體,包括算法開(kāi)發(fā)者、算法使用者、算法消費(fèi)者。
其中,算法開(kāi)發(fā)者是指開(kāi)發(fā)設(shè)計(jì)算法推薦技術(shù)的主體;算法使用者是指使用算法推薦技術(shù)為用戶提供服務(wù),對(duì)算法的運(yùn)行具有控制力、支配力的主體;算法消費(fèi)者則是在數(shù)字經(jīng)濟(jì)背景下應(yīng)運(yùn)而生的一種新型的消費(fèi)者,是通過(guò)在智能算法接入互聯(lián)網(wǎng)、物聯(lián)網(wǎng)等網(wǎng)絡(luò)空間,并在算法作用下為生活消費(fèi)購(gòu)買(mǎi)商品或接受服務(wù)的消費(fèi)者,其具有身份上的多重性。
詳言之,算法消費(fèi)者相對(duì)于算法使用者而言,具有行為的對(duì)象屬性,是算法使用者所作用的對(duì)象,在算法推薦下展開(kāi)生活消費(fèi)活動(dòng)。同時(shí),算法消費(fèi)者通過(guò)使用算法功能來(lái)完成生活消費(fèi)活動(dòng),在這一過(guò)程,基于人工智能算法的自學(xué)習(xí)能力,消費(fèi)者其實(shí)也參與了算法的開(kāi)發(fā)與完善。換言之,在人工智能算法技術(shù)廣泛適用的情景下,所有參與其中的主體,無(wú)論是開(kāi)發(fā)者、使用者亦或消費(fèi)者,其身份和作用的界限只是相對(duì)的,是一個(gè)動(dòng)態(tài)變化的過(guò)程。故在實(shí)踐中對(duì)算法推薦侵權(quán)責(zé)任的認(rèn)定,須結(jié)合個(gè)案場(chǎng)景予以分析,特別是對(duì)責(zé)任主體的識(shí)別需持開(kāi)放多元的態(tài)度,再根據(jù)算法推薦是否直接導(dǎo)致侵權(quán)行為發(fā)生,以及不同主體在該算法推薦服務(wù)場(chǎng)景下的角色和作用予以責(zé)任劃分。由此,可大抵分為兩類情形予以考察。
第一種情形,算法推薦直接導(dǎo)致侵權(quán)發(fā)生。
在此情形中,損害結(jié)果是算法推薦技術(shù)運(yùn)行造成的,而非人為所致。此時(shí),如何侵權(quán)行為法律責(zé)任進(jìn)行認(rèn)定與分配?
首先,需要考察算法推薦技術(shù)在設(shè)計(jì)上是否存在引發(fā)侵權(quán)損害發(fā)生的因素,并考察這些因素是否源于算法開(kāi)發(fā)者的主觀過(guò)錯(cuò)。即便算法推薦技術(shù)的自動(dòng)化運(yùn)行和深度學(xué)習(xí)過(guò)程無(wú)需人為干預(yù),但需要注意,算法推薦技術(shù)的開(kāi)發(fā)與設(shè)計(jì)中能夠嵌入開(kāi)發(fā)者的主觀意圖,使得算法能夠在無(wú)需人為幫助的情況下,實(shí)現(xiàn)算法開(kāi)發(fā)者想要達(dá)到的特定目的。若算法推薦技術(shù)本身存在導(dǎo)致侵權(quán)損害發(fā)生的因素,譬如,算法推薦技術(shù)在設(shè)計(jì)過(guò)程中加入歧視性的判定條件,導(dǎo)致算法輸出結(jié)果具有明顯的歧視性,則可以推定算法開(kāi)發(fā)者存在主觀過(guò)錯(cuò),此時(shí)開(kāi)發(fā)者應(yīng)當(dāng)對(duì)侵權(quán)損害的發(fā)生負(fù)有一定的法律責(zé)任。
其次,需要考察算法使用者在使用算法推薦技術(shù)過(guò)程的一系列關(guān)聯(lián)行為是否存在侵權(quán)過(guò)錯(cuò)。這里主要聚焦平臺(tái)企業(yè)作為算法使用者的情況,當(dāng)平臺(tái)所使用的算法推薦技術(shù)并不是由其開(kāi)發(fā)設(shè)計(jì)時(shí),平臺(tái)作為使用者而非開(kāi)發(fā)者,也可能會(huì)承擔(dān)法律責(zé)任。原因在于,即便存在算法黑箱,平臺(tái)使用者無(wú)法得知算法可能產(chǎn)生損害后果,其對(duì)算法的運(yùn)行也具有實(shí)際控制力,因此,當(dāng)其在知道或應(yīng)當(dāng)知道算法推薦技術(shù)的運(yùn)行會(huì)導(dǎo)致侵權(quán)行為發(fā)生,仍放任該侵權(quán)算法運(yùn)行時(shí),同樣需要承擔(dān)相應(yīng)的法律責(zé)任。
在此類情形中,一般不涉及算法消費(fèi)者的法律責(zé)任,因?yàn)樗惴ㄏM(fèi)者僅是接受算法推薦服務(wù)的對(duì)象,對(duì)算法推薦技術(shù)無(wú)直接控制力。當(dāng)然,由于在動(dòng)態(tài)變化的算法互動(dòng)場(chǎng)景中,無(wú)論是開(kāi)發(fā)者、使用者亦或消費(fèi)者的身份皆可能發(fā)生變化。因此,在一些情形中,算法消費(fèi)者的身份也可能發(fā)生轉(zhuǎn)化而需要擔(dān)責(zé)。譬如,用戶主動(dòng)上傳內(nèi)容或主動(dòng)關(guān)閉個(gè)性化推薦,都會(huì)對(duì)算法推薦的精準(zhǔn)性產(chǎn)生影響,此時(shí)算法消費(fèi)者與算法使用者的身份發(fā)生交融,成為算法推薦行為的共同實(shí)施者,由此可能需要對(duì)相應(yīng)的行為效果承擔(dān)責(zé)任。
簡(jiǎn)單來(lái)說(shuō),當(dāng)算法作為一種商品出售或免費(fèi)供算法消費(fèi)者使用時(shí),如果算法消費(fèi)者擁有算法的直接控制權(quán),能夠基于其主觀意志決定算法的運(yùn)行與停止,為算法設(shè)定運(yùn)行目標(biāo),其身份將會(huì)轉(zhuǎn)化為算法使用者,當(dāng)其使用和消費(fèi)算法的行為直接導(dǎo)致侵權(quán)損害發(fā)生時(shí),同樣需要承擔(dān)一定的法律責(zé)任。
再如,一些具有識(shí)別能力與編輯能力的算法消費(fèi)者獲得的是開(kāi)源算法,當(dāng)其在原算法基礎(chǔ)上進(jìn)行編輯時(shí),可能會(huì)改變算法的原有運(yùn)行邏輯和用途,此時(shí)算法消費(fèi)者會(huì)轉(zhuǎn)變?yōu)樗惴ㄩ_(kāi)發(fā)者,若侵權(quán)行為的發(fā)生與其編輯行為有關(guān),則需要承擔(dān)法律責(zé)任。
此外,還需要注意的是,人工智能算法的自學(xué)習(xí)能力,會(huì)基于算法消費(fèi)者的行為或者上傳的數(shù)據(jù)不斷調(diào)整和優(yōu)化算法,此時(shí),算法消費(fèi)者其實(shí)也在參與算法的開(kāi)發(fā),可視為輔助開(kāi)發(fā)者。然而,此時(shí)的消費(fèi)者與真正的算法開(kāi)發(fā)者并不能劃等號(hào),前者是被動(dòng)地參與算法的開(kāi)發(fā),無(wú)法真正參與算法的編輯過(guò)程,由此形成的算法并不包含消費(fèi)者的主觀意圖。因此,即便算法因自動(dòng)化學(xué)習(xí)導(dǎo)致侵權(quán)行為發(fā)生,這些被動(dòng)的算法開(kāi)發(fā)者并不存在主觀過(guò)錯(cuò),因而無(wú)需承擔(dān)與真正的算法開(kāi)發(fā)者相同的法律責(zé)任。但是,如果算法消費(fèi)者存在主觀故意的上傳虛假信息,甚至存在利用算法獲取不正當(dāng)利益,將算法消費(fèi)行為演化為妨礙、破壞算法的行為時(shí),則應(yīng)承擔(dān)相應(yīng)的侵權(quán)責(zé)任,嚴(yán)重者可能面臨刑事責(zé)任。
對(duì)于侵權(quán)責(zé)任的分配,則需要考察對(duì)侵權(quán)發(fā)生存在主觀過(guò)錯(cuò)的主體數(shù)量,若侵權(quán)行為僅由一方主體所致,且該主體具有主觀過(guò)錯(cuò),則由其承擔(dān)全部的法律責(zé)任;若侵權(quán)行為由兩個(gè)或者兩個(gè)以上的主體所致,當(dāng)這些主體存在共同故意或者過(guò)失時(shí),或者雖無(wú)共同故意、共同過(guò)失,但其侵害行為直接結(jié)合發(fā)生同一損害后果的,構(gòu)成共同侵權(quán),則需由這些主體承擔(dān)連帶責(zé)任。若兩個(gè)或兩個(gè)以上的主體沒(méi)有共同故意或者過(guò)失,但其分別實(shí)施的數(shù)個(gè)行為間接結(jié)合發(fā)生同一損害后果的,應(yīng)根據(jù)過(guò)失大小或者原因力比例,各自承擔(dān)相應(yīng)的法律責(zé)任。
第二種情形,算法推薦間接致使侵權(quán)發(fā)生。
在此類情形下,算法推薦技術(shù)和服務(wù)并非導(dǎo)致侵權(quán)損失的直接原因,僅起到間接作用。前述愛(ài)奇藝訴字節(jié)一案則屬于此類案件,字節(jié)跳動(dòng)所采用的信息流推薦技術(shù),僅起到了向用戶精準(zhǔn)、高效推薦的作用,其本質(zhì)上是該公司向用戶提供網(wǎng)絡(luò)服務(wù)的輔助工具,不會(huì)直接導(dǎo)致侵權(quán)損失的發(fā)生,只會(huì)導(dǎo)致侵權(quán)結(jié)果進(jìn)一步擴(kuò)大。
與第一類情形類似,在第二類情形中同樣需要對(duì)算法的開(kāi)發(fā)者、使用者以及消費(fèi)者的法律責(zé)任進(jìn)行區(qū)分認(rèn)定。與第一類情形不同的是,第二類情形中的侵權(quán)損失主要是由人為所致。以愛(ài)奇藝訴字節(jié)跳動(dòng)為例,作為發(fā)布涉案侵權(quán)短視頻的消費(fèi)者,其在明知或應(yīng)知愛(ài)奇藝擁有該作品獨(dú)家版權(quán)的情況下,發(fā)布涉案侵權(quán)視頻,具有一定的主觀過(guò)錯(cuò),侵害了愛(ài)奇藝的作品信息網(wǎng)絡(luò)傳播權(quán)。
值得注意的是,該案中字節(jié)跳動(dòng)所使用的算法是協(xié)同過(guò)濾推薦算法,這一算法的核心思路是用戶喜好相似,則點(diǎn)擊行為也接近。通過(guò)內(nèi)容推薦收集到一定的用戶點(diǎn)擊量后,就會(huì)進(jìn)行協(xié)同過(guò)濾推薦。協(xié)同過(guò)濾推薦技術(shù)不識(shí)別視頻的內(nèi)容,主要基于用戶的點(diǎn)擊進(jìn)行計(jì)算和推薦。這意味著,瀏覽和搜索涉案侵權(quán)視頻的算法消費(fèi)者,實(shí)際上也參與到了算法的使用過(guò)程中,同時(shí)具備算法使用者的身份。
然而,算法使用者的身份并不當(dāng)然導(dǎo)致這些消費(fèi)者承擔(dān)法律責(zé)任,因?yàn)樗麄兊哪康膬H為瀏覽而非傳播涉案侵權(quán)視頻,且其被動(dòng)參與算法使用過(guò)程,協(xié)同過(guò)濾算法推薦特定涉案視頻并不屬于這些算法消費(fèi)者(使用者)的主觀意愿,僅是源于協(xié)同過(guò)濾推薦算法原有設(shè)計(jì)者的初衷。故此,這些兼具算法使用者身份的消費(fèi)者無(wú)需承擔(dān)法律責(zé)任,最終導(dǎo)致侵權(quán)內(nèi)容加速傳播、侵權(quán)范圍不斷擴(kuò)大、侵權(quán)后果加重的責(zé)任仍要追溯到作為控制、支配算法運(yùn)行、憑借算法推薦獲益的算法使用者上。
概言之,雖然該案中算法消費(fèi)者和使用者對(duì)侵權(quán)損失的發(fā)生、擴(kuò)大、加重共同發(fā)揮了作用,但是由于兩者在主觀意圖、過(guò)錯(cuò),應(yīng)負(fù)有的相關(guān)義務(wù),以及對(duì)算法推薦的實(shí)際控制及行為效果的獲益等方面均有不同,即對(duì)侵權(quán)損失的形成、原因及效果比例上不盡相同,故在責(zé)任認(rèn)定、分配及承擔(dān)上亦應(yīng)不同。但值得注意的是,未來(lái)對(duì)算法消費(fèi)者的相應(yīng)責(zé)任應(yīng)予關(guān)注。
一般情況下,網(wǎng)絡(luò)服務(wù)提供者對(duì)用戶個(gè)體的侵權(quán)行為適用“通知-刪除”規(guī)則,因?yàn)楫?dāng)用戶上傳侵權(quán)內(nèi)容后,網(wǎng)絡(luò)服務(wù)提供者只是基于構(gòu)建網(wǎng)絡(luò)環(huán)境的需要,被動(dòng)地為網(wǎng)絡(luò)用戶提供信息接入、存儲(chǔ)、定位等技術(shù)性服務(wù),并不主動(dòng)介入網(wǎng)絡(luò)用戶所提供信息的內(nèi)容,故“通知-刪除”規(guī)則已然能夠阻止個(gè)體侵權(quán)信息的傳播。
然而,在愛(ài)奇藝訴字節(jié)一案中,平臺(tái)在侵權(quán)過(guò)程中獲得了巨大流量收益和競(jìng)爭(zhēng)優(yōu)勢(shì),即取得競(jìng)爭(zhēng)優(yōu)勢(shì)與流量、經(jīng)濟(jì)利益與引發(fā)更大侵權(quán)風(fēng)險(xiǎn)并存,故從比例原則來(lái)看,理應(yīng)承擔(dān)更高的注意義務(wù),采取更加有效的措施來(lái)阻止侵權(quán)行為發(fā)生,若僅要求其承擔(dān)“通知-刪除”義務(wù),并不能達(dá)到有效制止、預(yù)防侵權(quán)行為發(fā)生的實(shí)質(zhì)效果。
“技術(shù)中立”不再是“避風(fēng)港”
愛(ài)奇藝訴字節(jié)跳動(dòng)一案作為中國(guó)算法推薦侵權(quán)第一案,不僅為將來(lái)隨著算法推薦技術(shù)廣泛應(yīng)用而增多的算法推薦侵權(quán)案件提供指引,也為算法推薦服務(wù)行業(yè)作出了警示,“技術(shù)中立”已難以為算法推薦服務(wù)提供者提供“避風(fēng)港”,其須承擔(dān)更多的注意義務(wù),以規(guī)避法律風(fēng)險(xiǎn)。
2022年1月4日,國(guó)家網(wǎng)信辦等四部門(mén)聯(lián)合發(fā)布《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(下稱《規(guī)定》)進(jìn)一步細(xì)化了算法推薦服務(wù)者的義務(wù),旨在規(guī)范互聯(lián)網(wǎng)信息服務(wù)算法推薦活動(dòng),維護(hù)國(guó)家安全和社會(huì)公共利益,保護(hù)公民、法人和其他組織的合法權(quán)益,促進(jìn)互聯(lián)網(wǎng)信息服務(wù)健康發(fā)展!兑(guī)定》已于2022年3月1日起施行。
《規(guī)定》明確要求,算法推薦服務(wù)提供者應(yīng)當(dāng)加強(qiáng)信息安全管理,建立健全用于識(shí)別違法和不良信息的特征庫(kù),完善入庫(kù)標(biāo)準(zhǔn)、規(guī)則和程序。發(fā)現(xiàn)未作顯著標(biāo)識(shí)的算法生成合成信息的,應(yīng)當(dāng)作出顯著標(biāo)識(shí)后,方可繼續(xù)傳輸。發(fā)現(xiàn)違法信息的,應(yīng)當(dāng)立即停止傳輸,采取消除等處置措施,防止信息擴(kuò)散,保存有關(guān)記錄,并向網(wǎng)信部門(mén)和有關(guān)部門(mén)報(bào)告。
可見(jiàn),與提供單純的信息存儲(chǔ)服務(wù)相比,算法推薦服務(wù)提供者或者說(shuō)算法使用者具有更高的注意義務(wù),故其不能再單純依賴“避風(fēng)港”原則,即認(rèn)為收到侵權(quán)通知再采取必要措施即可免責(zé)。同時(shí),在是否采取注意義務(wù)和合理措施的甄別上,不能以采取了刪除、斷開(kāi)鏈接措施為由,抗辯其對(duì)侵權(quán)行為已經(jīng)盡到了合理的注意義務(wù)。這就對(duì)作為算法推薦服務(wù)提供者或使用者的平臺(tái)企業(yè)提出了更高的責(zé)任承擔(dān)、義務(wù)履行,以及風(fēng)險(xiǎn)防范要求。
鑒于此,作為算法使用的主要主體和推薦服務(wù)的主要提供者,平臺(tái)企業(yè)應(yīng)不斷提升算法推薦合規(guī)水平和合規(guī)能力,嚴(yán)格遵守《規(guī)定》所明確的義務(wù),建立事前審查和實(shí)時(shí)完善多場(chǎng)景合規(guī)的立體、動(dòng)態(tài)的規(guī)則體系,加強(qiáng)算法推薦服務(wù)版面頁(yè)面生態(tài)管理,建立完善人工干預(yù)和用戶自主選擇機(jī)制,尤其是對(duì)于在首頁(yè)首屏、熱搜、精選、榜單類、彈窗等重點(diǎn)環(huán)節(jié)應(yīng)當(dāng)重點(diǎn)把關(guān),避免侵權(quán)行為影響進(jìn)一步擴(kuò)大化。同時(shí),也需加大對(duì)自動(dòng)識(shí)別違法侵權(quán)內(nèi)容的算法識(shí)別技術(shù)的研發(fā)。
總體而言,平臺(tái)企業(yè)在享受算法技術(shù)為企業(yè)帶來(lái)巨大紅利的同時(shí),也需承擔(dān)相應(yīng)的義務(wù)與責(zé)任,提升防范算法侵權(quán)風(fēng)險(xiǎn)的技術(shù)水平和治理能力。
作者為南開(kāi)大學(xué)競(jìng)爭(zhēng)法研究中心主任、法學(xué)院教授,中國(guó)新一代人工智能發(fā)展戰(zhàn)略研究院特約研究員