穿透技術(shù)面紗,算法推薦侵權(quán)到底誰該擔責?

算法推薦的“技術(shù)中立”成為了許多平臺企業(yè)規(guī)避侵權(quán)責任的抗辯理由,若加放任,不僅可能導致受害者無法得到應有的補償,還有可能導致算法推薦技術(shù)被濫用,不利于行業(yè)的健康有序發(fā)展。

文 | 陳兵 編輯 |朱弢

來源:財經(jīng)E法

隨著移動互聯(lián)基礎設施的建設和移動終端設備的普及,信息通信技術(shù)和數(shù)字數(shù)據(jù)技術(shù)的應用場景和頻次得到極大豐富和提升,海量的用戶數(shù)據(jù)的生產(chǎn)、流動、使用、開發(fā)得到極大提速,算法技術(shù)的開發(fā)和應用得到極大激勵。以海量數(shù)據(jù)為基礎的算法推薦技術(shù)與網(wǎng)約車、網(wǎng)絡購物、靈活用工等應用場景深度融合,給數(shù)字經(jīng)濟高質(zhì)量發(fā)展注入強大動能。然而,算法推薦服務的廣泛應用也可能引發(fā)算法黑箱、算法歧視、信息繭房等問題,對市場秩序、消費者福利以及經(jīng)營者權(quán)益產(chǎn)生不利影響。

近期,中國首例算法推薦案——北京市海淀區(qū)人民法院對北京愛奇藝科技有限公司(下稱“愛奇藝”)訴北京字節(jié)跳動科技有限公司(下稱“字節(jié)跳動”)侵害《延禧攻略》(下稱“延劇”)信息網(wǎng)絡傳播權(quán)一案作出判決。

在案中,原告愛奇藝訴稱,字節(jié)跳動未經(jīng)授權(quán),在延劇熱播期間,其運營的今日頭條App利用信息流推薦技術(shù),將用戶上傳的截取自延劇的短視頻向公眾傳播并推薦。愛奇藝認為,字節(jié)跳動在應知或明知侵權(quán)內(nèi)容的情況下,未盡到合理注意義務,存在主觀過錯,侵害了自己對延劇享有的信息網(wǎng)絡傳播權(quán)。

法院經(jīng)審理認定,字節(jié)跳動具有充分的條件、能力和合理的理由知道其眾多頭條號用戶大量地實施了涉案侵權(quán)行為,屬于法律所規(guī)定的應當知道情形。字節(jié)跳動在本案中所采取的相關措施,尚未達到“必要”程度。

最終,法院認為字節(jié)跳動的涉案行為構(gòu)成幫助侵權(quán),并判定其賠償原告愛奇藝經(jīng)濟損失150萬元及訴訟合理開支50萬元,共計200萬元。

作為全國首例算法推薦案,該案引發(fā)了對提供算法推薦服務的平臺應承擔何等注意義務及責任的廣泛探討。毋庸置疑,明確算法推薦侵權(quán)責任,將更有利于算法推薦技術(shù)的合理合法應用,同時也警醒算法推薦服務提供者,有助于引導有關行業(yè)和平臺合規(guī)運營。

算法推薦侵權(quán)歸責之困

一般情況下,行為人因過錯侵害他人合法權(quán)益造成損害的,應承擔侵權(quán)責任。然而,隨著自動化算法技術(shù)的廣泛應用,平臺可以在無需人為干預的情況下進行信息推送、合同簽訂以及信息刪除等行為。若這種自動化算法產(chǎn)生的行為導致侵權(quán)損害發(fā)生,將可能面臨法律責任追究困難的局面,由于算法技術(shù)是中立的,并不存在人為導致的主觀過錯,這種困境也被一些學者稱為“責任鴻溝”。

所謂“責任鴻溝”,是算法的設計者和運營者未能預測算法自主學習及其運行產(chǎn)生的后果,人對機器的行動并沒有足夠的控制權(quán),因此無法要求人去承擔類似傳統(tǒng)的機器制造者和操作者的過錯責任。依照傳統(tǒng)的歸責原則,一個法律主體只有在其知曉自己的行為及其后果,并且可以自由選擇是否作為的時候,才應該承擔法律責任。

“責任鴻溝”在愛奇藝訴字節(jié)跳動一案中亦有體現(xiàn),字節(jié)公司在辯稱其已盡到合理注意義務時提出,涉案信息流推薦技術(shù)不會識別視頻的具體內(nèi)容,其無選擇推薦涉嫌侵權(quán)內(nèi)容的主觀意愿,不存在法律意義上的推薦行為?傮w而言,字節(jié)跳動意在主張推送侵權(quán)視頻是算法推薦技術(shù)所為,公司不具有主觀過錯。

由此,算法推薦的“技術(shù)中立”成為許多平臺企業(yè)規(guī)避侵權(quán)責任的抗辯理由,若放任其規(guī)避應承擔的相應責任,不僅可能導致受害者無法得到應有的補償,還有可能導致算法推薦技術(shù)被濫用,成為平臺企業(yè)規(guī)避法律責任的“擋箭牌”,不利于相關行業(yè)的健康有序發(fā)展。

那么應如何認定算法推薦侵權(quán)的法律責任呢?

算法推薦侵權(quán)的兩種情形

算法推薦侵權(quán)的法律責任認定,應當結(jié)合個案具體情形進行判斷,此處將區(qū)分幾種情形進行分析,明確不同類型的算法推薦侵權(quán)的責任認定、責任分配以及責任承擔方式。

在涉及算法推薦侵權(quán)的案件中,侵權(quán)行為通?赡軤可嫒齻主體,包括算法開發(fā)者、算法使用者、算法消費者。

其中,算法開發(fā)者是指開發(fā)設計算法推薦技術(shù)的主體;算法使用者是指使用算法推薦技術(shù)為用戶提供服務,對算法的運行具有控制力、支配力的主體;算法消費者則是在數(shù)字經(jīng)濟背景下應運而生的一種新型的消費者,是通過在智能算法接入互聯(lián)網(wǎng)、物聯(lián)網(wǎng)等網(wǎng)絡空間,并在算法作用下為生活消費購買商品或接受服務的消費者,其具有身份上的多重性。

詳言之,算法消費者相對于算法使用者而言,具有行為的對象屬性,是算法使用者所作用的對象,在算法推薦下展開生活消費活動。同時,算法消費者通過使用算法功能來完成生活消費活動,在這一過程,基于人工智能算法的自學習能力,消費者其實也參與了算法的開發(fā)與完善。換言之,在人工智能算法技術(shù)廣泛適用的情景下,所有參與其中的主體,無論是開發(fā)者、使用者亦或消費者,其身份和作用的界限只是相對的,是一個動態(tài)變化的過程。故在實踐中對算法推薦侵權(quán)責任的認定,須結(jié)合個案場景予以分析,特別是對責任主體的識別需持開放多元的態(tài)度,再根據(jù)算法推薦是否直接導致侵權(quán)行為發(fā)生,以及不同主體在該算法推薦服務場景下的角色和作用予以責任劃分。由此,可大抵分為兩類情形予以考察。

第一種情形,算法推薦直接導致侵權(quán)發(fā)生。

在此情形中,損害結(jié)果是算法推薦技術(shù)運行造成的,而非人為所致。此時,如何侵權(quán)行為法律責任進行認定與分配?

首先,需要考察算法推薦技術(shù)在設計上是否存在引發(fā)侵權(quán)損害發(fā)生的因素,并考察這些因素是否源于算法開發(fā)者的主觀過錯。即便算法推薦技術(shù)的自動化運行和深度學習過程無需人為干預,但需要注意,算法推薦技術(shù)的開發(fā)與設計中能夠嵌入開發(fā)者的主觀意圖,使得算法能夠在無需人為幫助的情況下,實現(xiàn)算法開發(fā)者想要達到的特定目的。若算法推薦技術(shù)本身存在導致侵權(quán)損害發(fā)生的因素,譬如,算法推薦技術(shù)在設計過程中加入歧視性的判定條件,導致算法輸出結(jié)果具有明顯的歧視性,則可以推定算法開發(fā)者存在主觀過錯,此時開發(fā)者應當對侵權(quán)損害的發(fā)生負有一定的法律責任。

其次,需要考察算法使用者在使用算法推薦技術(shù)過程的一系列關聯(lián)行為是否存在侵權(quán)過錯。這里主要聚焦平臺企業(yè)作為算法使用者的情況,當平臺所使用的算法推薦技術(shù)并不是由其開發(fā)設計時,平臺作為使用者而非開發(fā)者,也可能會承擔法律責任。原因在于,即便存在算法黑箱,平臺使用者無法得知算法可能產(chǎn)生損害后果,其對算法的運行也具有實際控制力,因此,當其在知道或應當知道算法推薦技術(shù)的運行會導致侵權(quán)行為發(fā)生,仍放任該侵權(quán)算法運行時,同樣需要承擔相應的法律責任。

在此類情形中,一般不涉及算法消費者的法律責任,因為算法消費者僅是接受算法推薦服務的對象,對算法推薦技術(shù)無直接控制力。當然,由于在動態(tài)變化的算法互動場景中,無論是開發(fā)者、使用者亦或消費者的身份皆可能發(fā)生變化。因此,在一些情形中,算法消費者的身份也可能發(fā)生轉(zhuǎn)化而需要擔責。譬如,用戶主動上傳內(nèi)容或主動關閉個性化推薦,都會對算法推薦的精準性產(chǎn)生影響,此時算法消費者與算法使用者的身份發(fā)生交融,成為算法推薦行為的共同實施者,由此可能需要對相應的行為效果承擔責任。

簡單來說,當算法作為一種商品出售或免費供算法消費者使用時,如果算法消費者擁有算法的直接控制權(quán),能夠基于其主觀意志決定算法的運行與停止,為算法設定運行目標,其身份將會轉(zhuǎn)化為算法使用者,當其使用和消費算法的行為直接導致侵權(quán)損害發(fā)生時,同樣需要承擔一定的法律責任。

再如,一些具有識別能力與編輯能力的算法消費者獲得的是開源算法,當其在原算法基礎上進行編輯時,可能會改變算法的原有運行邏輯和用途,此時算法消費者會轉(zhuǎn)變?yōu)樗惴ㄩ_發(fā)者,若侵權(quán)行為的發(fā)生與其編輯行為有關,則需要承擔法律責任。

此外,還需要注意的是,人工智能算法的自學習能力,會基于算法消費者的行為或者上傳的數(shù)據(jù)不斷調(diào)整和優(yōu)化算法,此時,算法消費者其實也在參與算法的開發(fā),可視為輔助開發(fā)者。然而,此時的消費者與真正的算法開發(fā)者并不能劃等號,前者是被動地參與算法的開發(fā),無法真正參與算法的編輯過程,由此形成的算法并不包含消費者的主觀意圖。因此,即便算法因自動化學習導致侵權(quán)行為發(fā)生,這些被動的算法開發(fā)者并不存在主觀過錯,因而無需承擔與真正的算法開發(fā)者相同的法律責任。但是,如果算法消費者存在主觀故意的上傳虛假信息,甚至存在利用算法獲取不正當利益,將算法消費行為演化為妨礙、破壞算法的行為時,則應承擔相應的侵權(quán)責任,嚴重者可能面臨刑事責任。

對于侵權(quán)責任的分配,則需要考察對侵權(quán)發(fā)生存在主觀過錯的主體數(shù)量,若侵權(quán)行為僅由一方主體所致,且該主體具有主觀過錯,則由其承擔全部的法律責任;若侵權(quán)行為由兩個或者兩個以上的主體所致,當這些主體存在共同故意或者過失時,或者雖無共同故意、共同過失,但其侵害行為直接結(jié)合發(fā)生同一損害后果的,構(gòu)成共同侵權(quán),則需由這些主體承擔連帶責任。若兩個或兩個以上的主體沒有共同故意或者過失,但其分別實施的數(shù)個行為間接結(jié)合發(fā)生同一損害后果的,應根據(jù)過失大小或者原因力比例,各自承擔相應的法律責任。

第二種情形,算法推薦間接致使侵權(quán)發(fā)生。

在此類情形下,算法推薦技術(shù)和服務并非導致侵權(quán)損失的直接原因,僅起到間接作用。前述愛奇藝訴字節(jié)一案則屬于此類案件,字節(jié)跳動所采用的信息流推薦技術(shù),僅起到了向用戶精準、高效推薦的作用,其本質(zhì)上是該公司向用戶提供網(wǎng)絡服務的輔助工具,不會直接導致侵權(quán)損失的發(fā)生,只會導致侵權(quán)結(jié)果進一步擴大。

與第一類情形類似,在第二類情形中同樣需要對算法的開發(fā)者、使用者以及消費者的法律責任進行區(qū)分認定。與第一類情形不同的是,第二類情形中的侵權(quán)損失主要是由人為所致。以愛奇藝訴字節(jié)跳動為例,作為發(fā)布涉案侵權(quán)短視頻的消費者,其在明知或應知愛奇藝擁有該作品獨家版權(quán)的情況下,發(fā)布涉案侵權(quán)視頻,具有一定的主觀過錯,侵害了愛奇藝的作品信息網(wǎng)絡傳播權(quán)。

值得注意的是,該案中字節(jié)跳動所使用的算法是協(xié)同過濾推薦算法,這一算法的核心思路是用戶喜好相似,則點擊行為也接近。通過內(nèi)容推薦收集到一定的用戶點擊量后,就會進行協(xié)同過濾推薦。協(xié)同過濾推薦技術(shù)不識別視頻的內(nèi)容,主要基于用戶的點擊進行計算和推薦。這意味著,瀏覽和搜索涉案侵權(quán)視頻的算法消費者,實際上也參與到了算法的使用過程中,同時具備算法使用者的身份。

然而,算法使用者的身份并不當然導致這些消費者承擔法律責任,因為他們的目的僅為瀏覽而非傳播涉案侵權(quán)視頻,且其被動參與算法使用過程,協(xié)同過濾算法推薦特定涉案視頻并不屬于這些算法消費者(使用者)的主觀意愿,僅是源于協(xié)同過濾推薦算法原有設計者的初衷。故此,這些兼具算法使用者身份的消費者無需承擔法律責任,最終導致侵權(quán)內(nèi)容加速傳播、侵權(quán)范圍不斷擴大、侵權(quán)后果加重的責任仍要追溯到作為控制、支配算法運行、憑借算法推薦獲益的算法使用者上。

概言之,雖然該案中算法消費者和使用者對侵權(quán)損失的發(fā)生、擴大、加重共同發(fā)揮了作用,但是由于兩者在主觀意圖、過錯,應負有的相關義務,以及對算法推薦的實際控制及行為效果的獲益等方面均有不同,即對侵權(quán)損失的形成、原因及效果比例上不盡相同,故在責任認定、分配及承擔上亦應不同。但值得注意的是,未來對算法消費者的相應責任應予關注。

一般情況下,網(wǎng)絡服務提供者對用戶個體的侵權(quán)行為適用“通知-刪除”規(guī)則,因為當用戶上傳侵權(quán)內(nèi)容后,網(wǎng)絡服務提供者只是基于構(gòu)建網(wǎng)絡環(huán)境的需要,被動地為網(wǎng)絡用戶提供信息接入、存儲、定位等技術(shù)性服務,并不主動介入網(wǎng)絡用戶所提供信息的內(nèi)容,故“通知-刪除”規(guī)則已然能夠阻止個體侵權(quán)信息的傳播。

然而,在愛奇藝訴字節(jié)一案中,平臺在侵權(quán)過程中獲得了巨大流量收益和競爭優(yōu)勢,即取得競爭優(yōu)勢與流量、經(jīng)濟利益與引發(fā)更大侵權(quán)風險并存,故從比例原則來看,理應承擔更高的注意義務,采取更加有效的措施來阻止侵權(quán)行為發(fā)生,若僅要求其承擔“通知-刪除”義務,并不能達到有效制止、預防侵權(quán)行為發(fā)生的實質(zhì)效果。

“技術(shù)中立”不再是“避風港”

愛奇藝訴字節(jié)跳動一案作為中國算法推薦侵權(quán)第一案,不僅為將來隨著算法推薦技術(shù)廣泛應用而增多的算法推薦侵權(quán)案件提供指引,也為算法推薦服務行業(yè)作出了警示,“技術(shù)中立”已難以為算法推薦服務提供者提供“避風港”,其須承擔更多的注意義務,以規(guī)避法律風險。

2022年1月4日,國家網(wǎng)信辦等四部門聯(lián)合發(fā)布《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》(下稱《規(guī)定》)進一步細化了算法推薦服務者的義務,旨在規(guī)范互聯(lián)網(wǎng)信息服務算法推薦活動,維護國家安全和社會公共利益,保護公民、法人和其他組織的合法權(quán)益,促進互聯(lián)網(wǎng)信息服務健康發(fā)展!兑(guī)定》已于2022年3月1日起施行。

《規(guī)定》明確要求,算法推薦服務提供者應當加強信息安全管理,建立健全用于識別違法和不良信息的特征庫,完善入庫標準、規(guī)則和程序。發(fā)現(xiàn)未作顯著標識的算法生成合成信息的,應當作出顯著標識后,方可繼續(xù)傳輸。發(fā)現(xiàn)違法信息的,應當立即停止傳輸,采取消除等處置措施,防止信息擴散,保存有關記錄,并向網(wǎng)信部門和有關部門報告。

可見,與提供單純的信息存儲服務相比,算法推薦服務提供者或者說算法使用者具有更高的注意義務,故其不能再單純依賴“避風港”原則,即認為收到侵權(quán)通知再采取必要措施即可免責。同時,在是否采取注意義務和合理措施的甄別上,不能以采取了刪除、斷開鏈接措施為由,抗辯其對侵權(quán)行為已經(jīng)盡到了合理的注意義務。這就對作為算法推薦服務提供者或使用者的平臺企業(yè)提出了更高的責任承擔、義務履行,以及風險防范要求。

鑒于此,作為算法使用的主要主體和推薦服務的主要提供者,平臺企業(yè)應不斷提升算法推薦合規(guī)水平和合規(guī)能力,嚴格遵守《規(guī)定》所明確的義務,建立事前審查和實時完善多場景合規(guī)的立體、動態(tài)的規(guī)則體系,加強算法推薦服務版面頁面生態(tài)管理,建立完善人工干預和用戶自主選擇機制,尤其是對于在首頁首屏、熱搜、精選、榜單類、彈窗等重點環(huán)節(jié)應當重點把關,避免侵權(quán)行為影響進一步擴大化。同時,也需加大對自動識別違法侵權(quán)內(nèi)容的算法識別技術(shù)的研發(fā)。

總體而言,平臺企業(yè)在享受算法技術(shù)為企業(yè)帶來巨大紅利的同時,也需承擔相應的義務與責任,提升防范算法侵權(quán)風險的技術(shù)水平和治理能力。

作者為南開大學競爭法研究中心主任、法學院教授,中國新一代人工智能發(fā)展戰(zhàn)略研究院特約研究員


微信掃描分享本文到朋友圈
掃碼關注5G通信官方公眾號,免費領取以下5G精品資料
  • 1、回復“YD5GAI”免費領取《中國移動:5G網(wǎng)絡AI應用典型場景技術(shù)解決方案白皮書
  • 2、回復“5G6G”免費領取《5G_6G毫米波測試技術(shù)白皮書-2022_03-21
  • 3、回復“YD6G”免費領取《中國移動:6G至簡無線接入網(wǎng)白皮書
  • 4、回復“LTBPS”免費領取《《中國聯(lián)通5G終端白皮書》
  • 5、回復“ZGDX”免費領取《中國電信5GNTN技術(shù)白皮書
  • 6、回復“TXSB”免費領取《通信設備安裝工程施工工藝圖解
  • 7、回復“YDSL”免費領取《中國移動算力并網(wǎng)白皮書
  • 8、回復“5GX3”免費領取《R1623501-g605G的系統(tǒng)架構(gòu)1
  • 本周熱點本月熱點

     

      最熱通信招聘

      最新招聘信息