天堂v亚洲国产ⅴ第一次,亚洲国产成av人天堂无码,亚洲 欧美 中文 日韩aⅴ综合视频,午夜福利日本一区二区无码

大通天成

13391522356
全國咨詢服務:8:00-22:00

知識庫> 辦事指南> 生成式人工智能技術應用法律風險及合規(guī)要點(互聯(lián)網(wǎng)信息服務算法備案)

生成式人工智能技術應用法律風險及合規(guī)要點(互聯(lián)網(wǎng)信息服務算法備案)

更新時間:2025-05-15 03:47:38     發(fā)布時間:2023-06-02 09:09:13     作者:財稅小編-富炎



摘要:生成式人工智能技術應用法律風險及合規(guī)要點(互聯(lián)網(wǎng)信息服務算法備案)2023年4月11日推出《生成式人工智能服務管理辦法(征求意見稿)》(下稱“征求意見稿”),旨在促進生成式AI健康發(fā)展和規(guī)范應用,其中明確規(guī)定“研發(fā)、利用生成式人工智能產(chǎn)品,面向中華人民共和國境內(nèi)公眾提供服務的”均適用該辦法。該條規(guī)定明確了該辦法的適用范圍和對象,確立了“長臂管轄”規(guī)則,將境外主體向境內(nèi)提供服務情形也納入適用范圍。

suanfa1.png

  生成式人工智能技術應用法律風險及合規(guī)要點(互聯(lián)網(wǎng)信息服務算法備案)

  生成式人工智能技術應用法律風險及合規(guī)要點看,是本文主要內(nèi)容。通過下文您將對人工智能技術合規(guī)應用有更深的了解,其中2022年推出的互聯(lián)網(wǎng)信息服務算法備案是企業(yè)要及時參與。

  2022年底以來,隨著ChatGPT-3.5、Stable Diffusion、Midjourney等強人工智能的破圈,圍繞著各類人工智能應用項目迅速發(fā)展。但同時,人工智能應用項目也帶來了傳播虛假信息、隱私泄露、知識產(chǎn)權侵權等潛在風險問題,對此全球多國也紛紛出手,出臺了各自的監(jiān)管政策,以期規(guī)范人工智能健康發(fā)展。

  2023年3月30日,意大利個人數(shù)據(jù)保護局(DPA)以違反GDPR為由,宣布暫時禁止使用ChatGPT。

  2023年5月11日,歐洲議會內(nèi)部市場委員會和公民自由委員會以84票贊成,7票反對和12票棄權通過《歐盟人工智能法案》(EU Artificial Intelligence Act,“歐盟AI法案”)提案的談判授權草案[1]。歐洲議會發(fā)布的聲明稱,一旦獲得批準,該法案將成為全世界首部有關人工智能的法規(guī)。法律通過后,違反規(guī)定的公司最高可被處以4000萬歐元或其全球年營業(yè)額7%的罰款。

  歐盟AI法案針對不同類型的人工智能系統(tǒng)制定了相應的監(jiān)管措施,區(qū)分了不可接受的風險、高風險、有限風險和低或輕微風險四種風險類型,并針對不同類型施加了不同的監(jiān)管措施以及相應類型的人工智能系統(tǒng)的提供者義務。對于不可接受的風險(包括可能扭曲用戶行為、導致用戶傷害的系統(tǒng),預測性警務系統(tǒng),無針對抓取面部數(shù)據(jù)建立面部識別數(shù)據(jù)庫的系統(tǒng)等),歐盟AI法案明確禁止其投放市場,或在歐盟境內(nèi)使用。因此也有議員對該法案持批評的態(tài)度。德國議員阿克塞爾·沃斯表示,這項法案是“朝著正確方向邁出的一步”,但是以對人工智能的恐懼來限制其發(fā)展,可能會扼殺新技術涌現(xiàn)的機會。

  中國國家網(wǎng)信辦于2023年4月11日推出《生成式人工智能服務管理辦法(征求意見稿)》(下稱“征求意見稿”),旨在促進生成式AI健康發(fā)展和規(guī)范應用,其中明確規(guī)定“研發(fā)、利用生成式人工智能產(chǎn)品,面向中華人民共和國境內(nèi)公眾提供服務的”均適用該辦法。該條規(guī)定明確了該辦法的適用范圍和對象,確立了“長臂管轄”規(guī)則,將境外主體向境內(nèi)提供服務情形也納入適用范圍。

  與歐盟AI法案不同的是,征求意見稿將監(jiān)管范圍限定在生成式人工智能,并未禁止某一類型技術的應用,相反的,征求意見稿第三條、第四條明確提出支持和鼓勵技術發(fā)展,表明中國保護社會倫理道德秩序和輿論導向,引領新興技術的價值取向的監(jiān)管目標。該征求意見稿所展現(xiàn)的監(jiān)管方式與此前出臺的《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》(“《算法規(guī)定》”)、《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》(“《深度合成規(guī)定》”)有異曲同工之妙,共同建立了以內(nèi)容安全和社會影響為監(jiān)管目標的監(jiān)管機制,同時,為技術研發(fā)和應用預留了政策空間。

  我們擬從該征求意見稿所折射的監(jiān)管目標和監(jiān)管尺度出發(fā),總結(jié)生成式人工智能技術在中國境內(nèi)應用面臨的主要法律風險和監(jiān)管合規(guī)要點。

  一、內(nèi)容違法違規(guī)風險

  1. 對生成內(nèi)容的基本要求。征求意見稿第四條列舉了提供生成式人工智能產(chǎn)品或服務時應遵守的法律法規(guī)要求和道德準則。實質(zhì)上是對服務提供者施以內(nèi)容審查義務。該條是對生成內(nèi)容合規(guī)性的原則性規(guī)定,是對《網(wǎng)絡安全法》《算法規(guī)定》《深度合成規(guī)定》等法律法規(guī)中關于內(nèi)容合規(guī)要求在生成式人工智能技術背景下的匯總和重申。

  2. 生成內(nèi)容應真實準確。征求意見稿第四條第四款規(guī)定“利用生成式人工智能生成的內(nèi)容應當真實準確,采取措施防止生成虛假信息”。然而,我們理解,以目前生成式人工智能的技術水平,還尚達不到確保生成內(nèi)容100%真實準確的程度,類似生成“林黛玉倒拔垂楊柳”的事例仍屢見不鮮。但從監(jiān)管的側(cè)重點出發(fā),我們認為該款規(guī)定應旨在要求服務提供者應當“采取措施”,在技術可以實現(xiàn)的范圍內(nèi)盡量避免虛假信息的產(chǎn)生。

  生成式人工智能的快速發(fā)展與深度神經(jīng)網(wǎng)絡的結(jié)構升級有密切聯(lián)系,而實驗證明,深度神經(jīng)網(wǎng)絡的學習能力和模型大小呈正相關,伴隨著模型參數(shù)量的增加,相對應深度神經(jīng)網(wǎng)絡的能力一般會取得大幅提升[2]。可以認為用于訓練模型參數(shù)的數(shù)量和質(zhì)量,直接影響生成式人工智能所生成內(nèi)容的質(zhì)量。

  同時,實踐中生成式人工智能服務提供者可能通過向第三方采購取得訓練數(shù)據(jù),對此,我們建議應當審查第三方知識產(chǎn)權協(xié)議、要求其提供數(shù)據(jù)合法性來源證明,盡到服務提供者的注意義務,并建立防控措施、窮盡可能的手段避免虛假信息的產(chǎn)生,以減輕內(nèi)容違法違規(guī)的風險。

  3. 違規(guī)內(nèi)容應及時處置。征求意見稿第十三條、第十五條規(guī)定了提供者應建立侵權內(nèi)容處理機制,對侵權和違規(guī)內(nèi)容應當采取措施,停止生成,防止危害持續(xù)。并且,還應在3個月內(nèi)通過模型優(yōu)化訓練等方式防止再次生成。在實踐中,識別違規(guī)內(nèi)容產(chǎn)生的原因,并再次通過模型優(yōu)化訓練消除違規(guī)內(nèi)容可能存在較高技術難度,并且能否在3個月內(nèi)完成也有待實踐的檢驗,因此這一要求在實踐中落地可能面臨較大挑戰(zhàn)。

  因此,生成式人工智能服務提供者對模型訓練數(shù)據(jù)的清洗和篩選尤為重要。我們建議服務提供者應高度重視在使用訓練數(shù)據(jù)之前,通過字段設置等技術結(jié)合人工審查手段,去除數(shù)據(jù)中的違法違規(guī)內(nèi)容和錯誤內(nèi)容。通過對訓練數(shù)據(jù)中侵權信息、違法信息、虛假信息、錯誤信息的篩選和處理,最大程度保證訓練出來的模型的準確性。此外,在訓練過程中,應進行調(diào)試和優(yōu)化,并注意及時、定期檢查和糾正錯誤或虛假的信息。

  二、數(shù)據(jù)安全風險

  美國時間3月25日,OpenAI官方確認有1.2%的ChatGPT Plus的用戶數(shù)據(jù)可能被泄露,而包括意大利在內(nèi)的有關國家的監(jiān)管機構已對大語言模型及其數(shù)據(jù)安全問題開啟調(diào)查行動。目前數(shù)據(jù)安全是生成式人工智能領域亟須解決的突出問題。

  對此,征求意見稿第五條首先強調(diào)了生成式人工智能服務提供者應當承擔的個人信息處理者的法定責任,并在第六條規(guī)定了安全評估和算法備案的前提性和必要性。其中明確要求生成式人工智能服務提供者應當根據(jù)《算法規(guī)定》《具有輿論屬性或社會動員能力的互聯(lián)網(wǎng)信息服務安全評估規(guī)定》(“《安全評估規(guī)定》”)進行算法備案和申報安全評估。根據(jù)算法備案要求,在算法備案前,生成式人工智能服務提供者應當設置算法安全機構,建立完善的公司內(nèi)部規(guī)章制度,主要包括算法安全自評估制度、算法安全監(jiān)測制度、算法安全事件應急處置制度、算法違法違規(guī)處置制度、用戶真實身份核驗以及注冊信息留存措施。

  根據(jù)《安全評估規(guī)定》,生成式人工智能服務提供者應當制定相關安全措施,包括用戶操作日志、發(fā)布內(nèi)容的留存措施,對違法有害信息的防范處置和記錄保存措施,個人信息保護和防范違法信息傳播的技術措施,建立投訴舉報渠道,建立協(xié)助網(wǎng)信部門、公安機關、國安機關等監(jiān)管的工作機制等。

  除了上述算法備案和安全評估所需的內(nèi)控制度和措施之外,征求意見稿第七條規(guī)定算法訓練數(shù)據(jù)包含個人信息的,應當征得個人信息主體同意或者符合法律、行政法規(guī)規(guī)定的其他情形。第十一條要求提供者在提供服務過程中,對用戶的輸入信息和使用記錄承擔保護義務。不得非法留存能夠推斷出用戶身份的輸入信息,不得根據(jù)用戶輸入信息和使用情況進行畫像,不得向他人提供用戶輸入信息。

  因此,生成式人工智能服務提供者應當遵守《個人信息保護法》《網(wǎng)絡安全法》《數(shù)據(jù)安全法》等法律法規(guī)中針對個人信息保護的相關規(guī)定,通過技術及人工手段落實個人信息保護義務,例如:

  1. 采用匿名化、脫敏等技術手段對算法訓練數(shù)據(jù)中的個人隱私信息進行及時處理,避免個人信息泄露或被濫用。

  2. 若用戶輸入的信息包含能夠推斷用戶身份的信息,不得非法留存,并應進行定期刪除。

  3. 建立人工審查機制,及時監(jiān)督、發(fā)現(xiàn)和糾正個人信息留存、泄露和濫用問題。

  4. 服務提供者還應在產(chǎn)品或官網(wǎng)、主頁等位置公開處理投訴的機制和方式,落實用戶投訴接收處理機制,并及時處理個人關于更正、刪除、屏蔽個人信息的請求。

  三、知識產(chǎn)權侵權風險

  生成式人工智能模型的技術原理是通過對現(xiàn)有數(shù)據(jù)的學習,學習到數(shù)據(jù)的分布規(guī)律和特點,然后基于這些規(guī)律和特點來生成新的數(shù)據(jù)或完成任務。其中最廣為人知的生成式模型是生成對抗網(wǎng)絡(GAN)。GAN模型由兩個神經(jīng)網(wǎng)絡組成,分別為“生成器” 和 “判別器”。生成器根據(jù)數(shù)據(jù)分布樣本生成具有相似分布的樣本,而判別器則根據(jù)生成器生成出來的樣本以及真實數(shù)據(jù)對兩者進行判斷分辨。在對抗中,生成器會嘗試生成能混淆判別器的樣本,而判別器會不斷學習,以識別真實樣本和生成器生成的樣本。這樣的對抗過程將導致生成器的輸出越來越接近真實數(shù)據(jù)的分布,生成器最終可以產(chǎn)生逼真的新數(shù)據(jù)。GAN的變種如條件GAN(CGAN)等技術可以更加精細地控制生成樣本的特征。

  該技術原理決定了生成式人工智能的創(chuàng)作也需要創(chuàng)作素材來“喂養(yǎng)”。通常這些創(chuàng)作素材是以數(shù)據(jù)形式表現(xiàn)的各種數(shù)字化作品。從內(nèi)容生成的過程上看,生成式人工智能服務提供者可能面臨的較為突出的法律風險,主要集中在訓練數(shù)據(jù)的輸入端。生成式人工智能服務提供者利用爬蟲技術等各種方式取得未經(jīng)授權獲取版權作品和侵權信息的,可能涉及著作權侵權、不正當競爭、侵犯商業(yè)秘密等知識產(chǎn)權侵權風險。

  目前生成式人工智能生成的內(nèi)容主要是文本、圖片、聲音、視頻、代碼。其中,在生成文字的任務中,基于大型語言模型的生成式人工智能輸出的結(jié)果往往不是訓練文本的原文復述,所以知識產(chǎn)權侵權風險相對較低。但是,在生成圖片、聲音、視頻、代碼的領域,存在較為突出的侵權風險。

  對此,征求意見稿第七條明確規(guī)定,用于生成式人工智能產(chǎn)品的預訓練、優(yōu)化訓練數(shù)據(jù)應當不含有侵犯知識產(chǎn)權的內(nèi)容。并且提供者應當對生成式人工智能產(chǎn)品的預訓練數(shù)據(jù)、優(yōu)化訓練數(shù)據(jù)來源的合法性負責。

  該條規(guī)定對生成式人工智能服務提供者提出了明確的要求,即在算法訓練階段,應當對算法訓練數(shù)據(jù)來源的合法性和侵權風險進行審查,從數(shù)據(jù)源頭上切斷知識產(chǎn)權侵權風險。例如在一些生成圖片人工智能模型的生成產(chǎn)品中,可能出現(xiàn)與訓練圖像較為近似的圖像結(jié)果,生成式人工智能服務提供者需要在模型設置、訓練資料的選取,以及訓練、調(diào)試和優(yōu)化過程中注意此類生成結(jié)果侵權的風險。

  我們注意到,通過爬蟲爬取的互聯(lián)網(wǎng)各類公開數(shù)據(jù)用于模型訓練是否屬于合理使用目前在國內(nèi)外均極具爭議。征求意見稿第七條的要求如何落地也有待實踐檢驗。另外,人工智能生成的結(jié)果是否具有著作權,應當由誰享有著作權,目前在學術界和實務界也爭論頗多。在中國著作權法的框架下,主要爭議觀點集中于“屬于人工智能的設計者”還是“屬于人工智能的使用者”。這關系到技術創(chuàng)新發(fā)展與政策支持、法律規(guī)制的匹配和銜接問題,我們后續(xù)對此爭議問題也將另行撰文展開論述。

  綜上所述,關于生成式人工智能技術應用法律風險及合規(guī)要點(互聯(lián)網(wǎng)信息服務算法備案)的文章,如果您需要辦理互聯(lián)網(wǎng)信息服務算法備案或者想更多咨詢問題,請聯(lián)系大通天成在線客服。也可以撥打我們的電話13391522356。


熱門搜索
熱門資質(zhì)標簽:   互聯(lián)網(wǎng)信息服務算法備案互聯(lián)網(wǎng)信息服務算法備案辦理互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定
熱門閱讀
相關推薦

產(chǎn)品推薦:

電話咨詢
售前咨詢電話

13391522356

在線咨詢 官方微信
微信掃一掃

互聯(lián)網(wǎng)資質(zhì)服務

qc
售后投訴
微信掃一掃

售后投訴客服

qc
返回頂部