前言
第1章 大語言模型安全及其挑戰(zhàn)1
1.1 大語言模型的發(fā)展歷史與技術現(xiàn)狀2
1.1.1 序章:起源與早期形態(tài)2
1.1.2 轉折:神經(jīng)網(wǎng)絡的興起2
1.1.3 現(xiàn)代巨人:GPT與BERT的時代3
1.1.4 技術現(xiàn)狀與應用領域4
1.2 大語言模型安全的范疇5
1.2.1 大語言模型的技術安全:關鍵挑戰(zhàn)是什么5
1.2.2 大語言模型的監(jiān)管與合規(guī):面臨哪些關鍵問題6
1.3 生成式人工智能安全的重要性6
1.3.1 提升大語言模型的社會信任和聲譽7
1.3.2 降低大語言模型的法律風險9
1.3.3 保護大語言模型的用戶數(shù)據(jù)隱私9
1.3.4 保障大語言模型服務的連續(xù)性10
1.3.5 提高大語言模型的系統(tǒng)穩(wěn)定性11
1.4 大語言模型安全的現(xiàn)狀與挑戰(zhàn)11
1.4.1 大語言模型的安全隱患與主要風險點12
1.4.2 大語言模型與國家安全風險14
1.4.3 大語言模型安全治理之道:發(fā)展與安全并重15
第2章 大語言模型技術層面的安全風險17
2.1 大語言模型的信息安全原則18
2.1.1 機密性18
2.1.2 完整性18
2.1.3 可用性18
2.2 傳統(tǒng)安全風險19
2.2.1 傳統(tǒng)網(wǎng)絡攻擊依然具有威力20
2.2.2 常見的傳統(tǒng)網(wǎng)絡攻擊方式21
2.3 識別和分析人類意圖上的挑戰(zhàn)21
2.3.1 惡意意圖的識別難題22
2.3.2 AI生成虛假信息傳播23
2.3.3 利用AI進行黑客攻擊24
2.4 大語言模型的固有脆弱性24
2.4.1 對抗攻擊25
2.4.2 后門攻擊29
2.4.3 Prompt攻擊30
2.4.4 數(shù)據(jù)投毒攻擊31
2.4.5 模型竊取攻擊32
2.4.6 數(shù)據(jù)竊取攻擊33
2.4.7 其他常見安全風險34
第3章 大語言模型監(jiān)管與合規(guī)的法律框架37
3.1 全球視野下的AIGC監(jiān)管現(xiàn)狀38
3.1.1 AIGC企業(yè)面臨的訴訟壓力38
3.1.2 針對AIGC企業(yè)的執(zhí)法調查屢見不鮮41
3.1.3 各國抓緊AIGC相關立法44
3.2 國內的監(jiān)管體系45
3.2.1 國內監(jiān)管體系概述45
3.2.2 國內現(xiàn)行監(jiān)管政策梳理與總結48
3.2.3 國內重點監(jiān)管政策解讀50
3.3 國外的典型法域54
3.3.1 歐盟54
3.3.2 美國68
3.3.3 英國73
3.3.4 新加坡75
3.3.5 加拿大77
3.3.6 韓國78
第4章 大語言模型知識產(chǎn)權合規(guī)81
4.1 著作權82
4.1.1 著作權概述82
4.1.2 AIGC生成物的著作權定性分析82
4.1.3 AIGC技術相關的著作權侵權風險85
4.1.4 典型案例分析88
4.1.5 小結99
4.2 開源協(xié)議103
4.2.1 開源協(xié)議概述103
4.2.2 開源協(xié)議引發(fā)的侵權風險106
4.2.3 涉及開源協(xié)議的相關案例107
4.2.4 涉及開源協(xié)議的侵權風險防范措施109
4.3 專利權109
4.3.1 專利權概述109
4.3.2 AIGC場景下的專利權相關問題110
4.4 商標權112
4.4.1 商標權概述112
4.4.2 AIGC場景下的商標侵權113
4.4.3 人工智能生成物與商標侵權113
4.5 商業(yè)秘密115
4.5.1 商業(yè)秘密概述115
4.5.2 AIGC場景下常見的商業(yè)秘密相關風險116
4.5.3 典型案例分析118
4.5.4 小結120
第5章 大語言模型數(shù)據(jù)合規(guī)123
5.1 模型訓練階段124
5.1.1 數(shù)據(jù)采集124
5.1.2 數(shù)據(jù)質量提升134
5.2 模型應用階段137
5.2.1 告知同意138
5.2.2 個人信息權利行使138
5.2.3 收集兒童個人信息139
5.2.4 數(shù)據(jù)跨境139
5.3 模型優(yōu)化階段142
5.3.1 數(shù)據(jù)使用142
5.3.2 數(shù)據(jù)安全143
第6章 大語言模型內容安全145
6.1 內容安全監(jiān)管146
6.1.1 國內視角下的監(jiān)管146
6.1.2 國外視角下的監(jiān)管147
6.2 內容安全風險149
6.2.1 權利人提起的民事侵權責任149
6.2.2 監(jiān)管機構提起的行政處罰150
6.2.3 刑事處罰150
6.3 內容安全合規(guī)151
6.3.1 模型訓練階段151
6.3.2 模型應用階段155
6.3.3 模型優(yōu)化階段160
第7章 大語言模型算法合規(guī)163
7.1 算法合規(guī)框架概述164
7.2 算法備案164
7.2.1 法律依據(jù)及實施概況164
7.2.2 備案流程166
7.2.3 算法備案入口及角色167
7.2.4 備案所需準備的文件及材料168
7.2.5 備案期限168
7.3 人工智能安全評估169
7.4 算法公開透明170
7.5 算法生成內容標識173
7.6 算法反歧視176
7.6.1 算法設計178
7.6.2 訓練數(shù)據(jù)選擇179
7.6.3 模型生成和優(yōu)化180
7.7 與算法有關的侵權181
7.8 算法合規(guī)要點總結185
第8章 大語言模型倫理安全187
8.1 大語言模型倫理:AI技術進步的道德維度188
8.1.1 三個案例引發(fā)對AI倫理的思考188
8.1.2 人工智能倫理概述:一個復雜且涵蓋多方面的議題191
8.2 人工智能倫理的重要性191
8.2.1 提升公眾信任:大語言模型倫理規(guī)范的社會影響192
8.2.2 確保合規(guī)性:企業(yè)和組織遵守倫理規(guī)范的必要性192
8.2.3 面向可持續(xù)的未來:倫理規(guī)范的長期社會影響193
8.3 大語言模型倫理安全風險及成因分析194
8.3.1 主要的倫理風險194
8.3.2 倫理風險的成因195
8.4 我國人工智能倫理治理實踐195
8.4.1 我國人工智能倫理相關法規(guī)政策概述196
8.4.2 確立科技倫理治理體制機制198
8.5 大語言模型倫理風險應對策略205
8.5.1 研究開發(fā)者的責任205
8.5.2 設計制造者的責任206
8.5.3 部署應用者的責任207
8.5.4 用戶的責任208
第9章 大語言模型的安全保障方案211
9.1 傳統(tǒng)技術層面的安全保障212
9.1.1 大語言模型在系統(tǒng)層面的安全挑戰(zhàn)212
9.1.2 大語言模型中可應用的經(jīng)典安全技術214
9.1.3 應用傳統(tǒng)安全實踐的經(jīng)驗215
9.2 數(shù)據(jù)層面的保障策略217
9.2.1 數(shù)據(jù)收集階段面臨的安全挑戰(zhàn)218
9.2.2 訓練階段的安全建議219
9.2.3 模型推理階段的安全建議220
9.3 可信屬性角度的安全防護策略221
9.3.1 大語言模型可信任的支柱222
9.3.2 人類監(jiān)管和監(jiān)督223
9.3.3 技術健壯性和安全性223
9.3.4 隱私和數(shù)據(jù)治理224
9.3.5 透明度226
9.3.6 多樣性和公平性228
9.3.7 社會和環(huán)境變革229
9.3.8 問責機制231
第10章 生成式人工智能未來展望233
10.1 技術視角看大語言模型安全的發(fā)展趨勢234
10.1.1 增強安全性與可靠性234
10.1.2 提高透明性與可解釋性235
10.1.3 優(yōu)化性能與效率236
10.1.4 應對深度偽造技術237
10.1.5 區(qū)塊鏈技術的集成238
10.2 法律視角看大語言模型安全的發(fā)展趨勢239
10.2.1 全球數(shù)據(jù)保護法律法規(guī)在大模型領域的細化與完善240
10.2.2 全球范圍內算法監(jiān)管框架的逐漸完善241
10.2.3 AI時代的知識產(chǎn)權244
10.2.4 倫理規(guī)范的法律化251