基于穿戴傳感器和機(jī)器學(xué)習(xí)的人體行為識別
定 價(jià):89 元
- 作者:王燕
- 出版時(shí)間:2024/8/1
- ISBN:9787121486029
- 出 版 社:電子工業(yè)出版社
- 中圖法分類:TP212.6;TP302.7
- 頁碼:192
- 紙張:
- 版次:01
- 開本:16開
基于穿戴傳感器的人體行為識別技術(shù)在輔助老年人日常生活和患者康復(fù)訓(xùn)練方面展現(xiàn)出巨大潛力。本書主要介紹該技術(shù)在健康領(lǐng)域的研究與應(yīng)用,涵蓋方法流程、數(shù)據(jù)預(yù)處理、特征提取與融合、識別模型構(gòu)建等內(nèi)容,書中詳細(xì)探討了腕部和多位置穿戴傳感器的行為識別、步態(tài)數(shù)據(jù)的增強(qiáng)與預(yù)測、魯棒性特征提取等關(guān)鍵問題。本書可作為高等院校人工智能相關(guān)專業(yè)本科生和研究生的參考教材,也可供從事人工智能、模式識別、神經(jīng)網(wǎng)絡(luò)應(yīng)用等領(lǐng)域的技術(shù)和研究人員閱讀。
王燕,中原工學(xué)院副教授,近年來一直從事基于傳感器的行為識別和機(jī)器人控制等方向的研究,在傳感器數(shù)據(jù)處理與融合、特征提取與降維、傳統(tǒng)機(jī)器學(xué)習(xí)及深度學(xué)習(xí)在數(shù)據(jù)科學(xué)中的研究與應(yīng)用等方面打下了堅(jiān)實(shí)的基礎(chǔ)。目前擔(dān)任多個(gè)人工智能相關(guān)的主流國際期刊的論文審稿人,與領(lǐng)域內(nèi)多位卓越的學(xué)者保持交流與合作。
第1章 緒論 1
1.1 人體行為識別研究的背景及意義 1
1.2 穿戴行為識別研究 4
1.3 人體行為數(shù)據(jù)增強(qiáng)與預(yù)測 8
參考文獻(xiàn) 10
第2章 人體行為識別基礎(chǔ) 16
2.1 人體行為識別的一般流程 16
2.2 傳感器形式 18
2.3 穿戴傳感器及其布局 18
2.3.1 穿戴傳感器類型 18
2.3.2 穿戴傳感器的布局方式 21
2.4 穿戴傳感器數(shù)據(jù)預(yù)處理 24
2.5 特征提取與選擇 25
2.5.1 人工提取的特征 25
2.5.2 自動學(xué)習(xí)的特征 28
2.5.3 特征降維與特征選擇 28
2.6 人體行為識別模型 30
2.7 人體行為識別評價(jià)指標(biāo) 37
2.8 本章小結(jié) 37
參考文獻(xiàn) 38
第3章 基于傳統(tǒng)機(jī)器學(xué)習(xí)的人體行為識別研究 50
3.1 實(shí)驗(yàn)方法及設(shè)計(jì) 50
3.1.1 實(shí)驗(yàn)系統(tǒng)設(shè)計(jì) 50
3.1.2 混合感知與布局 53
3.1.3 特征提取與選擇方法 57
3.1.4 識別模型及性能評估 58
3.2 數(shù)據(jù)采集和數(shù)據(jù)處理 61
3.2.1 行為定義和穿戴行為數(shù)據(jù)采集 61
3.2.2 環(huán)境數(shù)據(jù) 64
3.2.3 人工特征集 65
3.2.4 穿戴行為數(shù)據(jù)窗口分割 68
3.2.5 互信息特征選擇方法評估擴(kuò)展特征貢獻(xiàn) 70
3.3 核典型相關(guān)分析特征選擇mRMJR-KCCA 70
3.3.1 互信息和核典型相關(guān)分析(KCCA) 71
3.3.2 mRMJR-KCCA特征選擇 73
3.3.3 不同穿戴傳感器對行為識別的貢獻(xiàn)研究 77
3.3.4 mRMJR-KCCA衡量穿戴傳感器擴(kuò)展特征貢獻(xiàn) 82
3.4 穿戴感知數(shù)據(jù)和環(huán)境感知數(shù)據(jù)融合研究 87
3.4.1 PIR傳感器識別日常行為規(guī)律 88
3.4.2 互信息特征選擇衡量穿戴行為數(shù)據(jù)與環(huán)境數(shù)據(jù)融合 89
3.4.3 mRJMR-KCCA衡量混合感知數(shù)據(jù)融合 94
3.5 本章小結(jié) 100
參考文獻(xiàn) 101
第4章 基于深度學(xué)習(xí)的腕部穿戴人體行為識別研究 106
4.1 腕部行為數(shù)據(jù)采集 106
4.2 多層LSTM行為識別模型的建立 108
4.3 注意力機(jī)制模型的建立 109
4.3.1 注意力機(jī)制 109
4.3.2 注意力分布 110
4.3.3 加權(quán)平均 111
4.3.4 多階段注意力機(jī)制模型 111
4.4 腕部穿戴傳感器局部移位及補(bǔ)償研究 114
4.4.1 混合位置行為識別補(bǔ)償 116
4.4.2 基于姿態(tài)角的反饋原理行為識別補(bǔ)償 118
4.4.3 基于源位置的遷移微調(diào)行為識別補(bǔ)償 121
4.5 本章小結(jié) 126
參考文獻(xiàn) 127
第5章 基于深度學(xué)習(xí)的多位置穿戴人體行為識別研究 129
5.1 多位置穿戴行為數(shù)據(jù)采集 129
5.2 MhaGNN框架和基準(zhǔn)模型 132
5.3 多位置穿戴行為識別魯棒性特征提取研究 134
5.3.1 多位置穿戴行為識別實(shí)驗(yàn)設(shè)置 134
5.3.2 MhaGNN框架實(shí)驗(yàn)結(jié)果 135
5.3.3 MhaGNN框架與其他模型對比分析 137
5.3.4 MhaGNN框架與基準(zhǔn)模型對比分析 140
5.4 本章小結(jié) 143
參考文獻(xiàn) 143
第6章 基于生成對抗網(wǎng)絡(luò)的人體步態(tài)數(shù)據(jù)增強(qiáng)與預(yù)測 146
6.1 下肢康復(fù)機(jī)器人 146
6.2 時(shí)間序列數(shù)據(jù)增強(qiáng)與預(yù)測 149
6.2.1 時(shí)間序列數(shù)據(jù)增強(qiáng)方法 149
6.2.2 時(shí)間序列數(shù)據(jù)預(yù)測方法 150
6.3 步態(tài)增強(qiáng)與預(yù)測研究框架 152
6.3.1 人體步態(tài)動作捕獲系統(tǒng) 152
6.3.2 步態(tài)數(shù)據(jù)采集與預(yù)處理 153
6.3.3 生成對抗網(wǎng)絡(luò) 155
6.4 基于GAN網(wǎng)絡(luò)的人體步態(tài)數(shù)據(jù)增強(qiáng) 157
6.4.1 增強(qiáng)模型建立及實(shí)驗(yàn)設(shè)置 157
6.4.2 多維時(shí)間序列步態(tài)數(shù)據(jù)增強(qiáng)模型 158
6.4.3 度量結(jié)果分析 162
6.5 步態(tài)軌跡預(yù)測 167
6.5.1 基于LSTM的步態(tài)軌跡預(yù)測 168
6.5.2 基于注意力機(jī)制的步態(tài)軌跡預(yù)測 168
6.5.3 軌跡預(yù)測結(jié)果分析 169
6.6 本章小結(jié) 173
參考文獻(xiàn) 173
第7章 結(jié)論與展望 179
7.1 本書內(nèi)容總結(jié) 179
7.2 未來研究展望 181