神经网络与深度学习查鲁C.阿加沃尔(CharuC.pdf下载pdf下载

神经网络与深度学习查鲁C.阿加沃尔(CharuC.百度网盘pdf下载

作者:
简介:本篇主要提供神经网络与深度学习查鲁C.阿加沃尔(CharuC.pdf下载
出版社:互动创新图书专营店
出版时间:
pdf下载价格:0.00¥

免费下载


书籍下载


内容介绍

 书[0名0]:  神[纟巠]网络与深度[0学0][*]|8083085
 图书定价: 149元
 图书作者: [美]查鲁·C. 阿加沃尔(Charu C. Aggarwal)
 出版社:  [1机1]械工业出版社
 出版日期:  2021/8/6 0:00:00
 ISBN号: 9787111686859
 开本: 16开
 页数: 406
 版次: 1-1
 作者简介
关于我们
客户服务
友情链接
 内容简介
本书涵盖了[纟巠]典和现代的深度[0学0][*]模型。章节分为三类:[0第0]1部分为神[纟巠]网络的基础。许多传统的[1机1]器[0学0][*]模型可以理解为神[纟巠]网络的特殊情况。前两章的重点是理解传统[1机1]器[0学0][*]和神[纟巠]网络之间的关系。支持向量[1机1]、线性/逻辑回归、奇异值分解、矩阵分解和推荐系统都是神[纟巠]网络的特例。本书将这些方[0法0]与特征工程方[0法0]如word2vec一起进行了研究。[0第0]2部分是神[纟巠]网络的基本原理。训练和正则化的详细讨论在[0第0]3章和[0第0]4章[扌是]供。[0第0]5章和[0第0]6章介绍了径向基函数(RBF)网络和受限的玻尔兹曼[1机1]。[0第0]3部分是神[纟巠]网络的高级[1主1]题:[0第0]7章和[0第0]8章讨论了循环神[纟巠]网络和卷积神[纟巠]网络。[0第0]9章和[0第0]10章介绍了几个高级[1主1]题,如深度强化[0学0][*]、神[纟巠]图像[1机1]、Kohonen自组织映[身寸]和生成对抗网络。这本书是为研究生、研究人员和实践者编写的。[0大0]量的练[*]和一个解决方案手册,以帮助在课堂教[0学0]。在可能的情况下,突出显示以应用程序为中心的视图,以便[扌是]供对每一类技术的实际用途的理解。
 目录

译者序
前言
致谢
作者简介
[0第0]1章神[纟巠]网络概论111简介1
1.2神[纟巠]网络的基本架构3
1.2.1单层计算网络:感[0知0][1机1]3
1.2.2多层神[纟巠]网络13
1.2.3多层网络即计算图15
1.3利用反向传播训练神[纟巠]网络16
1.4神[纟巠]网络训练中的实际问题19
1.4.1过拟合问题19
1.4.2梯度消失与梯度爆炸问题22
1.4.3收敛问题22
1.4.4局部[*][0优0]和伪[*][0优0]22
1.4.5计算上的挑战23
1.5复合函数的能力之谜23
1.5.1非线性激活函数的重要性25
1.5.2利用深度以减少参数26
1.5.3非常规网络架构27
1.6常见网络架构28
1.6.1浅层模型模拟基础[1机1]器[0学0][*]方[0法0]28
1.6.2径向基函数网络29
1.6.3受限玻尔兹曼[1机1]29
1.6.4循环神[纟巠]网络30
1.6.5卷积神[纟巠]网络31
1.6.6层次特征工程与预训练模型32
1.7高级[1主1]题34
1.7.1强化[0学0][*]34
1.7.2分离数据存储和计算34
1.7.3生成对抗网络35
1.8两个基准35
1.8.1MNIST手写数字数据库35
1.8.2ImageNet数据库36
1.9总结37
1.10参考资料说明37
1.101视频讲座38
1.102软[亻牛]资源39
1.11练[*]39
[0第0]2章基于浅层神[纟巠]网络的[1机1]器[0学0][*]41
2.1简介41
2.2二分类模型的神[纟巠]架构42
2.2.1复[*]感[0知0][1机1]42
2.2.2[*]小二乘回归44
2.2.3逻辑回归47
2.2.4支持向量[1机1]49
2.3多分类模型的神[纟巠]架构50
2.3.1多分类感[0知0][1机1]51
2.3.2WestonWatkins支持向量[1机1]52
2.3.3多重逻辑回归(softmax分类器)53
2.3.4应用于多分类的分层softmax54
2.4反向传播可以用于特征选择和神[纟巠]网络的可解释性54
2.5使用自编码器进行矩阵分解55
2.5.1自编码器的基本原则55
2.5.2非线性激活函数59
2.5.3深度自编码器60
2.5.4应用于离群点检测62
2.5.5[0当0]隐藏层比输入层维数高时63
2.5.6其他应用63
2.5.7推荐系统:行索引到行值的预测65
2.5.8讨论67
2.6word2vec:简单神[纟巠]架构的应用67
2.6.1连续词袋的神[纟巠]嵌入68
2.6.2skipgram模型的神[纟巠]嵌入70
2.6.3word2vec(SGNS)是逻辑矩阵分解74
2.6.4原始skipgram模型是多项式矩阵分解76
2.7图嵌入的简单神[纟巠]架构76
2.7.1处理任意数量的边78
2.7.2多项式模型78
2.7.3与DeepWalk和[0no0]de2vec的联系78
2.8总结78
2.9参考资料说明79
2.10练[*]80
[0第0]3章深度神[纟巠]网络的训练823.1简介82
3.2反向传播的详细讨论83
3.2.1计算图抽象中的反向传播83
3.2.2前来拯救的动态规划87
3.2.3使用激活后变量的反向传播88
3.2.4使用激活前变量的反向传播89
3.2.5不同激活函数的更[亲斤]示例91
3.2.6以向量为中心的反向传播的解耦视图92
3.2.7多输出节点及隐藏节点下的损失函数94
3.2.8小批量随[1机1]梯度下降95
3.2.9用于解决共享[0权0]重的反向传播技巧96
3.2.10检查梯度计算的正确性97
3.3设置和初始化问题98
3.3.1调整[0超0]参数98
3.3.2特征预处理99
3.3.3初始化100
3.4梯度消失和梯度爆炸问题101
3.4.1对梯度比例影响的几何理解102
3.4.2部分解决:激活函数的选择103
3.4.3死亡神[纟巠]元和“脑损伤”104
3.5梯度下降策略105
3.5.1[0学0][*]率衰减105
3.5.2基于动量的[0学0][*]106
3.5.3参数特异的[0学0][*]率108
3.5.4悬崖和高阶不稳定性111
3.5.5梯度截断112
3.5.6二阶导数112
3.5.7Polyak平均118
3.5.8局部[0极0]小值和伪[0极0]小值119
3.6批归一化120
3.7加速与压缩的实用技巧123
3.7.1GPU加速123
3.7.2并行和分布式实现125
3.7.3模型压缩的算[0法0]技巧126
3.8总结128
3.9参考资料说明128
3.10练[*]130
[0第0]4章让深度[0学0][*]器[0学0][0会0]泛化132
4.1简介132
4.2偏差方差[0权0]衡135
4.3模型调[0优0]和[0评0]估中的泛化问题138
4.3.1用留出[0法0]和交叉验证[0法0]进行[0评0]估139
4.3.2[0大0]规模训练中的问题140
4.3.3如何检测需要收集更多的数据141
4.4基于惩罚的正则化141
4.4.1与注入噪声的联系142
4.4.2L1正则化143
4.4.3选择L1正则化还是L2正则化143
4.4.4对隐藏单元进行惩罚:[0学0][*]稀疏表示144
4.5集成方[0法0]145
4.5.1装袋和下采样145
4.5.2参数模型选择和平均146
4.5.3随[1机1]连接删除146
4.5.4Dropout147
4.5.5数据扰动集成149
4.6早停149
4.7无监督预训练150
4.7.1无监督预训练的变体153
4.7.2如何进行监督预训练154
4.8继续[0学0][*]与课程[0学0][*]154
4.8.1继续[0学0][*]155
4.8.2课程[0学0][*]156
4.9共享参数156
4.10无监督应用中的正则化157
4.101基于值的惩罚:稀疏自编码器157
4.102噪声注入:去噪自编码器157
4.103基于梯度的惩罚:收缩自编码器158
4.104隐藏层概率结构:变分自编码器161
4.11总结166
4.12参考资料说明166
4.13练[*]168
[0第0]5章径向基函数网络169
5.1简介169
5.2RBF网络的训练171
5.2.1训练隐藏层171
5.2.2训练输出层172
5.2.3正交[*]小二乘算[0法0]173
5.2.4完全监督[0学0][*]174
5.3RBF网络的变体和特例175
5.3.1感[0知0][1机1]准则分类175
5.3.2铰链损失分类175
5.3.3RBF促进线性可分离性的示例176
5.3.4应用于插值177
5.4与核方[0法0]的关系177
5.4.1RBF网络的特例:核回归177
5.4.2RBF网络的特例:核SVM178
5.4.3观察179
5.5总结179
5.6参考资料说明179
5.7练[*]180
[0第0]6章受限玻尔兹曼[1机1]181
6.1简介181
6.2Hopfield 网络 182
6.2.1训练网络的[*][0优0]状态配置183
6.2.2训练Hopfield网络184
6.2.3推荐器的构建及其局限性185
6.2.4[扌是]高Hopfield网络的表达能力186
6.3玻尔兹曼[1机1]187
6.3.1玻尔兹曼[1机1]如何生成数据188
6.3.2[0学0][*]玻尔兹曼[1机1]的[0权0]重188
6.4RBM的原理189
6.4.1训练RBM191
6.4.2对比发散算[0法0]192
6.4.3实际问题和即兴性193
6.5RBM的应用193
6.5.1降维和数据重构194
6.5.2使用RBM进行协同过滤196
6.5.3使用RBM进行分类198
6.5.4使用RBM建立[1主1]题模型201
6.5.5使用RBM进行多模态数据的[1机1]器[0学0][*]202
6.6在二元数据类型之外使用RBM203
6.7堆叠式RBM204
6.7.1无监督[0学0][*]206
6.7.2监督[0学0][*]206
6.7.3深度玻尔兹曼[1机1]和深度信念网络206
6.8总结207
6.9参考资料说明207
6.10练[*]208
[0第0]7章循环神[纟巠]网络210
7.1简介210
7.2循环神[纟巠]网络的架构212
7.2.1RNN语言建模实例214
7.2.2时间反向传播216
7.2.3[0双0]向循环神[纟巠]网络218
7.2.4多层循环神[纟巠]网络220
7.3训练循环神[纟巠]网络的挑战221
7.4回声状态网络224
7.5长短期记忆网络226
7.6门控循环单元228
7.7循环神[纟巠]网络的应用229
7.7.1应用于自动图像描述230
7.7.2序列到序列的[0学0][*]和[1机1]器翻译231
7.7.3应用于句子级别分类234
7.7.4利用语言特征进行词级别分类235
7.7.5时间序列预测236
7.7.6时序推荐系统237
7.7.7蛋白质二级结构预测239
7.7.8端到端语音识别239
7.7.9手写识别239
7.8总结240
7.9参考资料说明240
7.10练[*]241
[0第0]8章卷积神[纟巠]网络243
8.1简介243
8.1.1历[0史0]观点和生物启发243
8.1.2卷积神[纟巠]网络的广义发现244
8.2卷积神...