《神经网络与深度学习邱锡鹏著机械工业》[76M]百度网盘|pdf下载|亲测有效
《神经网络与深度学习邱锡鹏著机械工业》[76M]百度网盘|pdf下载|亲测有效

神经网络与深度学习邱锡鹏著机械工业 pdf下载

出版社 城市绿洲图书专营店
出版年 2020-04
页数 390页
装帧 精装
评分 8.6(豆瓣)
8.99¥ 10.99¥

内容简介

本篇主要提供神经网络与深度学习邱锡鹏著机械工业电子书的pdf版本下载,本电子书下载方式为百度网盘方式,点击以上按钮下单完成后即会通过邮件和网页的方式发货,有问题请联系邮箱ebook666@outlook.com

基本信息

书名:神经网络与深度学习

定价:149元

作者:邱锡鹏 著

出版社:机械工业出版社

出版日期:2020-04-01

ISBN:9787111649687

字数:

页码:448

版次:

装帧:平装

开本:16开

商品重量:

编辑推荐


读者对象:

1.高校人工智能等相关方向的本科生和研究生;2.深度学习/机器学习/AI算法/自然语言处理工程师;3.从事机器学习和自然语言处理研究的人员;4.其他对深度学习和神经网络感兴趣的人员。

1)复旦大学邱锡鹏教授基于科研和教学实践,历时5年时间静心写作、不断完善,深受好评的深度学习讲义“蒲公英书”正式版!

2)字节跳动AI实验室主任李航、南京大学周志华教授、复旦大学吴立德教授强力推荐。

3)系统整理深度学习的知识体系,从机器学习基础、神经网络模型以及概率图模型三个层面来串联深度学习所涉及的知识点,兼具系统性、条理性和全面性。

4)适合自学与入门。在网站上配套了教学PPT以及针对每章知识点的编程练习,理论和实践结合,加深读者对知识的理解,并提高问题求解能力。

5)内容安排由浅入深,语言表达通俗易懂,排版布局图文并茂,全彩印刷装帧精美。

“蒲公英书”的由来:

在封面上专门设计了蒲公英图案,寓意是希望这本教材能够帮助更多的学生进入深度学习以及人工智能领域,他们会为人工智能领域注入新的生机与活力。

——邱锡鹏

内容提要


本书是深度学习领域的入门教材,系统地整理了深度学习的知识体系,并由浅入深地阐述了深度学习的原理、模型以及方法,使得读者能全面地掌握深度学习的相关知识,并提高以深度学习技术来解决实际问题的能力。
全书共15章,分为三个部分。

  • 首部分为机器学习基础:章是绪论,介绍人工智能、机器学习、深度学习的概要,使读者全面了解相关知识;第2~3章介绍机器学习的基础知识。
  • 第二部分是基础模型:第4~6章分别讲述三种主要的神经网络模型:前馈神经网络、卷积神经网络和循环神经网络;第7章介绍神经网络的优化与正则化方法;第8章介绍神经网络中的注意力机制和外部记忆;第9章简要介绍一些无监督学习方法;0章介绍一些模型独立的机器学习方法,包括集成学习、自训练、协同训练、多任务学习、迁移学习、终身学习、元学习等。
  • 第三部分是进阶模型:1章介绍概率图模型的基本概念,为后面的章节进行铺垫;2章介绍两种早期的深度学习模型:玻尔兹曼机和深度信念网络;3章介绍深度生成模型,包括变分自编码器和生成对抗网络;4章介绍深度强化学习;5章介绍应用十分广泛的序列生成模型。

本书可作为高等院校人工智能、计算机、自动化、电子和通信等相关的研究生或本科生教材,也可供相关领域的研究人员和工程技术人员参考。
本书还配备了教学PPT、编程练习以及课后习题的讨论,

获取方式:

1.关注“华章计算机”(号:hzbook_jsj)

2.在后台回复关键词:蒲公英书

目录


前言

常用符号表

部分 机器学习基础

章 绪论3

1.1人工智能...............................4

1.1.1人工智能的发展历史....................5

1.1.2人工智能的流派.......................7

1.2机器学习...............................7

1.3表示学习...............................8

1.3.1局部表示和分布式表示...................9

1.3.2表示学习...........................11

1.4深度学习...............................11

1.4.1端到端学习..........................12

1.5神经网络...............................13

1.5.1人脑神经网络........................13

1.5.2人工神经网络........................14

1.5.3神经网络的发展历史....................15

1.6本书的知识体系...........................17

1.7常用的深度学习框架.........................18

1.8总结和深入阅读...........................20

第2章 机器学习概述23

2.1基本概念...............................24

2.2机器学习的三个基本要素......................26

2.2.1模型..............................26

2.2.2学习准则...........................27

2.2.3优化算法...........................30

2.3机器学习的简单示例——线性回归.................33

2.3.1参数学习...........................34

2.4偏差-方差分解............................38

2.5机器学习算法的类型.........................41

2.6数据的特征表示...........................43

2.6.1传统的特征学习.......................44

2.6.2深度学习方法........................46

2.7评价指标...............................46

2.8理论和定理..............................49

2.8.1PAC学习理论........................49

2.8.2没有免费午餐定理......................50

2.8.3奥卡姆剃刀原理.......................50

2.8.4丑小鸭定理..........................51

2.8.5归纳偏置...........................51

2.9总结和深入阅读...........................51

第3章 线性模型

3.1线性判别函数和决策边界......................56

3.1.1二分类............................56

3.1.2多分类............................58

3.2Logistic回归.............................59

3.2.1参数学习...........................60

3.3Softmax回归.............................61

3.3.1参数学习...........................62

3.4感知器.................................64

3.4.1参数学习...........................64

3.4.2感知器的收敛性.......................66

3.4.3参数平均感知器.......................67

3.4.4扩展到多分类........................69

3.5支持向量机..............................71

3.5.1参数学习...........................73

3.5.2核函数............................74

3.5.3软间隔............................74

3.6损失函数对比.............................75

3.7总结和深入阅读...........................76

第二部分 基础模型

第4章 前馈神经网络81

4.1神经元.................................82

4.1.1Sigmoid型函数.......................83

4.1.2ReLU函数..........................86

4.1.3Swish函数..........................88

4.1.4GELU函数..........................89

4.1.5Maxout单元.........................89

4.2网络结构...............................90

4.2.1前馈网络...........................90

4.2.2记忆网络...........................90

4.2.3图网络............................90

4.3前馈神经网络.............................91

4.3.1通用近似定理........................93

4.3.2应用到机器学习.......................94

4.3.3参数学习...........................95

4.4反向传播算法.............................95

4.5自动梯度计算.............................98

4.5.1数值微分...........................99

4.5.2符号微分...........................99

4.5.3自动微分...........................100

4.6优化问题...............................103

4.6.1非凸优化问题........................103

4.6.2梯度消失问题........................104

4.7总结和深入阅读...........................104

第5章 卷积神经网络109

5.1卷积..................................110

5.1.1卷积的定义..........................110

5.1.2互相关............................112

5.1.3卷积的变种..........................113

5.1.4卷积的数学性质.......................114

5.2卷积神经网络.............................115

5.2.1用卷积来代替全连接....................115

5.2.2卷积层............................116

5.2.3汇聚层............................118

5.2.4卷积网络的整体结构....................119

5.3参数学习...............................120

5.3.1卷积神经网络的反向传播算法...............120

5.4几种典型的卷积神经网络......................121

5.4.1LeNet-5............................122

5.4.2AlexNet...........................123

5.4.3Inception网络........................125

5.4.4残差网络...........................126

5.5其他卷积方式.............................127

5.5.1转置卷积...........................127

5.5.2空洞卷积...........................129

5.6总结和深入阅读...........................130

第6章 循环神经网络133

6.1给网络增加记忆能力.........................134

6.1.1神经网络........................134

6.1.2有外部输入的非线性自回归模型..............134

6.1.3循环神经网络........................135

6.2简单循环网络.............................135

6.2.1循环神经网络的计算能力..................136

6.3应用到机器学习...........................138

6.3.1序列到类别模式.......................138

6.3.2同步的序列到序列模式...................139

6.3.3异步的序列到序列模式...................139

6.4参数学习...............................140

6.4.1随时间反向传播算法....................141

6.4.2实时循环学习算法......................142

6.5长程依赖问题.............................143

6.5.1改进方案...........................144

6.6基于门控的循环神经网络......................145

6.6.1长短期记忆网络.......................145

6.6.2LSTM网络的各种变体...................147

6.6.3门控循环单元网络......................148

6.7深层循环神经网络..........................149

6.7.1堆叠循环神经网络......................150

6.7.2双向循环神经网络......................150

6.8扩展到图结构.............................151

6.8.1递归神经网络........................151

6.8.2图神经网络..........................152

6.9总结和深入阅读...........................153

第7章 网络优化与正则化157

7.1网络优化...............................157

7.1.1网络结构多样性.......................158

7.1.2高维变量的非凸优化....................158

7.1.3神经网络优化的改善方法..................160

7.2优化算法...............................160

7.2.1小批量梯度下降.......................160

7.2.2批量大小选择........................161

7.2.3学习率调整..........................162

7.2.4梯度估计修正........................167

7.2.5优化算法小结........................170

7.3参数初始化..............................171

7.3.1基于固定方差的参数初始化.................172

7.3.2基于方差缩放的参数初始化.................173

7.3.3正交初始化..........................175

7.4数据预处理..............................176

7.5逐层归一化..............................178

7.5.1批量归一化..........................179

7.5.2层归一化...........................181

7.5.3权重归一化..........................182

7.5.4局部响应归一化.......................182

7.6参数优化..............................183

7.6.1网格搜索...........................183

7.6.2搜索...........................184

7.6.3贝叶斯优化..........................184

7.6.4动态资源分配........................185

7.6.5神经架构搜索........................186

7.7网络正则化..............................186

7.7.1?1和?2正则化........................187

7.7.2权重衰减...........................188

7.7.3提前停止...........................188

7.7.4丢弃法............................189

7.7.5数据增强...........................191

7.7.6标签平滑...........................191

7.8总结和深入阅读...........................192

第8章 注意力机制与外部记忆197

8.1认知神经学中的注意力.......................198

8.2注意力机制..............................199

8.2.1注意力机制的变体......................201

8.3自注意力模型.............................203

8.4人脑中的记忆.............................205

8.5记忆增强神经网络..........................207

8.5.1端到端记忆网络.......................208

8.5.2神经图灵机..........................210

8.6基于神经动力学的联想记忆.....................211

8.6.1Hopfiel网络........................212

8.6.2使用联想记忆增加网络容量.................215

8.7总结和深入阅读...........................215

第9章 无监督学习219

9.1无监督特征学习...........................220

9.1.1主成分分析..........................220

9.1.2稀疏编码...........................222

9.1.3自编码器...........................224

9.1.4稀疏自编码器........................225

9.1.5堆叠自编码器........................226

9.1.6降噪自编码器........................226

9.2概率密度估计.............................227

9.2.1参数密度估计........................227

9.2.2非参数密度估计.......................229

9.3总结和深入阅读...........................232

0章 模型独立的学习方式235

10.1集成学习...............................235

10.1.1AdaBoost算法........................237

10.2自训练和协同训练..........................240

10.2.1自训练............................240

10.2.2协同训练...........................240

10.3多任务学习..............................242

10.4迁移学习...............................245

10.4.1归纳迁移学习........................246

10.4.2转导迁移学习........................247

10.5终身学习...............................249

10.6元学习.................................252

10.6.1基于优化器的元学习....................253

10.6.2模型无关的元学习......................254

10.7总结和深入阅读...........................255

第三部分 进阶模型

1章 概率图模型261

11.1模型表示...............................262

11.1.1有向图模型..........................263

11.1.2常见的有向图模型......................264

11.1.3无向图模型..........................267

11.1.4无向图模型的概率分解...................267

11.1.5常见的无向图模型......................269

11.1.6有向图和无向图之间的转换.................270

11.2学习..................................271

11.2.1不含隐变量的参数估计...................271

11.2.2含隐变量的参数估计....................273

11.3推断..................................279

11.3.1推断...........................279

11.3.2近似推断...........................282

11.4变分推断...............................283

11.5基于采样法的近似推断.......................285

11.5.1采样法............................285

11.5.2拒绝采样...........................287

11.5.3重要性采样..........................288

11.5.4马尔可夫链蒙特卡罗方法..................289

11.6总结和深入阅读...........................292

2章 深度信念网络297

12.1玻尔兹曼机..............................297

12.1.1生成模型...........................299

12.1.2能量 小化与模拟退火...................301

12.1.3参数学习...........................302

12.2受限玻尔兹曼机...........................304

12.2.1生成模型...........................305

12.2.2参数学习...........................307

12.2.3受限玻尔兹曼机的类型...................308

12.3深度信念网络.............................309

12.3.1生成模型...........................310

12.3.2参数学习...........................310

12.4总结和深入阅读...........................313

3章 深度生成模型317

13.1概率生成模型.............................318

13.1.1密度估计...........................318

13.1.2生成样本...........................319

13.1.3应用于监督学习.......................319

13.2变分自编码器.............................319

13.2.1含隐变量的生成模型....................319

13.2.2推断网络...........................321

13.2.3生成网络...........................323

13.2.4模型汇总...........................323

13.2.5再参数化...........................325

13.2.6训练..............................325

13.3生成对抗网络.............................327

13.3.1显式密度模型和隐式密度模型...............327

13.3.2网络分解...........................327

13.3.3训练..............................329

13.3.4一个生成对抗网络的具体实现:DCGAN..........330

13.3.5模型分析...........................330

13.3.6改进模型...........................333

13.4总结和深入阅读...........................336

4章 深度强化学习339

14.1强化学习问题.............................340

14.1.1典型例子...........................340

14.1.2强化学习定义........................340

14.1.3马尔可夫决策过程......................341

14.1.4强化学习的目标函数....................343

14.1.5值函数............................344

14.1.6深度强化学习........................345

14.2基于值函数的学习方法.......................346

14.2.1动态规划算法........................346

14.2.2蒙特卡罗方法........................349

14.2.3时序差分学习方法......................350

14.2.4深度Q网络..........................353

14.3基于策略函数的学习方法......................354

14.3.1REINFORCE算法......................356

14.3.2带基准线的REINFORCE算法...............356

14.4演员-评论员算法...........................358

14.5总结和深入阅读...........................360

5章 序列生成模型365

15.1序列概率模型.............................366

15.1.1序列生成...........................367

15.2N元统计模型.............................368

15.3深度序列模型.............................370

15.3.1模型结构...........................370

15.3.2参数学习...........................373

15.4评价方法...............................373

15.4.1困惑度............................373

15.4.2BLEU算法..........................374

15.4.3ROUGE算法.........................375

15.5序列生成模型中的学习问题.....................375

15.5.1曝光偏差问题........................376

15.5.2训练目标不一致问题....................377

15.5.3计算效率问题........................377

15.6序列到序列模型...........................385

15.6.1基于循环神经网络的序列到序列模型...........386

15.6.2基于注意力的序列到序列模型...............387

15.6.3基于自注意力的序列到序列模型..............388

15.7总结和深入阅读...........................390

附录数学基础 393

附录A 线性代数 394

附录B 微积分 404

附录C 数学优化 413

附录D 概率论 420

附录E 信息论 433

索引 439

作者介绍


邱锡鹏

复旦大学计算机科学技术学院教授、博士生导师,于复旦大学获得理学学士和博士学位。主要研究领域包括自然语言处理、机器学习、深度学习等,在相关领域的国际期刊、会议上发表学术论文60余篇,获得计算语言学国际会议ACL 2017杰出论文奖、全国计算语言学会议CCL 2019论文奖,2015年入选首届中国科协青年人才托举工程,2018年获得中国中文信息学会“钱伟长中文信息处理科学技术奖青年创新一等奖”,入选由“清华—中国工程院知识智能联合研究中心和清华大学人工智能研究院”联合发布的2020年人工智能(AI)影响力学者提名。该排名参考过去十年人工智能各子领域 有影响力的会议和期刊发表论文的引用情况,排名前10的学者当选该领域当年影响力学者奖,排名前100的其他学者获影响力学者提名奖。作为项目负责人开源发布了两个自然语言处理开源系统FudanNLP和FastNLP,获得了学术界和产业界的广泛使用。目前担任中国中文信息学会青年工作委员会执行委员、计算语言学专委会委员、语言与知识计算专委会委员,中国人工智能学会青年工作委员会常务委员、自然语言理解专委会委员。

序言



^_^:ab816633066b96c77f6c2887af0e1fce

^_^:70b2b9640303759ff98e847dcd078bcf

^_^:889f1c569340eecc6c4b003d43516a81