深入理解神经网络pdf下载pdf下载

深入理解神经网络百度网盘pdf下载

作者:
简介:本篇主要提供深入理解神经网络pdf下载
出版社:博库网旗舰店
出版时间:2019-09
pdf下载价格:0.00¥

免费下载


书籍下载


内容介绍

基本信息

  • 商品名称:深入理解神经网络(从逻辑回归到CNN)
  • 作者:张觉非
  • 定价:89
  • 出版社:人民邮电
  • ISBN号:9787115517234

其他参考信息(以实物为准)

  • 出版时间:2019-09-01
  • 印刷时间:2019-09-01
  • 版次:1
  • 印次:1
  • 开本:16开
  • 包装:平装
  • 页数:310
  • 字数:479千字

内容提要

本书以神经网络为线索,沿着从线性模型到深度学习的路线讲解神经网络的原理和实现。本书将数学基础知识与机器学习和神经网络紧密结合,包含线性模型的结构与局限、损失函数、基于一阶和二阶信息的优化算法、模型自由度与正则化、神经网络的表达能力、反向传播与计算图自动求导、卷积神经网络等主题,帮助读者建立基于数学原理的较深刻的洞见和认知。本书还提供了逻辑回归、多层全连接神经网络和多种训练算法的Python实现,以及运用TensorFlow搭建和训练多种卷积神经网络的代码实例。

作者简介

张觉非,本科毕业于复旦大学计算机系,于 古脊椎动物与古人类研究所取得古生物学硕士学位,目前在互联网行业从事机器学习算法相关工作。

目录

第 一部分 线性模型
第 1章 逻辑回归2
1.1 作为一个神经元的逻辑回归2
1.2 基础向量几何4
1.2.1 向量4
1.2.2 向量的和、数乘与零向量6
1.2.3 向量的内积、模与投影8
1.2.4 线性空间、基与线性函数11
1.2.5 直线、超平面与仿射函数14
1.3 从几何角度理解逻辑回归的能力 和局限17
1.4 实例:根据鸟类骨骼判断生态类群20
1.5 小结24
第 2章 模型评价与损失函数25
2.1 训练集与测试集25
2.2 分类模型的评价26
2.2.1 混淆矩阵26
2.2.2 正确率27
2.2.3 查准率27
2.2.4 查全率27
2.2.5 ROC曲线28
2.3 损失函数29
2.3.1 K-L散度与交叉熵29
2.3.2  大似然估计31
2.3.3 从几何角度理解交叉熵损失33
2.4 小结35
第3章 梯度下降法36
3.1 多元函数的微分36
3.1.1 梯度37
3.1.2 方向导数40
3.1.3 偏导数43
3.1.4 驻点43
3.1.5 局部极小点44
3.2 梯度下降法46
3.2.1 反梯度场47
3.2.2 梯度下降法49
3.2.3 梯度下降法的问题50
3.3 梯度下降法的改进52
3.3.1 学习率调度52
3.3.2 冲量法54
3.3.3 AdaGrad55
3.3.4 RMSProp56
3.3.5 Adam57
3.4 运用梯度下降法训练逻辑回归59
3.5 梯度下降法训练逻辑回归的Python 实现61
3.6 小结67
第4章  梯度下降68
4.1 矩阵68
4.1.1 矩阵基础68
4.1.2 矩阵的逆71
4.1.3 特征值与特征向量73
4.1.4 对称矩阵的谱分解74
4.1.5 奇异值分解76
4.1.6 二次型77
4.2 多元函数的局部二阶特性79
4.2.1 赫森矩阵79
4.2.2 二阶泰勒展开79
4.2.3 驻点的类型82
4.2.4 赫森矩阵的条件数84
4.3 基于二阶特性的优化87
4.3.1 牛顿法87
4.3.2 共轭方向法92
4.4 运用牛顿法训练逻辑回归95
4.5 牛顿法训练逻辑回归的Python实现98
4.6 小结100
第5章 正则化102
5.1 概率论回顾102
5.1.1 随机变量102
5.1.2 多元随机变量105
5.1.3 多元随机变量的期望和协方差 矩阵106
5.1.4 样本均值和样本协方差矩阵106
5.1.5 主成分108
5.1.6 正态分布111
5.2 模型自由度与偏置 方差权衡115
5.2.1  小二乘线性回归116
5.2.2 模型自由度118
5.2.3 偏置 方差权衡119
5.3 正则化122
5.3.1 岭回归与L2正则化122
5.3.2 L2正则化的贝叶斯视角125
5.3.3 L1正则化126
5.4 过拟合与欠拟合127
5.5 运用L2正则化训练逻辑回归130
5.6 运用L2正则化训练逻辑回归的 Python实现132
5.7 小结135
第二部分 神经网络
第6章 神经网络138
6.1 合作的神经元138
6.2 多层全连接神经网络142
6.3 激活函数145
6.3.1 Linear145
6.3.2 Logistic146
6.3.3 Tanh148
6.3.4 ReLU150
6.3.5 Leaky ReLU以及PReLU151
6.3.6 SoftPlus153
6.4 多分类与SoftMax154
6.5 小结157
第7章 反向传播158
7.1 映射158
7.1.1 仿射映射158
7.1.2 雅可比矩阵159
7.1.3 链式法则160
7.2 反向传播162
7.2.1 网络的符号表示162
7.2.2 原理163
7.2.3 实现166
7.3 相关问题169
7.3.1 计算量169
7.3.2 梯度消失170
7.3.3 正则化170
7.3.4 权值初始化171
7.3.5 提前停止171
7.4 多层全连接神经网络的Python实现173
7.5 小结182
第8章 计算图183
8.1 计算图模型183
8.1.1 简介183
8.1.2 多层全连接神经网络的计算 图187
8.1.3 其他神经网络结构的计算图188
8.2 自动求导190
8.3 自动求导的实现192
8.4 计算图的Python实现195
8.5 小结214
第9章 卷积神经网络215
9.1 卷积215
9.1.1 一元函数的卷积215
9.1.2 多元函数的卷积219
9.1.3 滤波器223
9.2 卷积神经网络的组件228
9.2.1 卷积层228
9.2.2 激活层230
9.2.3 池化层231
9.2.4 全连接层233
9.2.5 跳跃连接234
9.3 深度学习的正则化方法236
9.3.1 权值衰减236
9.3.2 Dropout237
9.3.3 权值初始化237
9.3.4 批标准化238
9.3.5 数据增强239
9.4 小结239
第 10章 经典CNN241
10.1 LeNet-5241
10.2 AlexNet245
10.3 VGGNet248
10.4 GoogLeNet251
10.5 ResNet255
10.6 小结257
第 11章 TensorFlow实例258
11.1 多分类逻辑回归258
11.2 多层全连接神经网络266
11.3 LeNet-5269
11.4 AlexNet273
11.5 VGG16277
11.4 小结280
附录A CNN与元胞自动机281
参考文献311