机器学习实战:基于Scikit-Learn和TensorFlowpdf下载

机器学习实战:基于Scikit-Learn和TensorFlow第2版百度网盘pdf下载

作者:
简介:机器学习实战:基于Scikit-Learn和TensorFlow
出版社:
出版时间:2018-08
pdf下载价格:9.00¥


预览


内容介绍

产品特色

编辑推荐

适读人群 :1.对机器学习、人工智能感兴趣的读者;2.对计算机视觉、深度学习感兴趣的读者;3.从事软件研发的技术工作者。

本书作者曾经是谷歌工程师,在2013年至2016年主导了YouTube的视频分类工程,拥有丰富的机器学习项目经验。与同类书相比,本书的独特之处在于,从开发者的实践角度,通过具体的例子、较少的理论和两个产品级的Python框架——-Scikit-learn 和 Tensorflow,使你在动手写代码的过程中,就可以循序渐进地了解机器学习的理论知识和工具的实践技巧,快速上手机器学习项目。此外,每章都配有习题来帮助你应用学到的知识,你所需要的只是一点编程经验。


配套代码下载:

1、微信关注“华章计算机”
2、在后台回复关键词:火蜥蜴书


内容简介

本书主要分为两部分,第一部分(第1~8章)涵盖机器学习的基础理论知识和基本算法,从线性回归到随机森林等,可以帮助你掌握Scikit-Learn的常用方法;第二部份(第9~16章)探讨深度学习和常用框架TensorFlow,手把手教你使用TensorFlow搭建和训练深度神经网络,以及卷积神经网络。


配套代码下载:

1、微信关注“华章计算机”
2、在后台回复关键词:火蜥蜴书


作者简介

奥雷利安·杰龙(Aurélien Géron)是机器学习方面的顾问。他曾是Google软件工程师,在2013年到2016年主导了YouTube视频分类工程。2002年和2012年,他还是Wifirst公司(一家法国的无线ISP)的创始人和首席技术官,2001年是Ployconseil公司(现在管理电动汽车共享服务Autolib)的创始人和首席技术官。


精彩书评

本书是对使用神经网络来解决问题的理论和实践的一个很好的介绍。它涵盖了你建立高效应用的关键点,以及足够的背景知识以应对新研究的出现。 我推荐这本书给有兴趣学习用机器学习来解决实际问题的人。
—— Pete Warden,TensorFlow移动端负责人

目录

前言1

第一部分 机器学习基础

第1章 机器学习概览11

什么是机器学习12

为什么要使用机器学习12

机器学习系统的种类15

监督式/无监督式学习16

批量学习和在线学习21

基于实例与基于模型的学习24

机器学习的主要挑战29

训练数据的数量不足29

训练数据不具代表性30

质量差的数据32

无关特征32

训练数据过度拟合33

训练数据拟合不足34

退后一步35

测试与验证35

练习37

第2章 端到端的机器学习项目39

使用真实数据39

观察大局40

框架问题41

选择性能指标42

检查假设45

获取数据45

创建工作区45

下载数据48

快速查看数据结构49

创建测试集52

从数据探索和可视化中获得洞见56

将地理数据可视化57

寻找相关性59

试验不同属性的组合61

机器学习算法的数据准备62

数据清理63

处理文本和分类属性65

自定义转换器67

特征缩放68

转换流水线68

选择和训练模型70

培训和评估训练集70

使用交叉验证来更好地进行评估72

微调模型74

网格搜索74

随机搜索76

集成方法76

分析最佳模型及其错误76

通过测试集评估系统77

启动、监控和维护系统78

试试看79

练习79

第3章 分类80

MNIST80

训练一个二元分类器82

性能考核83

使用交叉验证测量精度83

混淆矩阵84

精度和召回率86

精度/召回率权衡87

ROC曲线90

多类别分类器93

错误分析95

多标签分类98

多输出分类99

练习100

第4章 训练模型102

线性回归103

标准方程104

计算复杂度106

梯度下降107

批量梯度下降110

随机梯度下降112

小批量梯度下降114

多项式回归115

学习曲线117

正则线性模型121

岭回归121

套索回归123

弹性网络125

早期停止法126

逻辑回归127

概率估算127

训练和成本函数128

决策边界129

Softmax回归131

练习134

第5章 支持向量机136

线性SVM分类136

软间隔分类137

非线性SVM分类139

多项式核140

添加相似特征141

高斯RBF核函数142

计算复杂度143

SVM回归144

工作原理145

决策函数和预测146

训练目标146

二次规划148

对偶问题149

核化SVM149

在线SVM151

练习152

第6章 决策树154

决策树训练和可视化154

做出预测155

估算类别概率157

CART训练算法158

计算复杂度158

基尼不纯度还是信息熵159

正则化超参数159

回归161

不稳定性162

练习163

第7章 集成学习和随机森林165

投票分类器165

bagging和pasting168

Scikit-Learn的bagging和pasting169

包外评估170

Random Patches和随机子空间171

随机森林172

极端随机树173

特征重要性173

提升法174

AdaBoost175

梯度提升177

堆叠法181

练习184

第8章 降维185

维度的诅咒186

数据降维的主要方法187

投影187

流形学习189

PCA190

保留差异性190

主成分191

低维度投影192

使用Scikit-Learn192

方差解释率193

选择正确数量的维度193

PCA压缩194

增量PCA195

随机PCA195

核主成分分析196

选择核函数和调整超参数197

局部线性嵌入199

其他降维技巧200

练习201

第二部分 神经网络和深度学习

第9章 运行TensorFlow205

安装207

创建一个计算图并在会话中执行208

管理图209

节点值的生命周期210

TensorFlow中的线性回归211

实现梯度下降211

手工计算梯度212

使用自动微分212

使用优化器214

给训练算法提供数据214

保存和恢复模型215

用TensorBoard来可视化图和训练曲线216

命名作用域219

模块化220

共享变量222

练习225

第10章 人工神经网络简介227

从生物神经元到人工神经元227

生物神经元228

具有神经元的逻辑计算229

感知器230

多层感知器和反向传播233

用TensorFlow的高级API来训练MLP236

使用纯TensorFlow训练DNN237

构建阶段237

执行阶段240

使用神经网络241

微调神经网络的超参数242

隐藏层的个数242

每个隐藏层中的神经元数243

激活函数243

练习244

第11章 训练深度神经网络245

梯度消失/爆炸问题245

Xavier初始化和He初始化246

非饱和激活函数248

批量归一化250

梯度剪裁254

重用预训练图层255

重用TensorFlow模型255

重用其他框架的模型256

冻结低层257

缓存冻结层257

调整、丢弃或替换高层258

模型动物园258

无监督的预训练259

辅助任务中的预训练260

快速优化器261

Momentum优化261

Nesterov梯度加速262

AdaGrad263

RMSProp265

Adam优化265

学习速率调度267

通过正则化避免过度拟合269

提前停止269

1和2正则化269

dropout270

最大范数正则化273

数据扩充274

实用指南275

练习276

第12章 跨设备和服务器的分布式TensorFlow279

一台机器上的多个运算资源280

安装280

管理GPU RAM282

在设备上操作284

并行执行287

控制依赖288

多设备跨多服务器288

开启一个会话290

master和worker服务290

分配跨任务操作291

跨多参数服务器分片变量291

用资源容器跨会话共享状态292

使用TensorFlow队列进行异步通信294

直接从图中加载数据299

在TensorFlow集群上并行化神经网络305

一台设备一个神经网络305

图内与图间复制306

模型并行化308

数据并行化309

练习314

第13章 卷积神经网络315

视觉皮层的组织结构315

卷积层317

过滤器318

多个特征图的叠加319

TensorFlow实现321

内存需求323

池化层323

CNN架构325

LeNet-5326

AlexNet327

GoogLeNet328

ResNet331

练习334

第14章 循环神经网络337

循环神经元337

记忆单元339

输入和输出序列340

TensorFlow中的基本RNN341

通过时间静态展开342

通过时间动态展开344

处理长度可变输入序列344

处理长度可变输出序列345

训练RNN346

训练序列分类器346

训练预测时间序列348

创造性的RNN352

深层RNN353

在多个GPU中分配一个深层RNN354

应用丢弃机制355

多个时间迭代训练的难点356

LSTM单元357

窥视孔连接359

GRU单元359

自然语言处理361

单词嵌入361

用于机器翻译的编码器-解码器网络362

练习364

第15章 自动编码器366

高效的数据表示366

使用不完整的线性自动编码器实现PCA368

栈式自动编码器369

TensorFlow实现370

权重绑定371

一次训练一个自动编码器372

重建可视化374

特征可视化375

使用堆叠的自动编码器进行无监控的预训练376

去噪自动编码器377

TensorFlow 实现378

稀疏自动编码器379

TensorFlow 实现380

变分自动编码器381

生成数字384

其他自动编码器385

练习386

第16章 强化学习388

学习奖励最优化389

策略搜索390

OpenAI gym 介绍391

神经网络策略394

评估行为:信用分配问题396

策略梯度397

马尔可夫决策过程401

时间差分学习与Q学习405

探索策略406

逼近Q学习407

使用深度Q学习玩吃豆人游戏407

练习414

致谢415

附录A 练习答案416

附录B 机器学习项目清单438

附录C SVM对偶问题444

附录D 自动微分447

附录E 其他流行的ANN架构453

前言/序言

译者序

随着AlphaGo在人机大战中一举成名,关于机器学习的研究开始广受关注,数据科学家也一跃成为“21世纪最性感的职业”。关于机器学习和神经网络的广泛应用虽然兴起不久,但是对这两个密切关联的领域的研究其实已经持续了好几十年,早已形成了系统化的知识体系。对于想要踏入机器学习领域的初学者而言,理论知识的获取并非难事。

本书作者Aurélien Géron曾经是谷歌工程师,在2013年至2016年,主导了YouTube的视频分类工程,拥有丰富的机器学习项目经验。作者的写作初衷是希望从实践出发,手把手地帮助开发者从零开始搭建起一个神经网络。这也正构成了本书区别于其他机器学习教程的最重要的特质—不再偏向于原理研究的角度,而是从开发者的实践角度出发,在动手写代码的过程中,循序渐进地了解机器学习的理论知识和工具的实践技巧。对于想要快速上手机器学习的开发者来说,本书不啻为一个非常值得尝试的起点项目。

本书主要分为两个部分。第一部分为第1~8章,涵盖机器学习的基础理论知识和基本算法—从线性回归到随机森林等,帮助读者掌握Scikit-Learn的常用方法;第二部分为第9~16章,探讨深度学习和常用框架TensorFlow,一步一个脚印地带领读者使用TensorFlow搭建和训练深度神经网络,以及卷积神经网络。

书中涉及不少数学公式,作者对抽象的公式背后的含义也都一一做出了阐释,因此即便是对数学不敏感的初学者,也同样能够理解机器学习任务的实质。

书中所涉及的专业术语与概念较多,部分概念及术语尚无公认的中文译法,因此我们较多地参考了网络上和研究论文中常用的译法,若有不适合读者朋友的术语,可根据原词确认其原始词意。在翻译过程中虽然力求准确地反映原著内容,但由于译者水平有限,如有错漏之处,恳请读者批评指正。

本书译者均来自于ThoughtWorks咨询公司,王静源翻译了第1~8章,贾玮翻译了第13~16章,边蕤翻译了第11章和第12章,邱俊涛翻译了第9章和第10章,并对全书译文进行校对和最后定稿。

最后要感谢华章公司的编辑,他们为保证本书的质量做出了大量的编辑和校正工作,在此深表谢意。


译者

2018年3月