深度学习基础与实践pdf下载

深度学习基础与实践百度网盘pdf下载

作者:
简介:深度学习基础与实践
出版社:人民邮电出版社有限公司
出版时间:2019-07-01
pdf下载价格:0.00¥

免费下载


书籍下载


内容介绍

编辑推荐
  “这就是我一直在寻找的书,它涵盖了AI开发会用到的几乎所有方法。”“这本书着重于深度学习模型的应用,并通过清晰易懂的方式来呈现。”
内容简介
  本书是由两位技术出身的企业管理者编写的深度学习普及书。本书的前四章提供了足够的关于深度学习的理论知识,包括机器学习的基本概念、神经网络基础、从神经网络到深度网络的演化历程,以及主流的深度网络架构,为读者阅读本书剩余内容打下基础。后五章带领读者进行一系列深度学习的实践,包括建立深层网络、调优技术、各种数据类型的向量化和在Spark上运行深度学习工作流。
作者简介
  Josh Patterson是Skymind公司副总裁,曾任Cloudera公司通用解决方案架构师、田纳西河流域管理局机器学习与分布式系统工程师。Adam Gibson是Skymind公司CTO,在帮助公司处理和解析大量实时数据方面经验丰富
目录
O'Reilly Media, Inc. 介绍
献词
前言
第 1 章 机器学习回顾
第 2 章 神经网络基础与深度学习
第 3 章 深度网络基础
第 4 章 深度网络的主要架构
第 5 章 建立深度网络
第 6 章 深度网络调优
第 7 章 调优特定的深度网络架构
第 8 章 向量化
第 9 章 在Spark上使用深度学习和DL4J
附录 A 人工智能是什么
附录 B RL4J 与强化学习
附录 C 每个人都需要了解的数字
附录 D 神经网络和反向传播:数学方法
附录 E 使用ND4J API
附录 F 使用DataVec
附录 G 从源代码构建DL4J
附录 H 设置DL4J项目
附录 I 为DL4J项目设置GPU
附录 J 解决DL4J安装上的问题
关于作者
关于
精彩书摘
  单人游戏可以很自然地被翻译成MDP(the moment during which the player is in control)。状态代表玩家控制的时刻,来自这些状态的观测值是状态之间累积的所有信息(例如控制帧之间所有的像素帧),动作是玩家可以使用的所有命令(在Doom游戏中是上、右、左、射击等)。
  强化学习也可以自己玩对抗游戏:代理和自身对抗。在这种环境中,经常会存在纳什均衡,这样一来,你的对手就像一个完美的玩家,它总是符合你的兴趣。以对其有意义的国际象棋为例。给定一个棋盘布局,对阵一位象棋大师的一步好棋对于初学者来说依然是一步好棋。不管代理目前的水平如何,通过和自己比赛,代理依然能够知道它之前移动的质量(如果它赢了,就视为好动作,如果它输了,则视为坏动作)。
  当然,如果从一开始就直接与一个非常好的代理较量,那么在神经网络的上下文中梯度信息的质量更高。但是,一个代理可以通过和自己,一个同样水平的代理比赛来学习提高自己的水平,这真是令人惊讶。这实际上是 AlphaGo(来自DeepMind公司,击败了世界冠军的围棋代理)采用的训练方法。该策略以大师下棋的数据集为起点(最初训练),之后它使用强化学习以及与自己下棋的方式来进一步提高水平(用Elo算法评分量化),最后代理变得比它从原始数据集中学到的策略更好,毕竟它战胜了大师。为了计算最终的策略,AlphaGo团队动用巨大的计算能力,并将策略梯度与蒙特卡洛搜索树相结合。
  这个设置与从像素学习有点不同。首先,因为输入没有高维,所以流形更接近它的嵌入空间。然而在这种情况下,仍然使用卷积层来高效利用一些子网格棋盘布局的局部性。再则,因为AlphaGo不是无模型的(它是确定性的)。