Java性能优化权威指南pdf下载pdf下载

Java性能优化权威指南百度网盘pdf下载

作者:
简介:本篇主要提供Java性能优化权威指南pdf下载
出版社:出版集团图书专营店
出版时间:2014-03
pdf下载价格:0.00¥

免费下载


书籍下载


内容介绍

基本信息

  • 商品名称:Java性能优化 指南/图灵程序设计丛书
  • 作者:(美)亨特//约翰|译者:柳飞//陆明刚
  • 定价:109
  • 出版社:人民邮电
  • ISBN号:9787115342973

其他参考信息(以实物为准)

  • 出版时间:2014-03-01
  • 印刷时间:2014-03-01
  • 版次:1
  • 印次:1
  • 开本:16开
  • 包装:平装
  • 页数:525
  • 字数:799千字

内容提要

亨特、约翰编著的《Java性能优化 指南》主 要为Java SE和Java EE应用的性能调优提供建议。主 要包括以下几方面:性能监控、性能分析、Java HotSpot VM调优、高效的基准测试以及Java EE应用 的性能调优。
     《Java性能优化 指南》适合所有Java程序员 、系统调优师和系统架构师阅读。

作者简介

陆明刚,毕业于四川大学,近十年大型软件研发测试经验。现任易安信中国 中心 软件工程师,曾任趋势科技中国软件研发中心技术经理。关注JVM性能调优和大数据,喜欢挖掘技术背后的内幕,并乐此不疲。 柳飞,毕业于中国科学技术大学和复旦大学。现为上海爱科生信息技术有限公司工程师,曾任OOCL ISD工程师。目前主要关注的领域为MySQL和分布式计算。十年码农两忙忙,不coding,自难忘。徒步及跑步业余凑热闹者,中度拖延症患者。 Binu John,世界 大社交网站创建平台Nitlg.com的 性能工程师。他目前的职责是着力改善Ning平台的性能和扩展性,以支持每月数百万PV的访问量。Binu拥有美国爱荷华大学生物医学工程和计算机科学硕士学位。 CharIie Hunt,现任Salesforce公司性能工程架构师。曾任Oracle公司首席JVM性能工程师,负责HotSpot Java虚拟机和Java SE类库性能的改进。Charlie拥有美国伊利诺伊理工大学的计算机科学硕士学位、爱荷华州立大学的计算机科学学士学位。

目录

第1章 策略、方法和方法论 1
1.1 性能问题的现状 1
1.2 性能分析的两种方法:自顶向下和自底向上 4
1.2.1 自顶向下 4
1.2.2 自底向上 5
1.3 选择正确的平台并评估系统性能 5
1.3.1 选择正确的CPU架构 6
1.3.2 评估系统性能 7
1.4 参考资料 7

第2章 操作系统性能监控 8
2.1 定义 8
2.2 CPU使用率 9
2.2.1 监控CPU使用率:Windows 9
2.2.2 监控CPU使用率:Windows typeperf 12
2.2.3 监控CPU使用率:Linux 13
2.2.4 监控CPU使用率:Solaris 14
2.2.5 命令行监控CPU使用率:Linux和Solaris 16
2.3 CPU调度程序运行队列 19
2.3.1 监控CPU调度程序运行队列:Windows 19
2.3.2 监控CPU调度程序运行队列:Solaris 21
2.3.3 监控CPU调度程序运行队列:Linux 21
2.4 内存使用率 22
2.4.1 监控内存利用率:Windows 22
2.4.2 监控内存使用率:Solaris 23
2.4.3 监控内存使用率:Linux 24
2.4.4 监控锁竞争:Solaris 25
2.4.5 监控锁竞争:Linux 26
2.4.6 监控锁竞争:Windows 27
2.4.7 隔离竞争锁 27
2.4.8 监控抢占式上下文切换 27
2.4.9 监控线程迁移 28
2.5 网络I/O使用率 28
2.5.1 监控网络I/O使用率:Solaris 29
2.5.2 监控网络I/O使用率:Linux 30
2.5.3 监控网络I/O使用率:Windows 30
2.5.4 应用性能改进的考虑 31
2.6 磁盘I/O使用率 31
2.7 其他命令行工具 34
2.8 监控CPU使用率:SPARC T系列系统 35
2.9 参考资料 36

第3章 JVM概览 38
3.1 HotSpot VM的基本架构 38
3.2 HotSpot VM运行时 40
3.2.1 命令行选项 40
3.2.2 VM生命周期 41
3.2.3 VM类加载 44
3.2.4 字节码验证 46
3.2.5 类数据共享 47
3.2.6 解释器 48
3.2.7 异常处理 49
3.2.8 同步 50
3.2.9 线程管理 51
3.2.10 C++堆管理 53
3.2.11 Java本地接口 54
3.2.12 VM致命错误处理 55
3.3 HotSpot VM垃圾收集器 56
3.3.1 分代垃圾收集 56
3.3.2 新生代 58
3.3.3 快速内存分配 60
3.3.4 垃圾收集器 60
3.3.5 Serial收集器 61
3.3.6 Parallel收集器:吞吐量为先! 62
3.3.7 Mostly-Concurrent收集器:低延迟为先! 62
3.3.8 Garbage-First收集器:CMS替代者 64
3.3.9 垃圾收集器比较 64
3.3.10 应用程序对垃圾收集器的影响 65
3.3.11 简单回顾收集器历史 65
3.4 HotSpot VM JIT编译器 65
3.4.1 类型继承关系分析 67
3.4.2 编译策略 67
3.4.3 逆优化 68
3.4.4 Client JIT编译器概览 69
3.4.5 Server JIT编译器概览 69
3.4.6 静态单赋值——程序依赖图 69
3.4.7 未来增强展望 71
3.5 HotSpot VM自适应调优 71
3.5.1 Java 1.4.2的默认值 71
3.5.2 Java 5自动优化的默认值 71
3.5.3 Java 6 Update 18 新后的默认优化值 73
3.5.4 自适应Java堆调整 74
3.5.5  自动优化 75
3.6 参考资料 75

第4章 JVM性能监控 77
4.1 定义 77
4.2 垃圾收集 78
4.2.1 重要的垃圾收集数据 78
4.2.2 垃圾收集报告 78
4.2.3 垃圾收集数据的离线分析 86
4.2.4 图形化工具 89
4.3 JIT编译器 103
4.4 类加载 104
4.5 Java应用监控 106
4.6 参考资料 109

第5章 Java应用性能分析 110
5.1 术语 111
5.1.1 通用性能分析术语 111
5.1.2 Oracle Solaris Studio Performance Analyzer术语 112
5.1.3 NetBeans Profiler术语 112
5.2 Oracle Solaris Studio Performance Analyzer 112
5.2.1 支持平台 113
5.2.2 下载/安装Oracle Solaris Studio Performance Analyzer 114
5.2.3 使用Oracle Solaris Studio Performance Analyzer 抓取性能数据 114
5.2.4 查看性能数据 118
5.2.5 数据表示 125
5.2.6 过滤性能数据 128
5.2.7 命令行工具er_print 129
5.3 NetBeans Profiler 135
5.3.1 支持平台 136
5.3.2 下载安装NetBeans Profiler 136
5.3.3 开始方法分析会话 137
5.3.4 Controls子面板 143
5.3.5 Status子面板 143
5.3.6 Profiling Results子面板 143
5.3.7 Saved Snapshots子面板 144
5.3.8 View子面板 144
5.3.9 Basic Telemetry子面板 144
5.3.10 查看动态结果 145
5.3.11 对结果进行快照 145
5.3.12 启动内存分析会话 146
5.3.13 查看实时结果 148
5.3.14 对结果进行快照 150
5.3.15 定位内存泄漏 150
5.3.16 分析堆转储 151
5.4 参考资料 152

第6章 Java应用性能分析技巧 153
6.1 性能优化机会 153
6.2 系统或内核态CPU使用 154
6.3 锁竞争 161
6.4 Volatile的使用 171
6.5 调整数据结构的大小 172
6.5.1 StringBuilder或StringBuffer大小的调整 172
6.5.2 Java Collection类大小调整 175
6.6 增加并行性 179
6.7 过高的CPU使用率 181
6.8 其他有用的分析提示 182
6.9 参考资料 184

第7章 JVM性能调优入门 185
7.1 方法 185
7.1.1 假设条件 187
7.1.2 测试基础设施需求 188
7.2 应用程序的系统需求 188
7.2.1 可用性 188
7.2.2 可管理性 188
7.2.3 吞吐量 189
7.2.4 延迟及响应性 189
7.2.5 内存占用 189
7.2.6 启动时间 189
7.3 对系统需求分级 190
7.4 选择JVM部署模式 190
7.4.1 单JVM部署模式 190
7.4.2 多JVM部署模式 190
7.4.3 通用建议 191
7.5 选择JVM运行模式 191
7.5.1 Client模式或Server模式 191
7.5.2 32位/64位 JVM 192
7.5.3 垃圾收集器 192
7.6 垃圾收集调优基础 193
7.6.1 性能属性 193
7.6.2 原则 193
7.6.3 命令行选项及GC日志 194
7.7 确定内存占用 197
7.7.1 约束 197
7.7.2 HotSpot VM堆的布局 197
7.7.3 堆大小调优着眼点 200
7.7.4 计算活跃数据大小 201
7.7.5 初始堆空间大小配置 202
7.7.6 其他考量因素 203
7.8 调优延迟/响应性 204
7.8.1 输入 205
7.8.2 优化新生代的大小 205
7.8.3 优化老年代的大小 207
7.8.4 为CMS调优延迟 210
7.8.5 Survivor空间介绍 212
7.8.6 解析晋升阈值 214
7.8.7 监控晋升阈值 215
7.8.8 调整Survivor空间的容量 216
7.8.9 显式的垃圾收集 222
7.8.10 并发 代垃圾收集 223
7.8.11 调优CMS停顿时间 224
7.8.12 下一步 225
7.9 应用程序吞吐量调优 225
7.9.1 CMS吞吐量调优 225
7.9.2 Throughput收集器调优 226
7.9.3 Survivor空间调优 228
7.9.4 调优并行垃圾收集线程 231
7.9.5 在NUMA系统上部署 231
7.9.6 下一步 232
7.10  示例 232
7.11 其他性能命令行选项 232
7.11.1 实验性( 近 大)优化 232
7.11.2 逃逸分析 233
7.11.3 偏向锁 233
7.11.4 大页面支持 234
7.12 参考资料 236

第8章 Java应用的基准测试 237
8.1 基准测试所面临的挑战 237
8.1.1 基准测试的预热阶段 238
8.1.2 垃圾收集 240
8.1.3 使用Java Time接口 240
8.1.4 剔除无效代码 241
8.1.5 内联 247
8.1.6 逆优化 251
8.1.7 创建微基准测试的注意事项 256
8.2 实验设计 257
8.3 使用统计方法 258
8.3.1 计算均值 258
8.3.2 计算标准差 258
8.3.3 计算置信区间 259
8.3.4 使用假设测试 260
8.3.5 使用统计方法的注意事项 262
8.4 参考文献 263
8.5 参考资料 263

第9章 多层应用的基准测试 264
9.1 基准测试难题 264
9.2 企业级应用基准测试的考量 266
9.2.1 定义被测系统 266
9.2.2 制定微基准测试 266
9.2.3 定义用户交互模型 267
9.2.4 定义性能指标 270
9.2.5 扩展基准测试 273
9.2.6 用利特尔法则验证 274
9.2.7 思考时间 275
9.2.8 扩展性分析 278
9.2.9 运行基准测试 278
9.3 应用服务器监控 281
9.3.1 GlassFish监控 281
9.3.2 监控子系统 286
9.3.3 Solaris 287
9.3.4 Linux 288
9.3.5 Windows 288
9.3.6 外部系统的性能 289
9.3.7 磁盘I/O 292
9.3.8 监控和调优资源池 293
9.4 企业级应用性能分析 294
9.5 参考资料 295

0章 Web应用的性能调优 297
10.1 Web应用的基准测试 298
10.2 Web容器的组件 298
10.2.1 HTTP连接器 299
10.2.2 Servlet引擎 300
10.3 Web容器的监控和性能调优 300
10.3.1 容器的开发和生产模式 300
10.3.2 安全管理器 301
10.3.3 JVM调优 301
10.3.4 HTTP服务和Web容器 303
10.3.5 HTTP监听器 303
10.4  佳实践 315
10.4.1 Servlet和JSP 佳实践 315
10.4.2 内容缓存 324
10.4.3 会话持久化 328
10.4.4 HTTP服务器文件缓存 329
10.5 参考资料 333

1章 Web Service的性能 334
11.1 XML的性能 334
11.1.1 XML处理的生命周期 335
11.1.2 解析/解编组 335
11.1.3 访问 338
11.1.4 修改 338
11.1.5 序列化/编组 339
11.2 验证 339
11.3 解析外部实体 341
11.4 XML文档的局部处理 343
11.5 选择合适的API 346
11.6 JAX-WS参考实现栈 349
11.7 Web Service基准测试 350
11.8 影响Web Service性能的因素 353
11.8.1 消息大小的影响 353
11.8.2 不同Schema类型的性能特征 355
11.8.3 终端服务器的实现 358
11.8.4 处理程序的性能 359
11.9  佳性能实践 361
11.9.1 二进制负载的处理 361
11.9.2 处理XML文档 365
11.9.3 使用MTOM发送XML文档 365
11.9.4 使用Provider接口 368
11.9.5 快速信息集 370
11.9.6 HTTP压缩 372
11.9.7 Web Service客户端的性能 373
11.10 参考资料 374

2章 Java持久化及Enterprise Java Bean的性能 375
12.1 EJB编程模型 376
12.2 Java持久化API及其参考实现 376
12.3 监控及调优EJB容器 379
12.3.1 线程池 380
12.3.2 Bean池和缓存 382
12.3.3 EclipseLink会话缓存 385
12.4 事务隔离级 386
12.5 Enterprise Java Bean的 佳实践 387
12.5.1 简要说明使用的EJB基准测试 387
12.5.2 EJB 2.1 388
12.5.3 EJB 3.0 400
12.6 Java持久化 佳实践 403
12.6.1 JPA查询语言中的查询 403
12.6.2 查询结果缓存 405
12.6.3 FetchType 406
12.6.4 连接池 408
12.6.5 批量 新 409
12.6.6 选择正确的数据库锁策略 411
12.6.7 不带事务的读取 411
12.6.8 继承 411
12.7 参考资料 412

附录A 重要的HotSpot VM选项 413
附录B 性能分析技巧示例源代码 429
B.1 锁竞争实现1 429
B.2 锁竞争实现2 439
B.3 锁竞争实现3 449
B.4 锁竞争实现4 459
B.5 锁竞争实现5 469
B.6 调整容量变化1 481
B.7 调整容量变化2 492
B.8 增加并发性的单线程实现 504
B.9 增加并发性的多线程实现 514