图书介绍
Java性能优化权威指南PDF|Epub|txt|kindle电子书版本网盘下载
![Java性能优化权威指南](https://www.shukui.net/cover/11/35042338.jpg)
- (美)亨特,(美)约翰著 著
- 出版社: 北京:人民邮电出版社
- ISBN:9787115342973
- 出版时间:2014
- 标注页数:525页
- 文件大小:129MB
- 文件页数:540页
- 主题词:JAVA语言-程序设计
PDF下载
下载说明
Java性能优化权威指南PDF格式电子书版下载
下载的文件为RAR压缩包。需要使用解压软件进行解压得到PDF格式图书。建议使用BT下载工具Free Download Manager进行下载,简称FDM(免费,没有广告,支持多平台)。本站资源全部打包为BT种子。所以需要使用专业的BT下载软件进行下载。如BitComet qBittorrent uTorrent等BT下载工具。迅雷目前由于本站不是热门资源。不推荐使用!后期资源热门了。安装了迅雷也可以迅雷进行下载!
(文件页数 要大于 标注页数,上中下等多册电子书除外)
注意:本站所有压缩包均有解压码: 点击下载压缩包解压工具
图书目录
第1章 策略、方法和方法论1
1.1性能问题的现状1
1.2性能分析的两种方法:自顶向下和自底向上4
1.2.1自顶向下4
1.2.2自底向上5
1.3选择正确的平台并评估系统性能5
1.3.1选择正确的CPU架构6
1.3.2评估系统性能7
1.4参考资料7
第2章 操作系统性能监控8
2.1定义8
2.2 CPU使用率9
2.2.1监控CPU使用率:Windows9
2.2.2监控CPU使用率:Windows typeperf12
2.2.3监控CPU使用率:Linux13
2.2.4监控CPU使用率:Solaris14
2.2.5命令行监控CPU使用率:Linux和Solaris16
2.3 CPU调度程序运行队列19
2.3.1监控CPU调度程序运行队列:Windows19
2.3.2监控CPU调度程序运行队列:Solaris21
2.3.3监控CPU调度程序运行队列:Linux21
2.4内存使用率22
2.4.1监控内存利用率:Windows22
2.4.2监控内存使用率:Solaris23
2.4.3监控内存使用率:Linux24
2.4.4监控锁竞争:Solaris25
2.4.5监控锁竞争:Linux26
2.4.6监控锁竞争:Windows27
2.4.7隔离竞争锁27
2.4.8监控抢占式上下文切换27
2.4.9监控线程迁移28
2.5网络I/O使用率28
2.5.1监控网络I/O使用率:Solaris29
2.5.2监控网络I/O使用率:Linux30
2.5.3监控网络I/O使用率:Windows30
2.5.4应用性能改进的考虑31
2.6磁盘I/O使用率31
2.7其他命令行工具34
2.8监控CPU使用率:SPARC T系列系统35
2.9参考资料36
第3章JVM概览38
3.1 HotSpot VM的基本架构38
3.2 HotSpot VM运行时40
3.2.1命令行选项40
3.2.2 VM生命周期41
3.2.3 VM类加载44
3.2.4字节码验证46
3.2.5类数据共享47
3.2.6解释器48
3.2.7异常处理49
3.2.8同步50
3.2.9线程管理51
3.2.10 C+++堆管理53
3.2.11 Java本地接口54
3.2.12 VM致命错误处理55
3.3 HotSpot VM垃圾收集器56
3.3.1分代垃圾收集56
3.3.2新生代58
3.3.3快速内存分配60
3.3.4垃圾收集器60
3.3.5 Serial收集器61
3.3.6 Parallel收集器:吞吐量为先!62
3.3.7 Mostly-Concurrent收集器:低延迟为先!62
3.3.8 Garbage-First收集器:CMS替代者64
3.3.9垃圾收集器比较64
3.3.10应用程序对垃圾收集器的影响65
3.3.11简单回顾收集器历史65
3.4 HotSpot VM JIT编译器65
3.4.1类型继承关系分析67
3.4.2编译策略67
3.4.3逆优化68
3.4.4 Client JIT编译器概览69
3.4.5 Server JIT编译器概览69
3.4.6静态单赋值——程序依赖图69
3.4.7未来增强展望71
3.5 HotSpot VM自适应调优71
3.5.1 Java 1.4.2的默认值71
3.5.2 Java 5自动优化的默认值71
3.5.3 Java 6 Update 18更新后的默认优化值73
3.5.4自适应Java堆调整74
3.5.5超越自动优化75
3.6参考资料75
第4章JVM性能监控77
4.1定义77
4.2垃圾收集78
4.2.1重要的垃圾收集数据78
4.2.2垃圾收集报告78
4.2.3垃圾收集数据的离线分析86
4.2.4图形化工具89
4.3 JIT编译器103
4.4类加载104
4.5 Java应用监控106
4.6参考资料109
第5章Java应用性能分析110
5.1术语111
5.1.1通用性能分析术语111
5.1.2 Oracle Solaris Studio Performance Analyzer术语112
5.1.3 NetBeans Profiler术语112
5.2 Oracle Solaris Studio Performance Analyzer112
5.2.1支持平台113
5.2.2下载/安装Oracle Solaris Studio Performance Analyzer114
5.2.3使用Oracle Solaris Studio Performance Analyzer抓取性能数据114
5.2.4查看性能数据118
5.2.5数据表示125
5.2.6过滤性能数据128
5.2.7命令行工具er_pri nt129
5.3 NetBeans Profiler135
5.3.1支持平台136
5.3.2下载安装NetBeans Profiler136
5.3.3开始方法分析会话137
5.3.4 Controls子面板143
5.3.5 Status子面板143
5.3.6 Profiling Results子面板143
5.3.7 Saved Snapshots子面板144
5.3.8 View子面板144
5.3.9 Basic Telemetry子面板144
5.3.10查看动态结果145
5.3.11对结果进行快照145
5.3.12启动内存分析会话146
5.3.13查看实时结果148
5.3.14对结果进行快照150
5.3.15 定位内存泄漏150
5.3.16分析堆转储151
5.4参考资料152
第6章Java应用性能分析技巧153
6.1性能优化机会153
6.2系统或内核态CPU使用154
6.3锁竞争161
6.4 Volatile的使用171
6.5调整数据结构的大小172
6.5.1 Stri ngBuilder或 StringBuffer大小的调整172
6.5.2 Java Collection类大小调整175
6.6增加并行性179
6.7过高的CPU使用率181
6.8其他有用的分析提示182
6.9参考资料184
第7章JVM性能调优入门185
7.1方法185
7.1.1假设条件187
7.1.2测试基础设施需求188
7.2应用程序的系统需求188
7.2.1可用性188
7.2.2可管理性188
7.2.3吞吐量189
7.2.4延迟及响应性189
7.2.5内存占用189
7.2.6启动时间189
7.3对系统需求分级190
7.4选择JVM部署模式190
7.4.1单JVM部署模式190
7.4.2多JVM部署模式190
7.4.3通用建议191
7.5选择JVM运行模式191
7.5.1 Client模式或Server模式191
7.5.2 32位/64位JVM192
7.5.3垃圾收集器192
7.6垃圾收集调优基础193
7.6.1性能属性193
7.6.2原则193
7.6.3命令行选项及GC日志194
7.7确定内存占用197
7.7.1约束197
7.7.2 HotSpot VM堆的布局197
7.7.3堆大小调优着眼点200
7.7.4计算活跃数据大小201
7.7.5初始堆空间大小配置202
7.7.6其他考量因素203
7.8调优延迟/响应性204
7.8.1输入205
7.8.2优化新生代的大小205
7.8.3优化老年代的大小207
7.8.4为CMS调优延迟210
7.8.5 Survivor空间介绍212
7.8.6解析晋升阈值214
7.8.7监控晋升阈值215
7.8.8调整Survivor空间的容量216
7.8.9显式的垃圾收集222
7.8.10并发永久代垃圾收集223
7.8.11调优CMS停顿时间224
7.8.12下一步225
7.9应用程序吞吐量调优225
7.9.1 CMS吞吐量调优225
7.9.2 Throughput收集器调优226
7.9.3 Survivor空间调优228
7.9.4调优并行垃圾收集线程231
7.9.5在NUMA系统上部署231
7.9.6下一步232
7.10极端示例232
7.11其他性能命令行选项232
7.11.1实验性(最近最大)优化232
7.11.2逃逸分析233
7.11.3偏向锁233
7.11.4大页面支持234
7.12参考资料236
第8章Java应用的基准测试237
8.1基准测试所面临的挑战237
8.1.1基准测试的预热阶段238
8.1.2垃圾收集240
8.1.3使用Java Time接口240
8.1.4剔除无效代码241
8.1.5内联247
8.1.6逆优化251
8.1.7创建微基准测试的注意事项256
8.2实验设计257
8.3使用统计方法258
8.3.1计算均值258
8.3.2计算标准差258
8.3.3计算置信区间259
8.3.4使用假设测试260
8.3.5使用统计方法的注意事项262
8.4参考文献263
8.5参考资料263
第9章 多层应用的基准测试264
9.1基准测试难题264
9.2企业级应用基准测试的考量266
9.2.1定义被测系统266
9.2.2制定微基准测试266
9.2.3定义用户交互模型267
9.2.4定义性能指标270
9.2.5扩展基准测试273
9.2.6用利特尔法则验证274
9.2.7思考时间275
9.2.8扩展性分析278
9.2.9运行基准测试278
9.3应用服务器监控281
9.3.1 GlassFish监控281
9.3.2监控子系统286
9.3.3 Solaris287
9.3.4 Linux288
9.3.5 Windows288
9.3.6外部系统的性能289
9.3.7磁盘I/O292
9.3.8监控和调优资源池293
9.4企业级应用性能分析294
9.5参考资料295
第10章Web应用的性能调优297
10.1 Web应用的基准测试298
10.2 Web容器的组件298
10.2.1 HTTP连接器299
10.2.2 Servlet引擎300
10.3 Web容器的监控和性能调优300
10.3.1容器的开发和生产模式300
10.3.2安全管理器301
10.3.3 JVM调优301
10.3.4 HTTP服务和Web容器303
10.3.5 HTTP监听器303
10.4最佳实践315
10.4.1 Servlet和JSP最佳实践315
10.4.2内容缓存324
10.4.3会话持久化328
10.4.4 HTTP服务器文件缓存329
10.5参考资料333
第11章Web Service的性能334
11.1 XML的性能334
11.1.1 XML处理的生命周期335
11.1.2解析/解编组335
11.1.3访问338
11.1.4修改338
11.1.5序列化/编组339
11.2验证339
11.3解析外部实体341
11.4 XML文档的局部处理343
11.5选择合适的API346
11.6 JAX-WS参考实现栈349
11.7 Web Service基准测试350
11.8影响Web Service性能的因素353
11.8.1消息大小的影响353
11.8.2不同Schema类型的性能特征355
11.8.3终端服务器的实现358
11.8.4处理程序的性能359
11.9最佳性能实践361
11.9.1二进制负载的处理361
11.9.2处理XML文档365
11.9.3使用MTOM发送XML文档365
11.9.4使用Provider接口368
11.9.5快速信息集370
11.9.6 HTTP压缩372
11.9.7 Web Service客户端的性能373
11.10参考资料374
第12章Java持久化及Enterprise Java Bean的性能375
12.1 EJB编程模型376
12.2 Java持久化API及其参考实现376
12.3监控及调优EJB容器379
12.3.1线程池380
12.3.2 Bean池和缓存382
12.3.3 EclipseLink会话缓存385
12.4事务隔离级386
12.5 Enterprise Java Bean的最佳实践387
12.5.1简要说明使用的EJB基准测试387
12.5.2 EJB 2.1388
12.5.3 EJB 3.0400
12.6 Java持久化最佳实践403
12.6.1 JPA查询语言中的查询403
12.6.2查询结果缓存405
12.6.3 FetchType406
12.6.4连接池408
12.6.5批量更新409
12.6.6选择正确的数据库锁策略411
12.6.7不带事务的读取411
12.6.8继承411
12.7参考资料412
附录A重要的HotSpot VM选项413
附录B性能分析技巧示例源代码429
B.1锁竞争实现1429
B.2锁竞争实现2439
B.3锁竞争实现3449
B.4锁竞争实现4459
B.5锁竞争实现5469
B.6调整容量变化1481
B.7调整容量变化2492
B.8增加并发性的单线程实现504
B.9增加并发性的多线程实现514