在单核CPU时代,单任务在一个时间点只能执行单一程序,随着多核CPU的发展,并行程序开发变得尤为重要。
《实战Java高并发程序设计(第2版)》主要介绍基于Java的并行程序设计基础、思路、方法和实战。第一,立足于并发程序基础,详细介绍Java进行并行程序设计的基本方法。第二,进一步详细介绍了JDK对并行程序的强大支持,帮助读者快速、稳健地进行并行程序开发。第三,详细讨论了“锁”的优化和提高并行程序性能级别的方法和思路。第四,介绍了并行的基本设计模式,以及Java
8/9/10对并行程序的支持和改进。第五,介绍了高并发框架Akka的使用方法。第六,详细介绍了并行程序的调试方法。第七,分析Jetty代码并给出一些其在高并发优化方面的例子。
《实战Java高并发程序设计(第2版)》内容丰富,实例典型,实用性强,适合有一定Java基础的技术开发人员阅读。
第1章 走入并行世界 1
1.1 何去何从的并行计算 1
1.1.1 忘掉那该死的并行 2
1.1.2 可怕的现实:摩尔定律的失效 4
1.1.3 柳暗花明:不断地前进 5
1.1.4 光明或是黑暗 6
1.2 你必须知道的几个概念 7
1.2.1 同步(Synchronous)和异步(Asynchronous) 7
1.2.2 并发(Concurrency)和并行(Parallelism) 8
1.2.3 临界区 9
1.2.4 阻塞(Blocking)和非阻塞(Non-Blocking) 9
1.2.5 死锁(Deadlock)、饥饿(Starvation)和活锁(Livelock) 10
1.3 并发级别 11
1.3.1 阻塞 11
1.3.2 无饥饿(Starvation-Free) 11
1.3.3 无障碍(Obstruction-Free) 12
1.3.4 无锁(Lock-Free) 13
1.3.5 无等待(Wait-Free) 13
1.4 有关并行的两个重要定律 14
1.4.1 Amdahl定律 14
1.4.2 Gustafson定律 16
1.4.3 是否相互矛盾 17
1.5 回到Java:JMM 18
1.5.1 原子性(Atomicity) 18
1.5.2 可见性(Visibility) 20
1.5.3 有序性(Ordering) 22
1.5.4 哪些指令不能重排:Happen-Before规则 27
第2章 Java并行程序基础 29
2.1 有关线程你必须知道的事 29
2.2 初始线程:线程的基本操作 32
2.2.1 新建线程 32
2.2.2 终止线程 34
2.2.3 线程中断 38
2.2.4 等待(wait)和通知(notify) 41
2.2.5 挂起(suspend)和继续执行(resume)线程 45
2.2.6 等待线程结束(join)和谦让(yeild) 49
2.3 volatile与Java内存模型(JMM) 50
2.4 分门别类的管理:线程组 53
2.5 驻守后台:守护线程(Daemon) 54
2.6 先做重要的事:线程优先级 56
2.7 线程安全的概念与关键字synchronized 57
2.8 程序中的幽灵:隐蔽的错误 61
2.8.1 无提示的错误案例 62
2.8.2 并发下的ArrayList 63
2.8.3 并发下诡异的HashMap 64
2.8.4 初学者常见的问题:错误的加锁 67
第3章 JDK并发包 71
3.1 多线程的团队协作:同步控制 71
3.1.1 关键字synchronized的功能扩展:重入锁 72
3.1.2 重入锁的好搭档:Condition 81
3.1.3 允许多个线程同时访问:信号量(Semaphore) 85
3.1.4 ReadWriteLock读写锁 86
3.1.5 倒计数器:CountDownLatch 89
3.1.6 循环栅栏:CyclicBarrier 91
3.1.7 线程阻塞工具类:LockSupport 94
3.1.8 Guava和RateLimiter限流 98
3.2 线程复用:线程池 101
3.2.1 什么是线程池 102
3.2.2 不要重复发明轮子:JDK对线程池的支持 102
3.2.3 刨根究底:核心线程池的内部实现 108
3.2.4 超负载了怎么办:拒绝策略 112
3.2.5 自定义线程创建:ThreadFactory 115
3.2.6 我的应用我做主:扩展线程池 116
3.2.7 合理的选择:优化线程池线程数量 119
3.2.8 堆栈去哪里了:在线程池中寻找堆栈 120
3.2.9 分而治之:Fork/Join框架 124
3.2.10 Guava中对线程池的扩展 128
3.3 不要重复发明轮子:JDK的并发容器 130
3.3.1 超好用的工具类:并发集合简介 130
3.3.2 线程安全的HashMap 131
3.3.3 有关List的线程安全 132
3.3.4 高效读写的队列:深度剖析ConcurrentLinkedQueue类 132
3.3.5 高效读取:不变模式下的CopyOnWriteArrayList类 138
3.3.6 数据共享通道:BlockingQueue 139
3.3.7 随机数据结构:跳表(SkipList) 144
3.4 使用JMH进行性能测试 146
3.4.1 什么是JMH 147
3.4.2 Hello JMH 147
3.4.3 JMH的基本概念和配置 150
3.4.4 理解JMH中的Mode 151
3.4.5 理解JMH中的State 153
3.4.6 有关性能的一些思考 154
3.4.7 CopyOnWriteArrayList类与ConcurrentLinkedQueue类 157
第4章 锁的优化及注意事项 161
4.1 有助于提高锁性能的几点建议 162
4.1.1 减少锁持有时间 162
4.1.2 减小锁粒度 163
4.1.3 用读写分离锁来替换独占锁 165
4.1.4 锁分离 165
4.1.5 锁粗化 168
4.2 Java虚拟机对锁优化所做的努力 169
4.2.1 锁偏向 169
4.2.2 轻量级锁 169
4.2.3 自旋锁 170
4.2.4 锁消除 170
4.3 人手一支笔:ThreadLocal 171
4.3.1 ThreadLocal的简单使用 171
4.3.2 ThreadLocal的实现原理 173
4.3.3 对性能有何帮助 179
4.4 无锁 182
4.4.1 与众不同的并发策略:比较交换 182
4.4.2 无锁的线程安全整数:AtomicInteger 183
4.4.3 Java中的指针:Unsafe类 185
4.4.4 无锁的对象引用:AtomicReference 187
4.4.5 带有时间戳的对象引用:AtomicStampedReference 190
4.4.6 数组也能无锁:AtomicIntegerArray 193
4.4.7 让普通变量也享受原子操作:AtomicIntegerFieldUpdater 194
4.4.8 挑战无锁算法:无锁的Vector实现 196
4.4.9 让线程之间互相帮助:细看SynchronousQueue的实现 201
4.5 有关死锁的问题 205
第5章 并行模式与算法 209
5.1 探讨单例模式 209
5.2 不变模式 213
5.3 生产者-消费者模式 215
5.4 高性能的生产者-消费者模式:无锁的实现 220
5.4.1 无锁的缓存框架:Disruptor 221
5.4.2 用Disruptor框架实现生产者-消费者模式的案例 222
5.4.3 提高消费者的响应时间:选择合适的策略 225
5.4.4 CPU Cache的优化:解决伪共享问题 226
5.5 Future模式 230
5.5.1 Future模式的主要角色 232
5.5.2 Future模式的简单实现 233
5.5.3 JDK中的Future模式 236
5.5.4 Guava对Future模式的支持 238
5.6 并行流水线 240
5.7 并行搜索 244
5.8 并行排序 246
5.8.1 分离数据相关性:奇偶交换排序 246
5.8.2 改进的插入排序:希尔排序 250
5.9 并行算法:矩阵乘法 254
5.10 准备好了再通知我:网络NIO 258
5.10.1 基于Socket的服务端多线程模式 259
5.10.2 使用NIO进行网络编程 264
5.10.3 使用NIO来实现客户端 272
5.11 读完了再通知我:AIO 274
5.11.1 AIO EchoServer的实现 275
5.11.2 AIO Echo客户端的实现 277
第6章 Java 8/9/10与并发 281
6.1 Java 8的函数式编程简介 281
6.1.1 函数作为一等公民 282
6.1.2 无副作用 283
6.1.3 声明式的(Declarative) 283
6.1.4 不变的对象 284
6.1.5 易于并行 284
6.1.6 更少的代码 284
6.2 函数式编程基础 285
6.2.1 FunctionalInterface注释 285
6.2.2 接口默认方法 286
6.2.3 lambda表达式 290
6.2.4 方法引用 291
6.3 一步一步走入函数式编程 293
6.4 并行流与并行排序 298
6.4.1 使用并行流过滤数据 298
6.4.2 从集合得到并行流 299
6.4.3 并行排序 299
6.5 增强的Future:CompletableFuture 300
6.5.1 完成了就通知我 300
6.5.2 异步执行任务 301
6.5.3 流式调用 303
6.5.4 CompletableFuture中的异常处理 303
6.5.5 组合多个CompletableFuture 304
6.5.6 支持timeout的 CompletableFuture 306
6.6 读写锁的改进:StampedLock 306
6.6.1 StampedLock使用示例 307
6.6.2 StampedLock的小陷阱 308
6.6.3 有关StampedLock的实现思想 310
6.7 原子类的增强 313
6.7.1 更快的原子类:LongAdder 314
6.7.2 LongAdder功能的增强版:LongAccumulator 320
6.8 ConcurrentHashMap的增强 321
6.8.1 foreach操作 321
6.8.2 reduce操作 321
6.8.3 条件插入 322
6.8.4 search操作 323
6.8.5 其他新方法 324
6.9 发布和订阅模式 324
6.9.1 简单的发布订阅例子 326
6.9.2 数据处理链 328
第7章 使用Akka构建高并发程序 331
7.1 新并发模型:Actor 332
7.2 Akka之Hello World 332
7.3 有关消息投递的一些说明 336
7.4 Actor的生命周期 337
7.5 监督策略 341
7.6 选择Actor 346
7.7 消息收件箱(Inbox) 346
7.8 消息路由 348
7.9 Actor的内置状态转换 351
7.10 询问模式:Actor中的Future 354
7.11 多个Actor同时修改数据:Agent 356
7.12 像数据库一样操作内存数据:软件事务内存 359
7.13 一个有趣的例子:并发粒子群的实现 363
7.13.1 什么是粒子群算法 364
7.13.2 粒子群算法的计算过程 364
7.13.3 粒子群算法能做什么 366
7.13.4 使用Akka实现粒子群 367
第8章 并行程序调试 375
8.1 准备实验样本 375
8.2 正式起航 376
8.3 挂起整个虚拟机 379
8.4 调试进入ArrayList内部 380
第9章 多线程优化示例—Jetty核心代码分析 385
9.1 Jetty简介与架构 385
9.2 Jetty服务器初始化 387
9.2.1 初始化线程池 387
9.2.2 初始化ScheduledExecutorScheduler 389
9.2.3 初始化ByteBufferPool 390
9.2.4 维护ConnectionFactory 393
9.2.5 计算ServerConnector的线程数量 394
9.3 启动Jetty服务器 394
9.3.1 设置启动状态 394
9.3.2 注册ShutdownMonitor 395
9.3.3 计算系统的线程数量 395
9.3.4 启动QueuedThreadPool 396
9.3.5 启动Connector 396
9.4 处理HTTP请求 399
9.4.1 Accept成功 399
9.4.2 请求处理 401