本篇博文主要包含:

  • 线程池的基本概念
  • ThreadPoolExecutor
  • 线程池四种创建方式
    -newCachedThreadPool:可缓存线程池
    -newFixedThreadPool:定长线程池
    -newScheduledThreadPool :定长线程池,支持定时及周期性任务执行
    -newSingleThreadExecutor :单线程化的线程池
  • 线程池原理剖析
  • 合理配置线程池
  • Java锁的深度化
    -悲观锁
    -乐观锁(版本控制)
    -重入锁
    -读写锁
    -CAS无锁机制(原子类底层实现保证线程安全,使用的就是CAS无锁机制。)
    -自旋锁
    -分布式锁

一、线程池

  1. 什么是线程池
    Java中的线程池是运用场景最多的并发框架,几乎所有需要异步或并发执行任务的程序都可以使用线程池。在开发过程中,合理地使用线程池能够带来3个好处。
    第一:降低资源消耗。通过重复利用已创建的线程降低线程创建和销毁造成的消耗。
    第二:提高响应速度。当任务到达时,任务可以不需要等到线程创建就能立即执行。
    第三:提高线程的可管理性。线程是稀缺资源,如果无限制地创建,不仅会消耗系统资源,还会降低系统的稳定性,使用线程池可以进行统一分配、调优和监控。但是,要做到合理利用线程池,必须对其实现原理了如指掌。

  2. 线程池作用
    线程池是为突然大量爆发的线程设计的,通过有限的几个固定线程为大量的操作服务,减少了创建和销毁线程所需的时间,从而提高效率。
    如果一个线程的时间非常长,就没必要用线程池了(不是不能作长时间操作,而是不宜。),况且我们还不能控制线程池中线程的开始、挂起、和中止。

  3. 线程池的分类
    ThreadPoolExecutor
    Java是天生就支持并发的语言,支持并发意味着多线程,线程的频繁创建在高并发及大数据量是非常消耗资源的,因为java提供了线程池。在jdk1.5以前的版本中,线程池的使用是及其简陋的,但是在JDK1.5后,有了很大的改善。JDK1.5之后加入了java.util.concurrent包,java.util.concurrent包的加入给予开发人员开发并发程序以及解决并发问题很大的帮助。这篇文章主要介绍下并发包下的Executor接口,Executor接口虽然作为一个非常旧的接口(JDK1.5 2004年发布),但是很多程序员对于其中的一些原理还是不熟悉。Executor框架的最顶层实现是ThreadPoolExecutor类,Executors工厂类中提供的newScheduledThreadPool、newFixedThreadPool、newCachedThreadPool方法其实也只是ThreadPoolExecutor的构造函数参数不同而已。通过传入不同的参数,就可以构造出适用于不同应用场景下的线程池。
    corePoolSize: 核心池的大小。 当有任务来之后,就会创建一个线程去执行任务,当线程池中的线程数目达到corePoolSize后,就会把到达的任务放到缓存队列当中。
    maximumPoolSize: 线程池最大线程数,它表示在线程池中最多能创建多少个线程;
    keepAliveTime: 表示线程没有任务执行时最多保持多久时间会终止。
    unit: 参数keepAliveTime的时间单位,有7种取值,在TimeUnit类中有7种静态属性。

  4. 线程池四种创建方式
    Java通过Executors(jdk1.5并发包)提供四种线程池,分别为:

  • newCachedThreadPool创建一个可缓存线程池,如果线程池长度超过处理需要,可灵活回收空闲线程,若无可回收,则新建线程

代码演示:

public class NewCachedThreadPoolDemo {public static void main(String[] args) {// 无限大小线程池 jvm自动回收ExecutorService newCachedThreadPool = Executors.newCachedThreadPool();for (int i = 0; i < 10; i++) {final int temp = i;newCachedThreadPool.execute(new Runnable() {@Overridepublic void run() {System.out.println(Thread.currentThread().getName() + ",i:" + temp);}});}//关闭线程池newCachedThreadPool.shutdown();}
}

运行结果:

总结: 线程池为无限大,当执行第二个任务时第一个任务已经完成,会复用执行第一个任务的线程,而不用每次新建线程。

  • newFixedThreadPool 创建一个定长线程池,可控制线程最大并发数,超出的线程会在队列中等待

代码演示:

public class NewFixedThreadPoolDemo {public static void main(String[] args) {ExecutorService newFixedThreadPool = Executors.newFixedThreadPool(3);for (int i = 0; i < 10; i++) {final int temp = i;newFixedThreadPool.execute(new Runnable() {@Overridepublic void run() {System.out.println(Thread.currentThread().getName() + ",i:" + temp);}});}}
}

运行结果:

总结:因为线程池大小为3,所以最多创建3个线程。

  • newScheduledThreadPool 创建一个定长线程池,支持定时及周期性任务执行

代码演示:

public class NewScheduledThreadPoolDemo {public static void main(String[] args) {ScheduledExecutorService newScheduledThreadPool = Executors.newScheduledThreadPool(3);for (int i = 0; i < 10; i++) {final int temp = i;newScheduledThreadPool.schedule(new Runnable() {@Overridepublic void run() {System.out.println(Thread.currentThread().getName() + ",i:" + temp);}},2,TimeUnit.SECONDS);}}
}

运行结果:

总结:表示延迟2秒执行。

  • newSingleThreadExecutor 创建一个单线程化的线程池,它只会用唯一的工作线程来执行任务,保证所有任务按照指定顺序(FIFO, LIFO, 优先级)执行。

代码演示:

public class NewSingleThreadExecutorDemo {public static void main(String[] args) {ExecutorService newSingleThreadExecutor = Executors.newSingleThreadExecutor();for (int i = 0; i < 10; i++) {final int temp = i;newSingleThreadExecutor.execute(new Runnable() {@Overridepublic void run() {System.out.println(Thread.currentThread().getName() + ",i:" + temp);}});}}
}

运行结果:

总结:因为是一个线程,所以是单线程运行。
5. 线程池原理剖析
提交一个任务到线程池中,线程池的处理流程如下:
1)判断线程池里的核心线程是否都在执行任务,如果不是(核心线程空闲或者还有核心线程没有被创建)则创建一个新的工作线程来执行任务。如果核心线程都在执行任务,则进入下个流程。
2)线程池判断工作队列是否已满,如果工作队列没有满,则将新提交的任务存储在这个工作队列里。如果工作队列满了,则进入下个流程。
3)判断线程池里的线程是否都处于工作状态,如果没有,则创建一个新的工作线程来执行任务。如果已经满了,则交给饱和策略来处理这个任务。

6. 合理配置线程池
要想合理的配置线程池,就必须首先分析任务特性,可以从以下几个角度来进行分析:
任务的性质:CPU密集型任务,IO密集型任务和混合型任务。
任务的优先级:高,中和低。
任务的执行时间:长,中和短。
任务的依赖性:是否依赖其他系统资源,如数据库连接。
任务性质不同的任务可以用不同规模的线程池分开处理。CPU密集型任务配置尽可能少的线程数量,如配置Ncpu+1个线程的线程池。IO密集型任务则由于需要等待IO操作,线程并不是一直在执行任务,则配置尽可能多的线程,如2*Ncpu。混合型的任务,如果可以拆分,则将其拆分成一个CPU密集型任务和一个IO密集型任务,只要这两个任务执行的时间相差不是太大,那么分解后执行的吞吐率要高于串行执行的吞吐率,如果这两个任务执行时间相差太大,则没必要进行分解。我们可以通过Runtime.getRuntime().availableProcessors()方法获得当前设备的CPU个数。
优先级不同的任务可以使用优先级队列PriorityBlockingQueue来处理。它可以让优先级高的任务先得到执行,需要注意的是如果一直有优先级高的任务提交到队列里,那么优先级低的任务可能永远不能执行。
执行时间不同的任务可以交给不同规模的线程池来处理,或者也可以使用优先级队列,让执行时间短的任务先执行。
依赖数据库连接池的任务,因为线程提交SQL后需要等待数据库返回结果,如果等待的时间越长CPU空闲时间就越长,那么线程数应该设置越大,这样才能更好的利用CPU。
CPU密集型时,任务可以少配置线程数,大概和机器的cpu核数相当,这样可以使得每个线程都在执行任务
IO密集型时,大部分线程都阻塞,故需要多配置线程数,2cpu核数
操作系统之名称解释:
某些进程花费了绝大多数时间在计算上,而其他则在等待I/O上花费了大多是时间,
前者称为计算密集型(CPU密集型)computer-bound,后者称为I/O密集型,I/O-bound。

二、Java锁的深度化

  1. 悲观锁
    悲观锁悲观的认为每一次操作都会造成更新丢失问题,在每次查询时加上排他锁。
    每次去拿数据的时候都认为别人会修改,所以每次在拿数据的时候都会上锁,这样别人想拿这个数据就会block直到它拿到锁。传统的关系型数据库里边就用到了很多这种锁机制,比如行锁,表锁等,读锁,写锁等,都是在做操作之前先上锁。
    例如使用for update 为select查询语句加上排它锁: select * from xxx for update;

  2. 乐观锁
    乐观锁会乐观的认为每次查询都不会造成更新丢失,利用版本字段控制
    update table set name = ‘aa’,version = version+1 where version = version

  3. 重入锁
    重入锁,也叫做递归锁,指的是同一线程 外层函数获得锁之后 ,内层递归函数仍然有获取该锁的代码,但不受影响。重进入是指任意线程在获取到锁之后,再次获取该锁而不会被该锁所阻塞。
    如果外层和内存函数使用的不是同一把锁,就不是重入锁,会造成 死锁现象。
    在JAVA环境下 ReentrantLock 和synchronized 都是 可重入锁

代码演示:

/*** ReentrantLock重入锁**/
class ReentrantLockLock extends Thread {ReentrantLock lock = new ReentrantLock();public void get() {lock.lock();System.out.println(Thread.currentThread().getId()+"  get");set();lock.unlock();}public void set() {lock.lock();System.out.println(Thread.currentThread().getId()+"  set");lock.unlock();}@Overridepublic void run() {get();}
}/*** Synchronized重入锁**/
class SynchronizedLock implements Runnable {public  synchronized void get() {System.out.println("name:" + Thread.currentThread().getName() + " get();");set();}public synchronized  void set() {System.out.println("name:" + Thread.currentThread().getName() + " set();");}@Overridepublic void run() {get();}
}public class ReentrantLockDemo {public static void main(String[] args) {ReentrantLockLock ss = new ReentrantLockLock();new Thread(ss).start();new Thread(ss).start();new Thread(ss).start();SynchronizedLock sl = new SynchronizedLock();new Thread(sl).start();new Thread(sl).start();new Thread(sl).start();}
}

运行结果:

  1. 读写锁
    在没有写操作的时候,两个线程同时读一个资源没有任何问题,所以应该允许多个线程能在同时读取共享资源。但是如果有一个线程想去写这些共享资源,就不应该再有其它线程对该资源进行读或写,也就是说:读-读能共存,读-写不能共存,写-写不能共存。这就需要一个读/写锁来解决这个问题。Java5在java.util.concurrent包中已经包含了读写锁。

代码演示:

public class ReadWriteLockDemo {static Map<String, Object> map = new HashMap<String, Object>();static ReentrantReadWriteLock rwl = new ReentrantReadWriteLock();static Lock r = rwl.readLock();static Lock w = rwl.writeLock();// 读, 获取一个key对应的valuepublic static final Object get(String key) {r.lock();try {System.out.println("正在做读的操作,key:" + key + " 开始");Thread.sleep(100);Object object = map.get(key);System.out.println("正在做读的操作,key:" + key + " 结束");System.out.println();return object;} catch (InterruptedException e) {} finally {r.unlock();}return key;}// 写, 设置key对应的value,并返回旧有的valuepublic static final Object put(String key, Object value) {w.lock();try {System.out.println("正在做写的操作,key:" + key + ",value:" + value + "开始.");Thread.sleep(100);Object object = map.put(key, value);System.out.println("正在做写的操作,key:" + key + ",value:" + value + "结束.");System.out.println();return object;} catch (InterruptedException e) {} finally {w.unlock();}return value;}// 清空所有的内容public static final void clear() {w.lock();try {map.clear();} finally {w.unlock();}}public static void main(String[] args) {new Thread(new Runnable() {@Overridepublic void run() {for (int i = 0; i < 10; i++) {ReadWriteLockDemo.put(i + "", i + "");}}}).start();new Thread(new Runnable() {@Overridepublic void run() {for (int i = 0; i < 10; i++) {ReadWriteLockDemo.get(i + "");}}}).start();}
}

运行结果:

  1. CAS无锁机制
    (1)与锁相比,使用比较交换(下文简称CAS)会使程序看起来更加复杂一些。但由于其非阻塞性,它对死锁问题天生免疫,并且,线程间的相互影响也远远比基于锁的方式要小。更为重要的是,使用无锁的方式完全没有锁竞争带来的系统开销,也没有线程间频繁调度带来的开销,因此,它要比基于锁的方式拥有更优越的性能。
    (2)无锁的好处:
    第一,在高并发的情况下,它比有锁的程序拥有更好的性能;
    第二,它天生就是死锁免疫的。
    就凭借这两个优势,就值得我们冒险尝试使用无锁的并发。
    (3)CAS算法的过程是这样:它包含三个参数CAS(V,E,N): V表示要更新的变量,E表示预期值,N表示新值。仅当V值等于E值时,才会将V的值设为N,如果V值和E值不同,则说明已经有其他线程做了更新,则当前线程什么都不做。最后,CAS返回当前V的真实值。
    (4)CAS操作是抱着乐观的态度进行的,它总是认为自己可以成功完成操作。当多个线程同时使用CAS操作一个变量时,只有一个会胜出,并成功更新,其余均会失败。失败的线程不会被挂起,仅是被告知失败,并且允许再次尝试,当然也允许失败的线程放弃操作。基于这样的原理,CAS操作即使没有锁,也可以发现其他线程对当前线程的干扰,并进行恰当的处理。
    (5)简单地说,CAS需要你额外给出一个期望值,也就是你认为这个变量现在应该是什么样子的。如果变量不是你想象的那样,那说明它已经被别人修改过了。你就重新读取,再次尝试修改就好了。
    (6)在硬件层面,大部分的现代处理器都已经支持原子化的CAS指令。在JDK 5.0以后,虚拟机便可以使用这个指令来实现并发操作和并发数据结构,并且,这种操作在虚拟机中可以说是无处不在。
    原子类底层实现保证线程安全,使用的就是CAS无锁机制。

  2. 自旋锁
    自旋锁是采用让当前线程不停地的在循环体内执行实现的,当循环的条件被其他线程改变时才能进入临界区。

代码演示:

/**
*    自旋锁
*/
class SpinLock implements Lock{private AtomicReference<Thread> sign = new AtomicReference<Thread>();public void lock(){Thread current=Thread.currentThread();//compareAndSet(expect:预期值,update:更新值)使用了CSA无锁机制// 如果当前状态值等于预期值(null),则以原子方式将同步状态设置为给定的更新值(current)while(!sign.compareAndSet(null, current)){}}public void unlock(){Thread current=Thread.currentThread();//如果当前值等于预期值(current),则将更新值(null)赋值给当前值sign.compareAndSet(current, null);}
}/**
*  调用自旋锁
*/
public class SpinlocksDemo implements Runnable{static int sum;private SpinLock lock;public SpinlocksDemo(SpinLock lock) {this.lock = lock;}@Overridepublic void run() {this.lock.lock();this.lock.lock();sum++;this.lock.unlock();this.lock.unlock();}public static void main(String[] args) throws InterruptedException {SpinLock lock = new SpinLock();for (int i = 0; i < 100; i++) {SpinlocksDemo test = new SpinlocksDemo(lock);Thread t = new Thread(test);t.start();}Thread.currentThread().sleep(1000);System.out.println(sum);}
}

当一个线程 调用这个不可重入的自旋锁去加锁的时候没问题,因为自旋锁的持有引用为空;当再次调用lock()的时候,因为自旋锁的持有引用已经不为空了,该线程对象会误认为是别人的线程持有了自旋锁
使用了CAS原子操作,lock函数将owner设置为当前线程,并且预测原来的值为空。unlock函数将owner设置为null,并且预测值为当前线程。
当有第二个线程调用lock操作时由于owner值不为空,导致循环一直被执行,直至第一个线程调用unlock函数将owner设置为null,第二个线程才能进入临界区。
由于自旋锁只是将当前线程不停地执行循环体,不进行线程状态的改变,所以响应速度更快。但当线程数不停增加时,性能下降明显,因为每个线程都需要执行,占用CPU时间。如果线程竞争不激烈,并且保持锁的时间段。适合使用自旋锁。

  1. 分布式锁
    有数据库实现、缓存实现、Zookeeper分布式锁

java架构学习——5. 线程池原理剖析锁的深度化相关推荐

  1. java并发包线程池原理分析锁的深度化

    java并发包&线程池原理分析&锁的深度化 并发包 同步容器类 Vector与ArrayList区别 1.ArrayList是最常用的List实现类,内部是通过数组实现的,它允许对元素 ...

  2. Python学习:线程池原理及实现

    传统多线程方案会使用"即时创建, 即时销毁"的策略.尽管与创建进程相比,创建线程的时间已经大大的缩短,但是如果提交给线程的任务是执行时间较短,而且执行次数极其频繁,那么服务器将处于 ...

  3. JAVA阻塞队列和线程池原理

    阻塞队列 队列 队列是一种特殊的线性表,遵循先入先出.后入后出的基本原则,一般来说,它只允许在表的前端进行删除操作,而在表的后端进行插入操作. 什么是阻塞队列 支持阻塞的插入方法,当队列满时,队列会阻 ...

  4. 并发编程--线程池原理

    阻塞队列和非阻塞队列 ConcurrentLinkedQueue类 适用于高并发场景下的队列,通过无锁的方式,实现了高并发状态下的高性能,通常ConcurrentLinkedQueue性能好于Bloc ...

  5. 【5】线程池原理分析

    目录 知识点1:并发包 1.(计数器)CountDownLatch 2.(屏障)CyclicBarrier 3.(计数信号量)Semaphore (1)案例 4.并发队列 5.阻塞队列与非阻塞队 (1 ...

  6. Java多线程闲聊(四):阻塞队列与线程池原理

    Java多线程闲聊(四)-阻塞队列与线程池原理 前言 复用永远是人们永恒的主题,这能让我们更好地避免重复制造轮子. 说到多线程,果然还是绕不开线程池,那就来聊聊吧. 人们往往相信,世界是存在一些规律的 ...

  7. Java 并发编程——Executor框架和线程池原理

    Java 并发编程系列文章 Java 并发基础--线程安全性 Java 并发编程--Callable+Future+FutureTask java 并发编程--Thread 源码重新学习 java并发 ...

  8. 手写一个线程池,带你学习ThreadPoolExecutor线程池实现原理

    摘要:从手写线程池开始,逐步的分析这些代码在Java的线程池中是如何实现的. 本文分享自华为云社区<手写线程池,对照学习ThreadPoolExecutor线程池实现原理!>,作者:小傅哥 ...

  9. JAVA线程池原理以及几种线程池类型介绍

    在什么情况下使用线程池? 1.单个任务处理的时间比较短      2.将需处理的任务的数量大 使用线程池的好处: 1.减少在创建和销毁线程上所花的时间以及系统资源的开销      2.如不使用线程池, ...

最新文章

  1. mysql source防止乱码
  2. no python interpreter configured
  3. map初始化_需要掌握的Go基础之map:文末附面试题一道
  4. jsp中通过多种方式实现面包屑导航
  5. 年度最期待游戏废土2登陆Linux
  6. vscode安装sftp控制文件自动上传
  7. PartnerSet in IBASE
  8. ACM成长之路(干货) 我爱ACM,与君共勉
  9. 通过setTimeout来取消因大量计算造成的网页卡顿
  10. 面向对象封装之无参无返,无参有返
  11. 程序员30岁之前如何月入五万
  12. Sysmon勘验、分析现场(主机监控)
  13. (组合数学笔记)递推关系小结及典型题分析
  14. 我爱我家:旗下APP已全面兼容鸿蒙系统
  15. 微软十二月补丁星期二修复58个漏洞
  16. 《Unix环境高级编程》读书笔记 第5章-标准I/O流
  17. t3网络计算机浏览卡死,凭证一点打印 系统就卡死了 重启后还是这样
  18. 使用 HTML5 webSocket API实现即时通讯的功能
  19. spring cloud gateway 源码解析(4)跨域问题处理
  20. 如何下载无水印的抖音视频?

热门文章

  1. java和c++的区别_JAVA和C++区别详解
  2. python开发sdk模块
  3. Java学习之汉诺塔问题
  4. [附源码]JAVA+ssm基于Java的民宿运营管理网站(程序+Lw)
  5. 自相关函数和偏自相关函数(ACF、PACF)
  6. 【lvcreate】创建lv需要在vg上创建
  7. java 获取permgen_Java程序故意填写PermGen?
  8. VisualBasic程序设计第六章的学习与自测
  9. 1.8新版本KubernetesK8s二进制高可用集群部署
  10. 蓝鸟bluebird Promise库介绍