前段时间,公司要改造现有的单节点调度为分布式任务调度,然后就研究了目前市面上主流的开源分布式任务调度框架,用起来就一个感觉:麻烦!特别是之前在一个类里写了好多个调度任务,改造起来更加麻烦。我这人又比较懒,总感觉用了别人写好的工具还要改一大堆,心里就有点不舒服。于是我就想自己写一个框架,毕竟自己觉得分布式任务调度在所有分布式系统中是最简单的,因为一般公司任务调度本身不可能同时调度海量的任务,很大的并发,改造成分布式主要还是为了分散任务到多个节点,以便同一时间处理更多的任务。后面有一天,我在公司前台取快递,看到这样一个现象:我们好几个同事(包括我)在前台那从头到尾看快递是不是自己的,是自己的就取走,不是就忽略,然后我就收到了启发。这个场景类比到分布式调度系统中,我们可以认为是快递公司或者快递员已经把每个快递按照我们名字电话分好了快递,我们只需要取走自己的就行了。但是从另外一个角度看,也可以理解成我们每个人都是从头到尾看了所有快递,然后按照某种约定的规则,如果是自己的快递就拿走,不是自己的就忽略继续看下一个。如果把快递想象成任务,一堆人去拿一堆快递也可以很顺利的拿到各自的快递,那么一堆节点自己去取任务是不是也可以很好的处理各自的任务呢?

  传统的分布式任务调度都有一个调度中心,这个调度中心也都要部署称多节点的集群,避免单点故障,然后还有一堆执行器,执行器负责执行调度中心分发的任务。按照上面的启发,我的思路是放弃中心式的调度中心直接由各个执行器节点去公共的地方按照约定的规则去取任务,然后执行。设计示意图如下

有人可能怀疑那任务db库不是有单点问题吗,我想反问下,难道其他的分布式任务调度框架没有这个问题吗?针对数据库单点我们可以单独类似业务库那样考虑高可用方案,这里不是这篇文章的讨论重点。很明显我们重点放在执行节点那里到底怎么保证高可用,单个任务不会被多个节点同时执行,单个节点执行到一半突然失联了,这个任务怎么办等复杂的问题。后续我们使用未经修饰的代码的方式一一解决这个问题(未经修饰主要是没有优化结构流水账式的代码风格,主要是很多人包括我自己看别人源码时总是感觉晕头转向的,仿佛置身迷宫般,看起来特别费劲,可能是我自己境界未到吧)

  既然省略了集中式的调度,那么既然叫任务调度很明显必须要有调度的过程,不然多个节点去抢一个任务怎么避免冲突呢?我这里解决方式是:首先先明确一个任务的几种状态:待执行,执行中,有异常,已完成。每个节点起一个线程一直去查很快就要开始执行的待执行任务,然后遍历这些任务,使用乐观锁的方式先更新这个任务的版本号(版本号+1)和状态(变成执行中),如果更新成功就放入节点自己的延时队列中等待执行。由于每个节点的线程都是去数据库查待执行的任务,很明显变成执行中的任务下次就不会被其他节点再查询到了,至于对于那些在本节点更新状态之前就查到的待执行任务也会经过乐观锁尝试后更新失败从而跳过这个任务,这样就可以避免一个任务同时被多个节点重复执行。关键代码如下:

复制代码
package com.rdpaas.task.scheduler;

import com.rdpaas.task.common.*;
import com.rdpaas.task.config.EasyJobConfig;
import com.rdpaas.task.repository.NodeRepository;
import com.rdpaas.task.repository.TaskRepository;
import com.rdpaas.task.strategy.Strategy;

import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.stereotype.Component;

import javax.annotation.PostConstruct;

import java.util.Date;
import java.util.List;
import java.util.concurrent.*;

/**

  • 任务调度器
  • @author rongdi
  • @date 2019-03-13 21:15br/>*/
    @Component
    public class TaskExecutor {

    private static final Logger logger = LoggerFactory.getLogger(TaskExecutor.class);

    @Autowired
    private TaskRepository taskRepository;

    @Autowired
    private NodeRepository nodeRepository;

    @Autowired
    private EasyJobConfig config;/**

    • 创建任务到期延时队列
      */
      private DelayQueue<DelayItem<Task>> taskQueue = new DelayQueue<>();

    /**

    • 可以明确知道最多只会运行2个线程,直接使用系统自带工具就可以了
      */
      private ExecutorService bossPool = Executors.newFixedThreadPool(2);

    /**

    • 声明工作线程池
      */
      private ThreadPoolExecutor workerPool;

    @PostConstruct
    public void init() {
    /**

    • 自定义线程池,初始线程数量corePoolSize,线程池等待队列大小queueSize,当初始线程都有任务,并且等待队列满后
    • 线程数量会自动扩充最大线程数maxSize,当新扩充的线程空闲60s后自动回收.自定义线程池是因为Executors那几个线程工具
    • 各有各的弊端,不适合生产使用
      */
      workerPool = new ThreadPoolExecutor(config.getCorePoolSize(), config.getMaxPoolSize(), 60, TimeUnit.SECONDS, new ArrayBlockingQueue<>(config.getQueueSize()));
      /**
    • 执行待处理任务加载线程
      */
      bossPool.execute(new Loader());
      /**
    • 执行任务调度线程
      */
      bossPool.execute(new Boss());

    }

    class Loader implements Runnable {

    @Override
    public void run() {for(;;) {try { /*** 查找还有指定时间(单位秒)开始的主任务列表*/List<Task> tasks = taskRepository.listPeddingTasks(config.getFetchDuration());if(tasks == null || tasks.isEmpty()) {continue;}for(Task task:tasks) {task.setStatus(TaskStatus.DOING);task.setNodeId(config.getNodeId());/*** 使用乐观锁尝试更新状态,如果更新成功,其他节点就不会更新成功。如果在查询待执行任务列表* 和当前这段时间有节点已经更新了这个任务,version必然和查出来时候的version不一样了,这里更新* 必然会返回0了*/int n = taskRepository.updateWithVersion(task);Date nextStartTime = task.getNextStartTime();if(n == 0 || nextStartTime == null) {continue;}/*** 封装成延时对象放入延时队列*/task = taskRepository.get(task.getId());DelayItem<Task> delayItem = new DelayItem<Task>(nextStartTime.getTime() - new Date().getTime(), task);taskQueue.offer(delayItem);}Thread.sleep(config.getFetchPeriod());} catch(Exception e) {logger.error("fetch task list failed,cause by:{}", e);}}
    }

    }

    class Boss implements Runnable {br/>@Override
    public void run() {
    for (;;) {
    try {
    /**

    • 时间到了就可以从延时队列拿出任务对象,然后交给worker线程池去执行
      */
      DelayItem<Task> item = taskQueue.take();
      if(item != null && item.getItem() != null) {
      Task task = item.getItem();
      workerPool.execute(new Worker(task));
      }

          } catch (Exception e) {logger.error("fetch task failed,cause by:{}", e);}
      }

      }

    }

    class Worker implements Runnable {

    private Task task;public Worker(Task task) {this.task = task;
    }@Override
    public void run() {logger.info("Begin to execute task:{}",task.getId());TaskDetail detail = null;try {//开始任务detail = taskRepository.start(task);if(detail == null) return;//执行任务task.getInvokor().invoke();//完成任务finish(task,detail);logger.info("finished execute task:{}",task.getId());} catch (Exception e) {logger.error("execute task:{} error,cause by:{}",task.getId(), e);try {taskRepository.fail(task,detail,e.getCause().getMessage());} catch(Exception e1) {logger.error("fail task:{} error,cause by:{}",task.getId(), e);}}
    }

    }

    /**

    • 完成子任务,如果父任务失败了,子任务不会执行
    • @param task
    • @param detail
    • @throws Exception
      */
      private void finish(Task task,TaskDetail detail) throws Exception {

      //查看是否有子类任务
      List<Task> childTasks = taskRepository.getChilds(task.getId());
      if(childTasks == null || childTasks.isEmpty()) {
      //当没有子任务时完成父任务
      taskRepository.finish(task,detail);
      return;
      } else {
      for (Task childTask : childTasks) {
      //开始任务
      TaskDetail childDetail = null;
      try {
      //将子任务状态改成执行中
      childTask.setStatus(TaskStatus.DOING);
      childTask.setNodeId(config.getNodeId());
      //开始子任务
      childDetail = taskRepository.startChild(childTask,detail);
      //使用乐观锁更新下状态,不然这里可能和恢复线程产生并发问题
      int n = taskRepository.updateWithVersion(childTask);
      if (n > 0) {
      //再从数据库取一下,避免上面update修改后version不同步
      childTask = taskRepository.get(childTask.getId());
      //执行子任务
      childTask.getInvokor().invoke();
      //完成子任务
      finish(childTask, childDetail);
      }
      } catch (Exception e) {
      logger.error("execute child task error,cause by:{}", e);
      try {
      taskRepository.fail(childTask, childDetail, e.getCause().getMessage());
      } catch (Exception e1) {
      logger.error("fail child task error,cause by:{}", e);
      }
      }
      }
      /**

      • 当有子任务时完成子任务后再完成父任务
        */
        taskRepository.finish(task,detail);

      }

    }

}
复制代码
  如上所述,可以保证一个任务同一个时间只会被一个节点调度执行。这时候如果部署多个节点,正常应该可以很顺利的将任务库中的任务都执行到,就像一堆人去前台取快递一样,可以很顺利的拿走所有快递。毕竟对于每个快递不是自己的就是其他人的,自己的快递也不会是其他人的。但是这里的调度和取快递有一点不一样,取快递的每个人都知道怎么去区分到底哪个快递是自己的。这里的调度完全没这个概念,完全是哪个节点运气好使用乐观锁更新了这个任务状态就是哪个节点的。总的来说区别就是需要一个约定的规则,快递是不是自己的,直接看快递上的名字和手机号码就知道了。任务到底该不该自己执行我们也可以出一个这种规则,明确哪些任务那些应该是哪些节点可以执行,从而避免无谓的锁竞争。这里可以借鉴负载均衡的那些策略,目前我想实现如下规则:

  1) id_hash : 按照任务自增id的对节点个数取余,余数值和当前节点的实时序号匹配,可以匹配就可以拿走执行,否则请自觉忽略掉这个任务

  2) least_count:最少执行任务的节点优先去取任务

  3) weight:按照节点权重去取任务

  4) default: 默认先到先得,没有其它规则

  根据上面规则也可以说是任务的负载均衡策略可以知道除了默认规则,其余规则都需要知道全局的节点信息,比如节点执行次数,节点序号,节点权重等,所以我们需要给节点添加一个心跳,隔一个心跳周期上报一下自己的信息到数据库,心跳核心代码如下:

复制代码
/**

  • 创建节点心跳延时队列
    */
    private DelayQueue<DelayItem<Node>> heartBeatQueue = new DelayQueue<>();
      /**
  • 可以明确知道最多只会运行2个线程,直接使用系统自带工具
    */
    private ExecutorService bossPool = Executors.newFixedThreadPool(2);
      

   @PostConstruct
public void init() {
/**

  • 如果恢复线程开关是开着,并且心跳开关也是开着
    */
    if(config.isRecoverEnable() && config.isHeartBeatEnable()) {
    /**

    • 初始化一个节点到心跳队列,延时为0,用来注册节点
      */
      heartBeatQueue.offer(new DelayItem<>(0,new Node(config.getNodeId())));
      /**
    • 执行心跳线程
      */
      bossPool.execute(new HeartBeat());
      /**
    • 执行异常恢复线程
      */
      bossPool.execute(new Recover());
      }
      }

      class HeartBeat implements Runnable {br/>@Override
    public void run() {
    for(;;) {
    try {
    /**

    • 时间到了就可以从延时队列拿出节点对象,然后更新时间和序号,
    • 最后再新建一个超时时间为心跳时间的节点对象放入延时队列,形成循环的心跳
      /
      DelayItem<Node> item = heartBeatQueue.take();
      if(item != null && item.getItem() != null) {
      Node node = item.getItem();
      handHeartBeat(node);
      }
      heartBeatQueue.offer(new DelayItem<>(config.getHeartBeatSeconds()
      1000,new Node(config.getNodeId())));
      } catch (Exception e) {
      logger.error("task heart beat error,cause by:{} ",e);
      }
      }
      }
      }

    /**

    • 处理节点心跳
    • @param node
      */
      private void handHeartBeat(Node node) {
      if(node == null) {
      return;
      }
      /**
  • 先看看数据库是否存在这个节点
  • 如果不存在:先查找下一个序号,然后设置到node对象中,最后插入
  • 如果存在:直接根据nodeId更新当前节点的序号和时间
    */
    Node currNode= nodeRepository.getByNodeId(node.getNodeId());
    if(currNode == null) {
    node.setRownum(nodeRepository.getNextRownum());
    nodeRepository.insert(node);
    } else {
    nodeRepository.updateHeartBeat(node.getNodeId());
    }

    }
    复制代码
      数据库有了节点信息后,我们就可以实现各种花式的取任务的策略了,代码如下:

复制代码
/**

  • 抽象的策略接口
  • @author rongdi
  • @date 2019-03-16 12:36
    */
    public interface Strategy {

    /**

    • 默认策略
      */
      String DEFAULT = "default";

    /**

    • 按任务ID hash取余再和自己节点序号匹配
      */
      String ID_HASH = "id_hash";

    /**

    • 最少执行次数
      */
      String LEAST_COUNT = "least_count";

    /**

    • 按节点权重
      */
      String WEIGHT = "weight";

    public static Strategy choose(String key) {
    switch(key) {
    case ID_HASH:
    return new IdHashStrategy();
    case LEAST_COUNT:
    return new LeastCountStrategy();
    case WEIGHT:
    return new WeightStrategy();
    default:
    return new DefaultStrategy();
    }
    }

    public boolean accept(List<Node> nodes,Task task,Long myNodeId);

}
复制代码
复制代码
/**

  • 按照任务ID hash方式针对有效节点个数取余,然后余数+1后和各个节点的顺序号匹配,
  • 这种方式效果其实等同于轮询,因为任务id是自增的
  • @author rongdi
  • @date 2019-03-16
    */
    public class IdHashStrategy implements Strategy {

    /**

    • 这里的nodes集合必然不会为空,外面调度那判断了,而且是按照nodeId的升序排列的br/>*/
      @Override
      public boolean accept(List<Node> nodes, Task task, Long myNodeId) {
      int size = nodes.size();
      long taskId = task.getId();
      /**
    • 找到自己的节点
      */
      Node myNode = nodes.stream().filter(node -> node.getNodeId() == myNodeId).findFirst().get();
      return myNode == null ? false : (taskId % size) + 1 == myNode.getRownum();
      }

}
复制代码
复制代码
/**

  • 最少处理任务次数策略,也就是每次任务来了,看看自己是不是处理任务次数最少的,是就可以消费这个任务
  • @author rongdi
  • @date 2019-03-16 21:56
    */
    public class LeastCountStrategy implements Strategy {

    @Override
    public boolean accept(List<Node> nodes, Task task, Long myNodeId) {

    /*** 获取次数最少的那个节点,这里可以类比成先按counts升序排列然后取第一个元素* 然后是自己就返回true*/
    Optional<Node> min = nodes.stream().min((o1, o2) -> o1.getCounts().compareTo(o2.getCounts()));return min.isPresent()? min.get().getNodeId() == myNodeId : false;

    }

}
复制代码
复制代码
/**

  • 按权重的分配策略,方案如下,假如
  • 节点序号 1 ,2 ,3 ,4
  • 节点权重 2 ,3 ,3 ,2
  • 则取余后 0,1 | 2,3,4 | 5,6,7 | 8,9
  • 序号1可以消费按照权重的和取余后小于2的
  • 序号2可以消费按照权重的和取余后大于等于2小于2+3的
  • 序号3可以消费按照权重的和取余后大于等于2+3小于2+3+3的
  • 序号3可以消费按照权重的和取余后大于等于2+3+3小于2+3+3+2的
  • 总结:本节点可以消费的按照权重的和取余后大于等于前面节点的权重和小于包括自己的权重和的这个范围
  • 不知道有没有大神有更好的算法思路
  • @author rongdi
  • @date 2019-03-16 23:16
    */
    public class WeightStrategy implements Strategy {

    @Override
    public boolean accept(List<Node> nodes, Task task, Long myNodeId) {
    Node myNode = nodes.stream().filter(node -> node.getNodeId() == myNodeId).findFirst().get();
    if(myNode == null) {
    return false;
    }
    /**

    • 计算本节点序号前面的节点的权重和
      */
      int preWeightSum = nodes.stream().filter(node -> node.getRownum() < myNode.getRownum()).collect(Collectors.summingInt(Node::getWeight));
      /**
    • 计算全部权重的和
      */
      int weightSum = nodes.stream().collect(Collectors.summingInt(Node::getWeight));
      /**
    • 计算对权重和取余的余数
      */
      int remainder = (int)(task.getId() % weightSum);
      return remainder >= preWeightSum && remainder < preWeightSum + myNode.getWeight();
      }

}
复制代码
  然后我们再改造下调度类

复制代码
/**

  • 获取任务的策略
    */
    private Strategy strategy;

    @PostConstruct
    public void init() {
    /**

    • 根据配置选择一个节点获取任务的策略
      */
      strategy = Strategy.choose(config.getNodeStrategy());
      /**
    • 自定义线程池,初始线程数量corePoolSize,线程池等待队列大小queueSize,当初始线程都有任务,并且等待队列满后
    • 线程数量会自动扩充最大线程数maxSize,当新扩充的线程空闲60s后自动回收.自定义线程池是因为Executors那几个线程工具
    • 各有各的弊端,不适合生产使用
      */
      workerPool = new ThreadPoolExecutor(config.getCorePoolSize(), config.getMaxPoolSize(), 60, TimeUnit.SECONDS, new ArrayBlockingQueue<>(config.getQueueSize()));
      /**
    • 执行待处理任务加载线程
      */
      bossPool.execute(new Loader());
      /**
    • 执行任务调度线程
      */
      bossPool.execute(new Boss());

    }

    class Loader implements Runnable {

    @Override
    public void run() {for(;;) {try { /*** 先获取可用的节点列表*/List<Node> nodes = nodeRepository.getEnableNodes(config.getHeartBeatSeconds() * 2);if(nodes == null || nodes.isEmpty()) {continue;}/*** 查找还有指定时间(单位秒)开始的主任务列表*/List<Task> tasks = taskRepository.listPeddingTasks(config.getFetchDuration());if(tasks == null || tasks.isEmpty()) {continue;}for(Task task:tasks) {boolean accept = strategy.accept(nodes, task, config.getNodeId());/*** 不该自己拿就不要抢*/if(!accept) {continue;}task.setStatus(TaskStatus.DOING);task.setNodeId(config.getNodeId());/*** 使用乐观锁尝试更新状态,如果更新成功,其他节点就不会更新成功。如果在查询待执行任务列表* 和当前这段时间有节点已经更新了这个任务,version必然和查出来时候的version不一样了,这里更新* 必然会返回0了*/int n = taskRepository.updateWithVersion(task);Date nextStartTime = task.getNextStartTime();if(n == 0 || nextStartTime == null) {continue;}/*** 封装成延时对象放入延时队列*/task = taskRepository.get(task.getId());DelayItem<Task> delayItem = new DelayItem<Task>(nextStartTime.getTime() - new Date().getTime(), task);taskQueue.offer(delayItem);}Thread.sleep(config.getFetchPeriod());} catch(Exception e) {logger.error("fetch task list failed,cause by:{}", e);}}
    }

    }
    复制代码
      如上可以通过各种花式的负载策略来平衡各个节点获取的任务,同时也可以显著降低各个节点对同一个任务的竞争。但是还有个问题,假如某个节点拿到了任务更新成了执行中,执行到一半,没执行完也没发生异常,突然这个节点由于各种原因挂了,那么这时候这个任务永远没有机会再执行了。这就是传说中的占着茅坑不拉屎。解决这个问题可以用最终一致系统常见的方法,异常恢复线程。在这种场景下只需要检测一下指定心跳超时时间(比如默认3个心跳周期)下没有更新心跳时间的节点所属的未完成任务,将这些任务状态重新恢复成待执行,并且下次执行时间改成当前就可以了。核心代码如下:

复制代码
  class Recover implements Runnable {br/>@Override
public void run() {
for (;;) {
try {
/**

  • 查找需要恢复的任务,这里界定需要恢复的任务是任务还没完成,并且所属执行节点超过3个
  • 心跳周期没有更新心跳时间。由于这些任务由于当时执行节点没有来得及执行完就挂了,所以
  • 只需要把状态再改回待执行,并且下次执行时间改成当前时间,让任务再次被调度一次
    /
    List<Task> tasks = taskRepository.listRecoverTasks(config.getHeartBeatSeconds()
    3);
    if(tasks == null || tasks.isEmpty()) {
    return;
    }
    /**

    • 先获取可用的节点列表
      /
      List<Node> nodes = nodeRepository.getEnableNodes(config.getHeartBeatSeconds()
      2);
      if(nodes == null || nodes.isEmpty()) {
      return;
      }
      long maxNodeId = nodes.get(nodes.size() - 1).getNodeId();
      for (Task task : tasks) {
      /**

      • 每个节点有一个恢复线程,为了避免不必要的竞争,从可用节点找到一个最靠近任务所属节点的节点
        */
        long currNodeId = chooseNodeId(nodes,maxNodeId,task.getNodeId());
        long myNodeId = config.getNodeId();www.4000131666.com/
        /**
      • 如果不该当前节点处理直接跳过
        */
        if(currNodeId != myNodeId) {
        continue;
        }
        /**
      • 直接将任务状态改成待执行,并且节点改成当前节点
        /
        task.setStatus(TaskStatus.PENDING);
        task.setNextStartTime(new Date());
        task.setNodeId(config.getNodeId());
        taskRepository.updateWithVersion(task);
        }
        Thread.sleep(config.getRecoverSeconds()
        1000);
        } catch (Exception e) {
        logger.error("Get next task failed,cause by:{}", e);
        }
        }
        }

    }
      /**

    • 选择下一个节点
    • @param nodes
    • @param maxNodeId
    • @param nodeId
    • @return
      */
      private long chooseNodeId(List<Node> nodes,long maxNodeId,long nodeId) {
      if(nodeId > maxNodeId) {
      return nodes.get(0).getNodeId();
      }
      return nodes.stream().filter(node -> node.getNodeId() > nodeId).findFirst().get().getNodeId();
      }
      复制代码www.zztjyy.com
        如上为了避免每个节点的异常恢复线程对同一个任务做无谓的竞争,每个异常任务只能被任务所属节点ID的下一个正常节点去恢复。这样处理后就能确保就算出现了上面那种任务没执行完节点挂了的情况,一段时间后也可以自动恢复。总的来说上面那些不考虑优化应该可以做为一个还不错的任务调度框架了。如果你们以为这样就完了,我只能说抱歉了,还有,哈哈!前面提到我是嫌弃其它任务调度用起来麻烦,特别是习惯用spring的注解写调度的,那些很可能一个类里写了n个带有@Scheduled注解的调度方法,这样改造起来更加麻烦,我是希望做到如下方式就可以直接整合到分布式任务调度里:

复制代码
/**

  • 测试调度功能
  • @author rongdi
  • @date 2019-03-17 16:54br/>*/
    @Component
    public class SchedulerTest {

    @Scheduled(cron = "0/10 ?")
    public void test1() throws InterruptedException {
    SimpleDateFormat sdf = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");
    Thread.sleep(2000);
    System.out.println("当前时间1:"+sdf.format(new Date()));
    }

    @Scheduled(cron = "0/20 ?",parent = "test1")
    public void test2() throws InterruptedException {
    SimpleDateFormat sdf = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");
    Thread.sleep(2000);
    System.out.println("当前时间2:"+sdf.format(new Date()));
    }

    @Scheduled(cron = "0/10 ?",parent = "test2")
    public void test3() throws InterruptedException {
    SimpleDateFormat sdf = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");
    Thread.sleep(2000);
    System.out.println("当前时间3:"+sdf.format(new Date()));
    }

    @Scheduled(cron = "0/10 ?",parent = "test3")
    public void test4() throws InterruptedException {
    SimpleDateFormat sdf = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");
    Thread.sleep(2000);
    System.out.println("当前时间4:"+sdf.format(new Date()));
    }

}
复制代码
  为了达到上述目标,我们还需要在spring启动后加载自定义的注解(名称和spring的一样),代码如下

复制代码
/**

  • spring容器启动完后,加载自定义注解
  • @author rongdi
  • @date 2019-03-15 21:07br/>*/
    @Component
    public class ContextRefreshedListener implements ApplicationListener<ContextRefreshedEvent> {

    @Autowired
    private TaskExecutor taskExecutor;

    /**

    • 用来保存方法名/任务名和任务插入后数据库的ID的映射,用来处理子任务新增用
      */
      private Map<String,Long> taskIdMap = new HashMap<>();

    @Override
    public void onApplicationEvent(ContextRefreshedEvent event) {
    /**

    • 判断根容器为Spring容器,防止出现调用两次的情况(mvc加载也会触发一次)
      */
      if(event.getApplicationContext().getParent()==null){
      /**

      • 判断调度开关是否打开
      • 如果打开了:加载调度注解并将调度添加到调度管理中
        */
        ApplicationContext context = event.getApplicationContext();
        Map<String,Object> beans = context.getBeansWithAnnotation(org.springframework.scheduling.annotation.EnableScheduling.class);
        if(beans == null) {
        return;
        }
        /**
      • 用来存放被调度注解修饰的方法名和Method的映射
        */
        Map<String,Method> methodMap = new HashMap<>();
        /**
      • 查找所有直接或者间接被Component注解修饰的类,因为不管Service,Controller等都包含了Component,也就是
      • 只要是被纳入了spring容器管理的类必然直接或者间接的被Component修饰
        */
        Map<String,Object> allBeans = context.getBeansWithAnnotation(org.springframework.stereotype.Component.class);
        Set<Map.Entry<String,Object>> entrys = allBeans.entrySet();
        /**
      • 遍历bean和里面的method找到被Scheduled注解修饰的方法,然后将任务放入任务调度里
        */
        for(Map.Entry entry:entrys){
        Object obj = entry.getValue();
        Class clazz = obj.getClass();
        Method[] methods = clazz.getMethods();
        for(Method m:methods) {
        if(m.isAnnotationPresent(Scheduled.class)) {
        methodMap.put(clazz.getName() + Delimiters.DOT + m.getName(),m);
        }
        }
        }
        /**
      • 处理Sheduled注解
        */
        handleSheduledAnn(methodMap);
        /**
      • 由于taskIdMap只是启动spring完成后使用一次,这里可以直接清空
        */
        taskIdMap.clear();
        }
        }

    /**

    • 循环处理方法map中的所有Method
    • @param methodMap
      */
      private void handleSheduledAnn(Map<String,Method> methodMap) {
      if(methodMap == null || methodMap.isEmpty()) {
      return;
      }
      Set<Map.Entry<String,Method>> entrys = methodMap.entrySet();
      /**

      • 遍历bean和里面的method找到被Scheduled注解修饰的方法,然后将任务放入任务调度里
        */
        for(Map.Entry<String,Method> entry:entrys){
        Method m = entry.getValue();
        try {
        handleSheduledAnn(methodMap,m);
        } catch (Exception e) {
        e.printStackTrace();
        continue;
        }
        }
        }

    /**

    • 递归添加父子任务
    • @param methodMap
    • @param m
    • @throws Exception
      */
      private void handleSheduledAnn(Map<String,Method> methodMap,Method m) throws Exception {
      Class<?> clazz = m.getDeclaringClass();
      String name = m.getName();
      Scheduled sAnn = m.getAnnotation(Scheduled.class);
      String cron = sAnn.cron();
      String parent = sAnn.parent();
      /**

      • 如果parent为空,说明该方法代表的任务是根任务,则添加到任务调度器中,并且保存在全局map中
      • 如果parent不为空,则表示是子任务,子任务需要知道父任务的id
      • 先根据parent里面代表的方法全名或者方法名(父任务方法和子任务方法在同一个类直接可以用方法名,
      • 不然要带上类的全名)从taskIdMap获取父任务ID
      • 如果找不到父任务ID,先根据父方法全名在methodMap找到父任务的method对象,调用本方法递归下去
      • 如果找到父任务ID,则添加子任务
        */
        if(StringUtils.isEmpty(parent)) {
        if(!taskIdMap.containsKey(clazz.getName() + Delimiters.DOT + name)) {
        Long taskId = taskExecutor.addTask(name, cron, new Invocation(clazz, name, new Class[]{}, new Object[]{}));
        taskIdMap.put(clazz.getName() + Delimiters.DOT + name, taskId);
        }
        } else {
        String parentMethodName = parent.lastIndexOf(Delimiters.DOT) == -1 ? clazz.getName() + Delimiters.DOT + parent : parent;
        Long parentTaskId = taskIdMap.get(parentMethodName);
        if(parentTaskId == null) {
        Method parentMethod = methodMap.get(parentMethodName);
        handleSheduledAnn(methodMap,parentMethod);
        /**

        • 递归回来一定要更新一下这个父任务ID
          */
          parentTaskId = taskIdMap.get(parentMethodName);
          }
          if(parentTaskId != null && !taskIdMap.containsKey(clazz.getName() + Delimiters.DOT + name)) {
          Long taskId = taskExecutor.addChildTask(parentTaskId, name, cron, new Invocation(clazz, name, new Class[]{}, new Object[]{}));
          taskIdMap.put(clazz.getName() + Delimiters.DOT + name, taskId);
          }

      }

    }
    }
    复制代码
      上述代码就完成了spring初始化完成后加载了自己的自定义任务调度的注解,并且也受spring的调度开关@EnableScheduling的控制,实现无缝整合到spring或者springboot中去,达到了我这种的懒人的要求。

  好了其实写这个框架差不多就用了5天业余时间,估计会有一些隐藏的坑,不过明显的坑我自己都解决了,开源出来的目的既是为了抛砖引玉,也为了广大屌丝程序员提供一种新的思路,希望对大家有所帮助,同时也希望大家多帮忙找找bug,一起来完善这个东西,大神们请忽略。文笔不好,主要是好久没写作文了,请大家多多担待。详细的流水账式的源码加上长篇大论式的汉语注释尽情查看:https://github.com/rongdi/easy-job

转载于:https://blog.51cto.com/14236847/2364631

自己动手实现分布式任务调度框架相关推荐

  1. 分布式任务调度框架和微服务的区别

    一.前言 分布式大行其下的时代,让大家彻底的抛弃了传统陈旧的技术框架.几乎每一个技术人都知道和掌握了微服务架构,微服务自然有它的美,但是所以技术框架都必须服务于业务,结合自身业务选取甚至自研适合自身的 ...

  2. XXL-Job分布式任务调度框架-- 介绍和调度中心的搭建启动1

    一 xxl-job介绍 1.1 xxl-job介绍 xxl-job是轻量级的分布式任务调度框架,目标是开发迅速.简单.清理.易扩展; 老版本是依赖quartz的定时任务触发,在v2.1.0版本开始 移 ...

  3. 分布式任务调度框架Power-Job

    分布式任务调度框架的由来及对比 在大型业务业务系统中,不可避免会出现一些需要定时执行需求的场景,例如定时同步数据,定时清洗数据,定时生成报表,大量机器一同执行某个任务,甚至有些需要分布式处理的任务例如 ...

  4. 分布式任务调度框架(Temporal)介绍

    分布式任务调度框架基本能力: 任务管理能力(增删改查.执行.定时执行.延时执行.健康监控) 集群管理能力(扩展简单.效率高) 编程能力(运行代码) Web界面管理 目前市面上有很多可用于处理分布式任务 ...

  5. 【niubi-job——一个开源的分布式任务调度框架】-----安装教程

    niubi-job是什么 niubi-job是LZ耗时三个星期,费尽心血打造的一个具备高可靠性以及水平扩展能力的分布式任务调度框架,采用quartz作为底层的任务调度管理器,zookeeper做集群的 ...

  6. LTS 轻量级分布式任务调度框架(Light Task Schedule) - 推酷

    LTS 轻量级分布式任务调度框架(Light Task Schedule) - 推酷

  7. LTS 轻量级分布式任务调度框架(Light Task Scheduler)

    框架概况: LTS是一个轻量级分布式任务调度框架.有三种角色, JobClient, JobTracker, TaskTracker.各个节点都是无状态的,可以部署多个,来实现负载均衡,实现更大的负载 ...

  8. 分布式任务调度框架XXL-JOB --配置部署

    配置部署"调度中心" 调度中心项目:xxl-job-admin 作用:统一管理任务调度平台上调度任务,负责触发调度执行,并且提供任务管理平台. 步骤一:调度中心配置: 调度中心配置 ...

  9. 生产环境的分布式任务调度框架如何选择?quartz、xxl-job、Elastic-Job、Saturn

    一.Quartz 支持集群和分布式,但是没有友好的管理界面,功能单一,对于管理调用的任务比较困难. quartz使用数据库锁.在quartz的集群解决方案里有张表scheduler_locks,qua ...

最新文章

  1. 同时更改一条数据_数据库中的引擎、事务、锁、MVCC(二)
  2. VS2017 性能优化方法
  3. C++:类-多态的学习和使用
  4. 全能电子地图_全能电子地图下载文件结构说明
  5. Android入门(二) | 项目目录及主要文件作用分析
  6. 苹果为提振销量疯狂试探!官网推出新福利:买买买更轻松
  7. cve-2014-7911安卓提权漏洞分析
  8. webpack打包样式资源_使用loader去打包css文件_打包less文件---webpack工作笔记004
  9. turtle画动态时钟
  10. Ubuntu中将otf字体转换为ttf字体
  11. 鸿蒙形容欣欣向荣发展,形容发展迅速的12个成语
  12. 计算机中哪些服务是可以禁止的,win10哪些服务可以禁用?优化win10系统服务的方法...
  13. 机器学习基础教程——最小二乘法案列
  14. android安装到内存卡,android手机怎么把软件安装到内存卡里
  15. python把二维列表转成一维列表
  16. java人民币美元转换_人民币与美元的汇率转换 ------Java实现
  17. python读取excel表格数据
  18. 关于nodejs gm的各种各样的问题解决方法集合(中文乱码,non-conforming drawing,��Ч���� )
  19. 微信控制树莓派运行python_树莓派笔记07-微信公众号控制树莓派(一)
  20. mysql 数据库军规_MySQL 数据库开发的 36 条军规

热门文章

  1. 在vb中使用Iphlpapi.dll获取网络信息(上)
  2. [通达信] 融维创富主图公式
  3. 斩断亏损,让利润奔跑
  4. 谷歌提出新型自动语音识别数据增强大法,直接对频谱图“动刀”,提升模型表现...
  5. 程序员漫画:影响程序员一生的书单
  6. 任意目录下启动tomcat
  7. 从官网下载jdk1.6 1.7
  8. MySQL/MariaDB Tips
  9. 理顺 JavaScript (7) - 数字相关问题
  10. 企业管理器开启和关闭数据库时出现Error Messsage