jbpm 4 工作流会签的理解

本文介绍了一种基于任务节点的会签流程实现方法,包括如何根据参与者人数动态创建子任务,以及不同会签类型的实现方式,如一票否决、全票通过等,并详细解释了完成子任务的步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

理解步骤:

1 用一个任务节点来代表会签任务,当流程执行到当前节点的时候时,根据会签的参与者人数,动态地创建子任务。(jbpm4对子任务的支持的比较好。)

2 一般会签的种类:一票否决,一票通过,全票通过,半数通过等。其实现无非是分为两种,按投票数的绝对票数,另一种是按投票占的百份比数,决策则有:通过,放弃,拒绝(反对)。建立枚举类,用于决定判断:

 

/**
 * 会签投票意见类型
 *
 * @author lijian
 * @version 2011-12-22
 */
public enum CountersignVoteType {

    AGREE, // 同意
    REFUSE, // 拒绝
    WAIVER; // 弃权,放弃

    public static CountersignVoteType getWebFlowConstants(String constants) {
        if (constants == null || "".equals(constants)) {
            return null;
        }
        if (CountersignVoteType.AGREE.toString().equals(constants)) {
            return CountersignVoteType.AGREE;
        } else if (CountersignVoteType.REFUSE.toString().equals(constants)) {
            return CountersignVoteType.REFUSE;
        } else {
            return CountersignVoteType.WAIVER;
        }
    }
}

 

3 创建子任务:

/**
     * 通过主任务及参与人,创建子任务
     *
     * @param parentTaskId
     *            父任务 ID
     * @param userIds
     *            任务执行人IDs
     */
    public void addSubTask(String parentTaskId, String[] userIds) {

        TaskServiceImpl taskServiceImpl = (TaskServiceImpl) taskService;
        Task parentTask = taskServiceImpl.getTask(parentTaskId);

        // 为该父任务加上会签的人员数,方便后面对会签的投票进行统计
        Map<String, Integer> vars = new HashMap<String, Integer>();
        vars.put("taskSignCounts", new Integer(userIds.length));
        taskServiceImpl.setVariables(parentTaskId, vars);

        for (int i = 0; i < userIds.length; i++) {
            String userId = userIds[i];
            // 只有通过TaskImpl才能创建子任务
            TaskImpl task = (TaskImpl) taskServiceImpl.newTask(parentTaskId);
            task.setAssignee(userId);
            task.setName(parentTask.getName() + "-" + (i + 1));
            task.setActivityName(parentTask.getName());
            task.setDescription(parentTask.getDescription());
            // 保存
            taskServiceImpl.saveTask(task);
        }
    }

 

4 完成子任务:

1)判断子任务数

2)获得会签参与人员

3)查看用户投的是哪一种票(同意还是不同意还是弃权)

4)保存投票信息

5)完成任务,保存变量

6)检查其投票数是否已满足后台会签配置条件  

7)

  1. 根据后台配置的投票类型,取得投票的总数   
  2. Long voteCounts=taskSignDataService.getVoteCounts(parentTask.getId(),taskSign.getDecideType()); 

8) 根据投票类型 做业务判断

(1)情况一:按投票数百分比做判断

(2)情况二:绝对票数多少做判断

如果条件满足了,就往一个节点流。

 

 

内容概要:本文详细比较了GPU、TPU专用AI芯片在大模型推理优化方面的性能、成本及适用场景。GPU以其强大的并行计算能力和高带宽显存,适用于多种类型的神经网络模型和计算任务,尤其适合快速原型开发和边缘计算设备。TPU专为机器学习设计,擅长处理大规模矩阵运算密集型任务,如Transformer模型的推理,具有高吞吐量和低延迟特性,适用于自然语言处理和大规模数据中心的推理任务。专用AI芯片通过高度定制化架构,针对特定神经网络模型进行优化,如卷积神经网络(CNN),在处理特定任务时表现出色,同时具备低功耗和高能效比的优势,适用于边缘计算设备。文章还介绍了各自的优化工具和框架,如CUDA、TensorRT、TPU编译器等,并从硬件成本、运营成本和开发成本三个角度进行了成本对比。 适合人群:从事人工智能、深度学习领域的研究人员和技术人员,尤其是对大模型推理优化感兴趣的读者。 使用场景及目标:①帮助读者理解GPU、TPU和专用AI芯片在大模型推理中的优缺点;②为选择适合的硬件平台提供参考依据,以实现最优的推理性能和成本效益;③介绍各种优化工具和框架,帮助开发者高效部署和优化模型。 其他说明:本文不仅涵盖了硬件架构特性,还深入探讨了优化技术和应用场景,旨在为读者提供全面的技术参考。在选择硬件平台时,需综合考虑具体任务需求、预算限制及开发资源等因素。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值