两数之和

链表表示的逆序整数相加
给定两个用链表表示的非负整数,其数字以逆序方式存储,每个节点包含一位数字。程序需实现这两个数的相加,并以相同形式返回和的链表。算法通过遍历两个链表,逐位相加并处理进位,构建新的链表表示结果。

给你两个 非空 的链表,表示两个非负的整数。它们每位数字都是按照 逆序 的方式存储的,并且每个节点只能存储 一位 数字。

请你将两个数相加,并以相同形式返回一个表示和的链表。

你可以假设除了数字 0 之外,这两个数都不会以 0 开头。

示例 1:


输入:l1 = [2,4,3], l2 = [5,6,4]
输出:[7,0,8]
解释:342 + 465 = 807.
示例 2:

输入:l1 = [0], l2 = [0]
输出:[0]
示例 3:

输入:l1 = [9,9,9,9,9,9,9], l2 = [9,9,9,9]
输出:[8,9,9,9,0,0,0,1]
 

提示:

每个链表中的节点数在范围 [1, 100] 内
0 <= Node.val <= 9
题目数据保证列表表示的数字不含前导零

/**
 * Definition for singly-linked list.
 * function ListNode(val, next) {
 *     this.val = (val===undefined ? 0 : val)
 *     this.next = (next===undefined ? null : next)
 * }
 */
/**
 * @param {ListNode} l1
 * @param {ListNode} l2
 * @return {ListNode}
 */
var addTwoNumbers = function(l1, l2) {
    let addOne=0  //初始化进位值为0
    let sum=new ListNode('0')  //初始化链表头部节点为0
    let head=sum  //将链表头部节点保存下来,用于返回结果
    while(addOne||l1||l2){  //循环条件:如果存在进位或者l1、l2节点不为空
        let val1=l1!==null?l1.val:0  //获取l1节点的值,当l1为空时赋值为0
        let val2=l2!==null?l2.val:0  //获取l2节点的值,当l2为空时赋值为0
        let r1=val1+val2+addOne  //计算当前位的和
        addOne=r1>=10?1:0  //根据和的值更新进位值
        sum.next=new ListNode(r1%10)  //将和的个位数添加到新节点中
        sum=sum.next  //将链表指针后移至刚刚添加的节点
        if(l1) l1=l1.next  //后移l1链表指针,如果l1为空,则l1.next不存在,指向null
        if(l2) l2=l2.next  //后移l2链表指针,如果l2为空,则l2.next不存在,指向null
    }
    return head.next  //返回链表的头节点的下一个节点(0节点是头结点,无意义)
};

 

  1. 初始化 addOne 为 0,用于记录上一位的进位;

  2. 初始化 sum 为一个值为 0 的 ListNode 对象;

  3. head 指向 sum,即 head 也指向了 ListNode 对象;

  4. 进入循环,如果存在进位 addOne,或者 l1l2 链表中还有元素,则继续进行循环;

  5. 分别获取 l1l2 节点的值,若该节点为空则赋值为 0;

  6. 对两个节点的值和进位 addOne 进行求和,得到结果 r1,若该值大于等于 10,则将 addOne 设置为 1,否则设置为 0;

  7. 创建一个新的节点,值为 r1%10,并将其加入到 sum 中;

  8. sum 指向新的节点,以便下一次循环添加节点;

  9. 如果 l1 节点不为空,则将 l1 后移一位;

  10. 如果 l2 节点不为空,则将 l2 后移一位;

  11. 循环结束,返回 head.next,即链表的头结点。

这样就完成了两个链表的相加,并返回和的链表。

【多种改进粒子群算法进行比较】基于启发式算法的深度神经网络卸载策略研究【边缘计算】(Matlab代码实现)内容概要:本文围绕“基于多种改进粒子群算法比较的深度神经网络卸载策略研究”展开,聚焦于边缘计算环境下的计算任务卸载优化问题。通过引入多种改进的粒子群优化(PSO)算法,并与其他启发式算法进行对比,旨在提升深度神经网络模型在资源受限边缘设备上的推理效率与系统性能。文中详细阐述了算法设计、模型构建、优化目标(如延迟、能耗、计算负载均衡)以及在Matlab平台上的代码实现过程,提供了完整的仿真验证与结果分析,展示了不同算法在卸载决策中的表现差异。; 适合人群:具备一定编程基础和优化算法知识,从事边缘计算、人工智能部署、智能优化等相关领域的科研人员及研究生;熟悉Matlab仿真工具的开发者。; 使用场景及目标:①研究边缘计算环境中深度学习模型的任务卸载机制;②对比分析多种改进粒子群算法在复杂优化问题中的性能优劣;③为实际系统中低延迟、高能效的AI推理部署提供算法选型与实现参考; 阅读建议:建议结合提供的Matlab代码进行实践操作,重点关注算法实现细节与参数设置,通过复现仿真结果深入理解不同启发式算法在卸载策略中的适用性与局限性,同时可拓展至其他智能优化算法的对比研究。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值