leetcode——反转链表

文章介绍了如何反转单链表的两种方法:一种是迭代法,通过改变头结点的指向来实现;另一种是利用栈,将链表节点入栈后再构造反向链表。在实现过程中需要注意空指针异常以及特殊情况的处理,如链表为空或防止形成环形链表。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

题目描述:
给定一个单链表的头结点pHead(该头节点是有值的,比如在下图,它的val是1),长度为n,反转该链表后,返回新链表的表头。

解题思路:
这里提供两个解题思路,迭代法和利用栈的方法
方法一、
迭代法就是依次反转链表的头结点指向即可,那点在于变换头结点指向时顺序别错了
方法二、
该思想是先创建一个栈,栈中存放链表的结点,依次入栈, 然后构造反链表时依次出栈组成新链表的顺序

代码实现:

方法一、
 public ListNode ReverseList(ListNode pHdead) {
        ListNode pre = null;   // 定义一个空结点
//        pre.next = pHdead; // 不需要,如果pHdead是空的话会出现空指针,
        ListNode cur = pHdead;
        while (cur != null) {
            ListNode temp = cur.next;
            cur.next = pre;
            pre = cur;
            cur = temp;
        }
        return pre;  //
    }
     
方法二、
public ListNode ReverseList2(ListNode head){
        Stack<ListNode>record = new Stack<>();
        ListNode temp = head;
        while(temp!=null){
            record.push(head);
            temp = temp.next;
        }
        if(record.empty()){
            return null;   // 处理极端情况
        }
        ListNode dummy = record.pop();  //赋初始值
        ListNode result = dummy;
        while(!record.empty()){
            ListNode tmp = record.pop();
            dummy.next = temp;
            dummy = dummy.next;
        }
        dummy.next = null;    // 最后一个结点是原链表的头节点,该节点的下一个节点指针指向第二个元素,为防止产生环形链表,所以最后一个元素的next要指向为空
        return result;
    }

总结:
1、作者在第一次解题时是用的第一种方法,当时存在一个错误,多写了一行代码(如图中被注释掉的那一行), 那一行代码会直接使程序在编译阶段就报空指针的错误,以为不排除存在head是个空结点的情况.
对于方法一,需要理解的是while条件中的四个来回赋值的步骤,需要建立的理解的基础上才能够自己写出
2、对于方法二,作者在一开始实现的时候是创建了一个存放链表节点值的栈,显然这种做法是错误的,因为入栈之后再去构造新的链表时我们是没有完整的节点信息的,有的只是知道节点的值,需要我们一个个去构造链表结点,太麻烦了,还是将链表的节点入栈比较方便。
在使用方法二时需要注意特殊情况的处理,如栈为空说明链表本身即为空,需要直接返回;如最后一步将结点的下一个节点指向null,防止形成环形链表

非常抱歉,我之前提供的代码存在错误。在 PyTorch 中,并没有直接提供离散余弦变换(DCT)的函数。对于 DCT 的实现,你可以使用 `torch.rfft` 函数结合 DCT 系数矩阵来进行计算。 下面是一个修正后的示例代码: ```python import torch import torch.nn as nn import torch.optim as optim # 定义离散余弦变换(DCT)系数矩阵 dct_matrix = torch.zeros(256, 256) for i in range(256): for j in range(256): dct_matrix[i, j] = torch.cos((2 * i + 1) * j * 3.14159 / (2 * 256)) # 定义 OMP 算法 def omp(A, y, k): m, n = A.shape x = torch.zeros(n, 1) residual = y.clone() support = [] for _ in range(k): projections = torch.abs(A.t().matmul(residual)) index = torch.argmax(projections) support.append(index) AtA_inv = torch.linalg.inv(A[:, support].t().matmul(A[:, support])) x_new = AtA_inv.matmul(A[:, support].t()).matmul(y) residual = y - A[:, support].matmul(x_new) x[support] = x_new return x # 加载原始图像 image = torch.randn(256, 256) # 压缩感知成像 measurement_matrix = torch.fft.fft(torch.eye(256), dim=0).real compressed = measurement_matrix.matmul(image.flatten().unsqueeze(1)) # 使用 OMP 进行重构 reconstructed = omp(dct_matrix, compressed, k=100) # 计算重构误差 mse = nn.MSELoss() reconstruction_error = mse(image, reconstructed.reshape(image.shape)) print("重构误差:", reconstruction_error.item()) ``` 在这个示例中,我们手动定义了 DCT 系数矩阵 `dct_matrix`,然后使用 `torch.fft.fft` 函数计算测量矩阵,并进行实部提取。接下来的步骤与之前的示例相同。 请注意,这只是一个示例,用于演示如何使用自定义的 DCT 系数矩阵进行压缩感知成像。在实际应用中,你可能需要根据具体的需求进行调整和优化。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值