关于单链表是否有环及其衍生问题

本文探讨了单链表中的环问题,包括判断是否存在环、找出环的入口点、求环上节点个数等核心算法,并扩展讨论了两个无环链表是否相交及其首个相交节点的求解。

 

参考博客原文链接:https://www.cnblogs.com/dancingrain/p/3405197.html

关于单链表中的环,一般涉及到一下问题:

1.给一个单链表,判断其中是否有环的存在;

2.如果存在环,找出环的入口点;

3.如果存在环,求出环上节点的个数;

4.如果存在环,求出链表的长度;

5.如果存在环,求出环上距离任意一个节点最远的点(对面节点);

6.(扩展)如何判断两个无环链表是否相交;

7.(扩展)如果相交,求出第一个相交的节点;

目录

1.判断是否有环(链表头指针为head)

2.找出环的入口点: 

3.如果存在环,求环上节点的个数: 

4.如果存在环,求出链表的长度:

5.求出环上距离任意一个节点最远的点(对面节点)

6.(扩展)如何判断两个无环链表是否相交:

7.(扩展)如果相交,求出第一个相交的节点,其实就是做一个问题的转化:


1.判断是否有环(链表头指针为head)

对于这个问题我们可以采用“快慢指针”的方法。就是有两个指针fast和slow,开始的时候两个指针都指向链表头head,然后在每一步操作中slow向前走一步即:slow = slow->next,而fast每一步向前两步即:fast = fast->next->next。由于fast要比slow移动的快,如果有环,fast一定会先进入环,而slow后进入环。当两个指针都进入环之后,经过一定步的操作之后,二者一定能够在环上相遇,并且此时slow还没有绕环一圈,也就是说一定是在slow走完第一圈之前相遇。证明可以看下图:

当slow刚进入环时每个指针可能处于上面的情况,接下来slow和fast分别向前走即:

if (slow != NULL && fast->next != NULL)  
{  
         slow = slow -> next ;  
         fast = fast -> next -> next ;  
}  

 也就是说,slow每次向前走一步,fast向前追了两步,因此每一步操作后fast到slow的距离缩短了1步,这样继续下去就会使得两者之间的距离逐渐缩小:...、5、4、3、2、1、0 -> 相遇。又因为在同一个环中fast和slow之间的距离不会大于换的长度,因此到二者相遇的时候slow一定还没有走完一周(或者正好走完以后,这种情况出现在开始的时候fast和slow都在环的入口处)。

问题1的完整代码:

typedef struct node{  
    char data ;  
    node * next ;  
}Node;  
bool exitLoop(Node *head)  
{  
    Node *fast, *slow ;  
    slow = fast = head ;  
  
    while (slow != NULL && fast -> next != NULL)  
    {  
        slow = slow -> next ;  
        fast = fast -> next -> next ;  
        if (slow == fast)  
            return true ;  
    }  
    return false ;  
}  

2.找出环的入口点: 

从上面的分析知道,当fast和slow相遇时,slow还没有走完链表,假设fast已经在环内循环了n(1<= n)圈。假设slow走了s步,则fast走了2s步,又由于fast走过的步数 = s + n*r(s + 在环上多走的n圈),则有下面的等式:

2*s = s + n  * r ; (1)   =>  s = n*r (2)

如果假设整个链表的长度是L,入口和相遇点的距离是x(如上图所示),起点到入口点的距离是a(如上图所示),则有:

a + x = s = n * r; (3)  由(2)推出

a + x = (n - 1) * r + r  = (n - 1) * r + (L - a) (4) 由环的长度 = 链表总长度 - 起点到入口点的距离求出

a = (n - 1) * r + (L -a -x) (5)

集合式子(5)以及上图我们可以看出,从链表起点head开始到入口点的距离a,与从slow和fast的相遇点(如图)到入口点的距离相等。

因此我们就可以分别用一个指针(ptr1, prt2),同时从head与slow和fast的相遇点出发,每一次操作走一步,直到ptr1 == ptr2,此时的位置也就是入口点!

到此第二个问题也已经解决。

下面给出示意性的简单代码(没有测试但是应该没有问题):

Node* findLoopStart(Node *head)  
{  
    Node *fast, *slow ;  
    slow = fast = head ;  
  
    while (slow != NULL && fast -> next != NULL)  
    {  
        slow = slow -> next ;  
        fast = fast -> next -> next ;  
        if (slow == fast) break ;  
    }  
    if (slow == NULL || fast -> next == NULL) return NULL ; //没有环,返回NULL值  
  
    Node * ptr1 = head ; //链表开始点  
    Node * ptr2 = slow ; //相遇点  
    while (ptr1 != ptr2)   
    {  
        ptr1 = ptr1 -> next ;  
        ptr2 = ptr2 -> next ;  
    }  
    return ptr1 ; //找到入口点  
}  

3.如果存在环,求环上节点的个数: 

对于这个问题,我这里有两个思路(肯定还有其它跟好的办法):

思路1:记录下相遇节点存入临时变量tempPtr,然后让slow(或者fast,都一样)继续向前走slow = slow -> next;一直到slow == tempPtr; 此时经过的步数就是环上节点的个数;

思路2: 从相遇点开始slow和fast继续按照原来的方式向前走slow = slow -> next; fast = fast -> next -> next;直到二者再次项目,此时经过的步数就是环上节点的个数 。

4.如果存在环,求出链表的长度:

到这里,问题已经简单的多了,因为我们在问题1、2、3中已经做得足够的”准备工作“。

我们可以这样求出整个链表的长度:

链表长度L = 起点到入口点的距离 + 环的长度r;

已经知道了起点和入口点的位置,那么两者之间的距离很好求了吧!环的长度也已经知道了,因此该问题也就迎刃而解了!

5.求出环上距离任意一个节点最远的点(对面节点)

如下图所示,点1和4、点2和5、点3和6分别互为”对面节点“ ,也就是换上最远的点,我们的要求是怎么求出换上任意一个点的最远点。

对于换上任意的一个点ptr0, 我们要找到它的”对面点“,可以这样思考:同样使用上面的快慢指针的方法,让slow和fast都指向ptr0,每一步都执行与上面相同的操作(slow每次跳一步,fast每次跳两步),当fast = ptr0或者fast = prt0->next的时候slow所指向的节点就是ptr0的”对面节点“。

6.(扩展)如何判断两个无环链表是否相交:

7.(扩展)如果相交,求出第一个相交的节点,其实就是做一个问题的转化:

假设有连个链表listA和listB,如果两个链表都无环,并且有交点,那么我们可以让其中一个链表(不妨设是listA)的为节点连接到其头部,这样在listB中就一定会出现一个环。

因此我们将问题6和7分别转化成了问题1和2.

看看下图就会明白了:

 

说明:本文章是在学习的时候作笔记使用,如果侵权,请联系我删除,谢谢

 

 

 

BERT及其衍生模型在不同自然语言处理任务中有多种具体应用方式: ### 文本分类 将文本输入BERT及其衍生模型,获取文本的特征表示,然后在模型的输出层添加一个全连接层,通过训练这个全连接层来完成文本分类任务,如新闻分类、情感分类等。例如在情感分类中,模型可以根据输入的文本判断其情感倾向是积极、消极还是中性。 ### 命名实体识别(NER) 在输入层将文本分词后输入模型,利用模型学习到的上下文信息对每个词进行编码。在输出层,为每个词预测其对应的实体标签,如人名、地名、组织机构名等。可以在模型输出后添加一个分类器,通过训练分类器来完成命名实体识别任务。 ### 机器阅读理解 对于给定的文章和问题,将它们拼接后输入BERT及其衍生模型。模型会学习文章和问题之间的交互信息,通过预测答案在文章中的起始和结束位置来找出答案。在SQuAD1.1测试中,BERT表现出惊人成绩,在全部两个衡量指标上全面超越人类[^4]。 ### 机器翻译 BERT模型通过预训练和微调的策略,显著提高了翻译质量和效率。在机器翻译任务中,可将源语言句子输入模型,经过模型的编码和解码过程,生成目标语言的翻译结果[^3]。 ### 问答系统 结合上述机器阅读理解等技术,将用户的问题与相关的知识库文本一起输入模型,模型根据学习到的知识和上下文信息生成答案,为用户提供准确的回答。 ### 语法解析 BERT及其衍生模型可用于分析句子的语法结构,识别句子中各个成分之间的关系,在语法解析领域有潜在的发展前景[^1]。 ```python # 以下是一个使用Hugging Face的transformers库进行文本分类的简单示例 from transformers import BertTokenizer, BertForSequenceClassification import torch # 加载预训练的BERT模型和分词器 tokenizer = BertTokenizer.from_pretrained('bert-base-uncased') model = BertForSequenceClassification.from_pretrained('bert-base-uncased', num_labels=2) # 示例文本 text = "This is a great movie!" # 对文本进行分词和编码 inputs = tokenizer(text, return_tensors='pt') # 进行预测 with torch.no_grad(): outputs = model(**inputs) logits = outputs.logits predicted_class_id = logits.argmax().item() print("Predicted class:", predicted_class_id) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值