一文读懂内网、公网和NAT

本文详细介绍了内网(局域网)、公网和NAT的概念。内网IP用于局域网内部通信,而公网连接不同地区的网络。NAT技术解决了IP地址匮乏问题,允许内网设备通过一个或多个公网IP访问互联网。同时,文章还讨论了内网与公网的连接方式,包括IP地址分类、端口映射以及NAT的三种应用场景:多对1转换、多对多转换和1对1转换。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

我们做弱电监控系统的时候,都避免不了要跟IP地址打交道,比如摄像头、NVR、服务器等这些设备安装好之后,就需要给它们配上IP,那这个IP地址你了解嘛?今天我们就一起来聊聊什么是内网、公网和NAT地址转换?

1、内网、公网和NAT的定义

内网也叫局域网,从范围上来讲内网就是小部分的网络,一般指的是特定环境下组成网络,比如某一个家庭多台计算机互联成的网络,也可以学校和公司的大型局域网,内网的IP一般都是192.168.1.100,192.168.0.100,172.16.1.100……这些都是内网IP,内网是不能直接连接外网,比较封闭,但在内网里面可以实现文件管理,应用软件共享、打印机共享等服务。
什么是内网、公网和NAT?读懂这一篇就够!
一文读懂内网、公网和NAT一文读懂内网、公网和NAT
外网又被叫做互联网,是连接不同地区局域网或者城域网计算机的通信的远程网络。通常可以跨接很大的物理范围,覆盖的范围可以是几十公里到几千公里,它能连接多个地区、城市和国家提供远距离通信,形成全球性的互联网络。
NAT被叫做地址转换技术,诞生于IP地址匮乏的年代,传统IPV4的公网地址已经枯竭,如果没有NAT地址转换技术,现在很多设备都是连接不上互联网的,很多人在公司上班或者在家里上网,电脑都会分配到一个192.168.1.100的私网地址,这种地址只适用于在局域网内通信,是出不了外网的,正是因为NAT技术的出现才使得内网地址能很方便的访问互联网。
什么是内网、公网和NAT?读懂这一篇就够!

### Transformers框架的原理 Transformers框架的核心基于Transformer架构,这是一种由Vaswani等人于2017年提出的神经网络模型[^4]。该架构主要分为两个部分:Encoder(编码器)Decoder(解码器)。然而,在实际应用中,某些变体可能仅使用其中一个部分。 #### 输入表示 对于像BERT这样的模型,其输入是由三种嵌入向量相加构成的:Token Embeddings、Positional Embeddings以及Segment Embeddings[^1]。这种组合允许模型不仅学习单词的意义及其位置关系,还能区分不同句子片段间的差异。 #### 架构组成 - **自注意力层**:这是Transformer的关键创新之一,它让模型可以关注到输入序列的不同部分,从而捕捉更丰富的语义信息[^3]。 - **前馈神经网络**:应用于每一个位置上的独立转换操作,增加了表达能力。 - **归一化与残差连接**:通过加入这些技术来改善深层结构的学习效果并防止梯度消失问题的发生[^3]。 ### 使用教程 要开始使用Transformers库来进行自然语言处理任务,可以从安装Hugging Face提供的`transformers`包入手: ```bash pip install transformers ``` 加载预训练好的模型非常简便,比如下面是如何加载BERT用于分词的例子: ```python from transformers import BertTokenizer, TFBertModel tokenizer = BertTokenizer.from_pretrained('bert-base-uncased') model = TFBertModel.from_pretrained("bert-base-uncased") inputs = tokenizer("Hello world!", return_tensors="tf") outputs = model(inputs) print(outputs.last_hidden_state) ``` 这段代码展示了如何初始化一个BERT tokenizer 对应的TF (TensorFlow) 版本的 BERT 模型,并对一句话进行了编码得到隐藏状态作为输出。 ### 实战案例 - 计算词语相似度 如果想探索词汇间的关系,则可以通过Word Embedding实现这一点。这里给出一段简单的Python脚本来展示这一过程[^5]: ```python from gensim.models import KeyedVectors # 加载Google News pre-trained vectors word_vectors = KeyedVectors.load_word2vec_format('./GoogleNews-vectors-negative300.bin', binary=True) similar_words = word_vectors.most_similar('king', topn=5) for w,score in similar_words: print(f"{w}: {score}") ``` 此示例说明了如何利用预先训练好的谷歌新闻数据集中的词向量找到最接近给定单词的概念。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值