【Pytorch学习(AlexNet)——代码的理解】

1.json.dumps()函数


def dumps(obj, *, skipkeys=False, ensure_ascii=True, check_circular=True,
        allow_nan=True, cls=None, indent=None, separators=None,
        default=None, sort_keys=False, **kw):

将obj转化为字符串。
列表——>字符串


import json
a=[1,1,2,3,4]
b=json.dumps(a)
print(b)
[1, 1, 2, 3, 4]
b
'[1, 1, 2, 3, 4]'

字典——>字符串

import json
a={'name':'MM',
   'sex':'man',
   'age':'18'}
b=json.dumps(a)
b
'{"name": "MM", "sex": "man", "age": "18"}'

2.assert函数的理解

当assert后面的语句为假的时候,运行,不必等到程序运行崩溃。

assert os.path.exists(image_path),"{}path does not exist".format(image_path)#确保照片的路径正确

确保存在image_path的路径存在。

3.format函数

基本语法是通过 {} 和 : 来代替以前的 % 。


>>>"{} {}".format("hello", "world")    # 不设置指定位置,按默认顺序
'hello world'
 
>>> "{0} {1}".format("hello", "world")  # 设置指定位置
'hello world'
 
>>> "{1} {0} {1}".format("hello", "world")  # 设置指定位置
'world hello world'

4.with torch.no_grad()的理解

是将with torch.no_grad()下面的语句tensor的计算不放在计算图中,不用跟踪反向梯度计算。

a=torch.tensor([3.4],requires_grad=True)
b=a*2
输出:
b
tensor([6.8000], grad_fn=<MulBackward0>)

从上面代码可以看出的梯度函数是MulBackward0

with torch.no_grad():
    b.add_(2)
输出:
b
tensor([33.2000], grad_fn=<MulBackward0>)

继续将在with torch.no_grad()下面写b.add_2(),则可以看出,输出的tensor,并不是grad_fn=。

5.模型的加载以及存储

#第一种方法:只是存储模型中的参数,该方法速度快,占用空间少
model=AlexNet()
torch.save(model.state_dict(),Path)  #存储Model的参数

new_model=AlexNet()
new_model.load_state_dict(torch.load(Path)) #将model中的参数加载到new_model中


#第二种方法:存储整个模型
model=AlexNet()
torch.save(model,Path)  #存储整个模型

new_model=torch.load(Path)   #将整个模型加载到new_model(需要像第一种那样新建立一个模型)


关于上面表达式中PATH参数的说明:
PATH参数是你保存文件的路径,并且需要指定保存文件的文件名,如:
torch.save(model, ‘/home/user/save_model/checkpoint.pth’)
即将该模型保存在/home/user/save_model路径下的checkpoint.pth文件中,保存的文件格式约定为.pth或.pt
new_model = torch.load(’/home/user/save_model/checkpoint.pth’)
参考原文:模型加载

6.torch.softmax()

torch.softmax(input,dim=a)
对n维输入张量运用Softmax函数,将张量的每个元素缩放到(0,1)区间且和为1。Softmax函数定义如下:
在这里插入图片描述

将input内部的值都转换为(0,1)内的值。
a=0的时候,按照列计算
a=1的时候,按照行计算

A=torch.tensor([[1.,10.,3.,4.],[1.,2.,4.,7.],[3.,5.,7.,8.]])
A
tensor([[ 1., 10.,  3.,  4.],
        [ 1.,  2.,  4.,  7.],
        [ 3.,  5.,  7.,  8.]])
B=torch.softmax(A,dim=0)

输出:

tensor([[1.0651e-01, 9.9298e-01, 1.7148e-02, 1.3213e-02],
        [1.0651e-01, 3.3311e-04, 4.6613e-02, 2.6539e-01],
        [7.8699e-01, 6.6906e-03, 9.3624e-01, 7.2140e-01]])
B=torch.softmax(A,dim=1)

输出:

tensor([[1.2298e-04, 9.9650e-01, 9.0869e-04, 2.4701e-03],
        [2.3406e-03, 6.3625e-03, 4.7013e-02, 9.4428e-01],
        [4.7304e-03, 3.4953e-02, 2.5827e-01, 7.0205e-01]])

7.torch.argmax()

torch.argmax(input,dim=a)
当a=0的时候,返回input列值最大的“行索引”
a=1的时候,返回Input行值最大的“列索引”

A=torch.tensor([[1,2,3,4],[1,2,4,7],[3,5,7,8]])
A
tensor([[1, 2, 3, 4],
        [1, 2, 4, 7],
        [3, 5, 7, 8]])
B=torch.argmax(A,dim=0)

#输出
B
tensor([2, 2, 2, 2])

B=torch.argmax(A,dim=1)

#输出
B
tensor([3, 3, 3])
极化码(Polar Code)是由土耳其科学家Erdal Arıkan在2009年提出的一种新型纠错编码技术。它通过利用信道的极化现象,将虚拟信道分为误码率接近0和接近1/2的两类。在编码设计中,数据被放置在误码率极低的信道上,从而实现高效的数据传输。极化码的主要优势在于其理论编码容量能够达到香农限,并且构造方法较为简单。 MATLAB是一种功能强大的数学计算和编程工具,广泛应用于科学研究和工程领域。在极化码的研究中,MATLAB可用于构建编码和解码算法,模拟数据在不同信道条件下的传输效果,验证理论性能,并优化相关参数。 SC(Successive Cancellation,逐位取消)译码是极化码的基本解码方法。它从最可靠的比特开始,依次解码每个虚拟信道,且每个比特的解码结果会影响后续比特的解码,因为它们之间存在依赖关系。虽然SC译码的实现较为简单,但其计算复杂度较高,随着码长的增加,解码时间会线性增长。 SCL(Successive Cancellation List,逐位取消列表)译码是SC译码的改进版本。它通过引入列表机制,同时理多个路径,从而增强了错误校正能力,并在一定程度上降低了错误率。SC译码相比,SCL译码虽然需要消耗更多的计算资源,但能够提供更好的性能。 一个完整的MATLAB仿真资源通常包含以下内容: 编码模块:用于实现极化码的生成,包括码字构造和极化矩阵操作等。 信道模型:用于模拟各种通信信道,例如AWGN(加性高斯白噪声)信道或衰落信道。 SC/SCL译码模块:包含SC译码和SCL译码的算法实现。 误码率(BER)计算:通过比较发送和接收的码字,计算误码率,以评估编码性能。 性能曲线绘制:绘制误码率信噪比(SNR)之间的关系曲线,展示不同译码策略的性能差异。 使用说明:指导用户如何运行仿真,理解代码结构,以及如何调整参数以进行自定义实验。 代码注
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值