- 博客(53)
- 资源 (1)
- 收藏
- 关注
原创 Pytorch学习---基于经典网络架构ResNet训练花卉图像分类模型
"""set_parameter_requires_grad 函数的作用是根据 feature_extracting 参数的值来决定是否冻结模型的参数。当用于特征提取时,它会阻止预训练模型的参数在训练过程中被更新,从而保留预训练模型的特征提取能力。当用于微调时,它不会修改参数的 requires_grad 属性,从而允许所有参数被更新。"""# 该函数会遍历模型的所有参数,并将它们的 requires_grad 属性设置为 False。
2024-09-20 22:43:46
814
原创 Pytorchz学习---基于卷积神经网络的MINIST数据集训练
# 一般情况下,如果模型有可学习的参数,最好用nn.Module,其他情况用nn.function相对简单一些import torch.nn.functional as Fimport torchloss_func = F.cross_entropydef model(xb): return xb.mm(weights)+bias# didi卷积过程# bs = 64# xb = x_trains[0:bs]# yb = y_trains[0:bs]# weights =
2024-09-18 17:10:59
1060
原创 Python学习---基于多任务协程的并发下载器案例
密集CPU任务,需要充分使用多核CPU资源(服务器,大量的并行计算)的时候,用多进程。缺陷:同一个时间切片只能运行一个线程,不能做到高并行,但是可以做到高并发。密集I/O任务(网络I/O,磁盘I/O,数据库I/O)使用多线程合适。当程序中存在大量不需要CPU的操作时(IO),适用于协程;缺陷:多个进程之间通信成本高,切换开销大。
2024-05-24 00:32:02
385
原创 Python学习---基于HTTP的服务端基础框架搭建案例
整体功能:整体功能:1 创建框架构建相关的文件夹2 创建app,模块文件3 在 app模块文件中创建application函数(用于处理请求)4 将request_handler()中的处理逻辑交由app模块的application函数完成5 app模块的 application函数返回响应报文6 在application 文件夹中创建一个utils 模块7 utils 模块中创建 create_http_response() 函数,专门用来拼接响应报文。
2024-05-22 01:31:05
592
原创 Python学习---基于HTTP协议的Web服务器请求响应案例
1 Web服务器能够绑定固定端口2 Web服务器端能够接收浏览器请求3 Web服务器遵守HTTP协议﹐并返回"HelloWrold""字符串给浏览器4 当浏览器关闭后,Web服务器能够显示断开连接5 Web服务器短时间内重后,不会提示 address already in use错误。
2024-05-21 23:00:02
276
原创 Python学习---基于TCP协议的网络通信程序案例
●TCP 面向连接、可靠的、基于字节流的传输控制协议●TCP的特点○面向连接○可靠传输■应答机制■超时重传■错误校验■流量管控●TCP通信模型TCP严格区分客户端、服务端。
2024-05-21 14:00:16
1003
原创 hadoop学习---Hive分桶表的机制及其查询优化方案
分桶是将数据集分解成更容易管理的若干部分的一个技术,是比分区更为细粒度的数据范围划分。主要是用于分文件的,在建表的时候,指定按照那些字段执行分桶操作,并可以设置需要分多少个桶,当插入数据的时候,执行MR的分区的操作,将数据分散各个分区(hive分桶)中,默认分发方案: hash 取模。
2024-05-05 10:45:37
1501
原创 hadoop学习---基于Sqoop的文件导入导出操作
譬如ID的范围是0-800,那么Sqoop默认运行4个进程,通过执行ISELECTMIN(id),MAX(id) FROM emp找出id的范围,然后把4个任务的id设置范围是(0-200),(200-400)(400-600).(600-800)但请注意,这样做的前提是这些文件的结构和内容必须是一致的,即它们应该都是同一份数据的切片或者是完全相同结构的数据。6. 带有主键约束的mysql表,要注意导出的数据的主键约束的情况,不能重复。4. 导出时,mysql的表的字段数与hdfs上的列数可以不相同。
2024-05-02 11:45:52
1038
原创 hadoop学习---基于Hive的航空公司客户价值的LRFCM模型案例
在客户分类中,RFM模型是一个经典的分类模型,模型利用通用交易环节中最核心的三个维度——最近消费(Recency)、消费频率(Frequency)、消费金额(Monetary)细分客户群体,从而分析不同群体的客户价值。在某些商业形态中,客户与企业产生连接的核心指标会因产品特性而改变。如互联网产品中,以上三项指标可以相应地变为下图中的三项:最近一次登录、登录频率、在线时长。
2024-05-01 10:46:04
3275
5
原创 Linux配置MySQL数据库报错---ERROR 1193 (HY000): Unknown system variable ‘policy‘解决
【代码】Linux配置MySQL数据库报错---ERROR 1193 (HY000): Unknown system variable ‘policy‘解决。
2024-04-28 13:02:46
869
原创 Linux安装MySQL报错ERROR 1045 (28000): Access denied for user ‘root‘@‘localhost‘ (using password: YES)
在[mysqld]后面任意一行添加“skip-grant-tables”用来跳过密码验证的过程。如果在数据库中刷新权限后会失效,需要重新启动MySQL服务后再进入数据库,还是建议设置密码。1.输入密码错误,注意大小写,空格特殊字符串。要输入密码的时候直接回车进入即可。
2024-04-28 12:53:28
655
原创 File contains parsing errors: file:///etc/yum.repos.d/nginx.repo报错解决,文件配置出现问题
解决方案:yum的配置文件出现问题,.repos.d目录下所有文件。
2024-04-28 12:07:29
1345
1
原创 PySpark学习---销售情况数据统计分析案例
其中所有的服务都要开启,尤其注意hive的元数据存储服务和远程jdbc连接服务,看看9083端口,可能是集群中的任何一个节点,所有节点试着找一遍。导包的时候最好一个一个功能的导,不要用import * ,这个可能会导致未知错误,一些重复命名等问题。4.TOP3省份中,各个省份的支付类型。2.TOP3销售省份中,有多少家店铺。3.TOP3省份中各个省份的。1.将需求结果写出到。
2024-04-25 17:55:54
892
1
原创 SparkSql学习---链接MySQL数据库并更新数据
要先向环境中添加mysql的jar包:数据库端口:3306用户:root密码:root数据库:spark。
2024-04-24 11:37:23
789
原创 SparkSQL学习
1.和 Hive同样,都是用于大规模SQL分布式计算的计算框架,均可以运行在YARN本上,在企业中广泛被应用2. SparkSQL的数据抽象为:SchemaRDD(废弃)、DataFrame (Python、R、Java、Scala ) .DataSet (Java、scala)。3. DataFrame同样是分布式数据集,有分区可以并行计算,和RDD不同的是,DataFrame中存储的数据结构是以表格形式组织的,方便进行SQL计算。
2024-04-23 22:39:02
260
原创 spark学习---面试题
3.一个阶段的内部都是窄依赖,窄依赖内,如果形成前后1:1的分区对应关系,就可以产生许多内存迭代计算的管道。5.一个Task是一个具体的线程,任务跑在一个线程内,就是走内存计算了.4.这些内存迭代计算的管道,就是一个个具体的执行Task。2.DAG图会基于分区和宽窄依赖关系划分阶段。1.Spark会产生DAG图。
2024-04-23 15:01:52
124
1
【考研制胜法宝】‘408全科思维导图’:一键解锁知识迷宫,点亮考研通关之路
2024-04-21
决胜期末&考研:精选离散数学全章习题集
2024-04-20
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人