- 博客(46)
- 收藏
- 关注
原创 B1032 挖掘机技术哪家强
1032 挖掘机技术哪家强 分数 20为了用事实说明挖掘机技术到底哪家强,PAT 组织了一场挖掘机技能大赛。现请你根据比赛结果统计出技术最强的那个学校。
2023-03-28 17:34:36
187
原创 B1031 查验身份证
1031 查验身份证一个合法的身份证号码由17位地区、日期编号和顺序编号加1位校验码组成。校验码的计算规则如下:首先对前17位数字加权求和,权重分配为:{7,9,10,5,8,4,2,1,6,3,7,9,10,5,8,4,2};然后将计算的和对11取模得到值Z;最后按照以下关系对应Z值与校验码M现在给定一些身份证号码,请你验证校验码的有效性,并输出有问题的号码。
2023-03-28 16:59:30
189
原创 4.1 散列 | B1029 旧键盘
B1029 旧键盘旧键盘上坏了几个键,于是在敲一段文字的时候,对应的字符就不会出现。现在给出应该输入的一段文字、以及实际被输入的文字,请你列出肯定坏掉的那些键。
2023-03-28 11:22:13
114
原创 树的遍历A1079 Total Sales of Supply Chain,叶子节点有货物
A1079 Total Sales of Supply Chain
2023-03-26 13:27:51
121
原创 树的遍历A1090 Highest Price in Supply Chain
树的遍历A1090 Highest Price in Supply Chain
2023-03-26 11:18:06
106
原创 A1102 Invert a Binary Tree 输出反转二叉树的层序和中序遍历,用的是后序遍历进行反转
A1102 Invert a Binary Tree 输出反转二叉树的层序和中序遍历,用的是后序遍历进行反转
2023-03-25 16:08:02
173
原创 A1086 Tree Traversals Again已知先序和中序求后序
A1086 Tree Traversals Again已知先序和中序求后序
2023-03-24 20:27:37
182
原创 爬虫作业7-爬取内容为前程无忧关于数据分析师的信息,爬取内容为岗位名称、工作地点、公司名称、工资、发布日期、经验、学历、所属行业、公司类型、公司规模、岗位福利,至少爬取20000条数据,存Excel中
完整代码如下:#前程无忧代码import requestsimport pandasimport timeimport randomimport json#用于获取页面信息def getWebResult(url,cookies,header): html = requests.get(url=url,cookies=cookies, headers=header) result = json.loads(html.text) #找到html中result
2021-12-08 11:23:36
1458
原创 No.8爬虫学习——xpath基础知识
xpath解析:是最常用且最便捷高效的一种解析方式,通用性1、xpath解析原理(1)实例化一个etree的对象,且需要将被解析的页面源码数据加载到该对象中(2)通过调用etree对象中的xpath方法结合着xpath表达式实现标签的定位和内容的捕获2、环境的安装:pip install lxml3、如何实例化一个etree对象:from lxml import etree(1)将本地的html文档中的源码数据加载到etree对象中:etree.parse(filePath)
2021-12-02 15:29:40
730
原创 时间序列1——随机序列xt的计算方法
一、操作过程1、先在Excel中产生1-100的数列,然后复制到spss中,点击转换→计算变量,在目标变量中输入et,函数值选择随机数,选择RvNormal,然后数字表达式设置为RvNormal(0,1)2、得到结果,产生et白噪声序列3、 再将数据et复制到Excel中二、不同的模型xt怎么计算(1)考察如下AR模型题目一:Xt = 0.8Xt-1 + et初始值随意取多少都没有影响,因此算x1时可以把xt-1当成x0,让x0=1来计算...
2021-11-29 22:53:55
1598
原创 爬虫作业6——爬取内容为简书用户的最新评论中的评论题目、评论内容及评论时间,爬取5页(bs4)
网址为罗罗攀 - 简书,爬取内容为简书用户的最新评论中的评论题目、评论内容及评论时间,爬取5页,将这些评论存入Excel文件中,文件后缀为.csv。将ipynb文件和后缀为.csv的文件压缩打包。import requestsfrom bs4 import BeautifulSoupimport csvimport timeheaders = { 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/53
2021-11-27 13:18:44
844
原创 爬虫作业6 ——爬取百度风景图片
完整代码如下:import timefrom urllib.request import urlretrieveimport requestsimport jsonheaders = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.55 Safari/537.36 Edg/96.0.1054.34'}def ge
2021-11-27 12:10:12
875
原创 No.7爬虫学习——bs4解析具体使用讲解
bs4只能用于python中一、bs4进行数据解析1、bs4进行数据解析的原理:(1)标签定位(2)提取标签、标签属性中存储的数据值2、bs4实现数据解析的原理:(1)实现化一个beautifulsoup对象,并且将页面源码数据加载到该对象中(2)通过调用beautifulsoup对象中相关的属性或者方法进行标签定位和数据提取3、环境安装(在cmd中安装)pip install bs4pip install lxml4、如何实例化beautifulsoup对象
2021-11-17 17:32:36
1852
原创 No.6机器学习第三次作业 ——实现岭回归的最小二乘法和梯度下降法求解算法
——王衡军编《机器学习》P78-791、用sklearn.limear_model包中的LinearRegression对表3-1所示的示例进行线性回归实验,比较结果。实验代码:from sklearn import linear_model # 导入线性模型import matplotlib.pyplot as plt#用于作图import numpy as np#用于创建向量reg=linear_model.LinearRegression(fit_intercept=True,nor
2021-11-16 13:12:08
3132
原创 No.5 爬虫学习——MongoDB爬虫实践:虎扑论坛(唐松编《Python网络爬虫从入门到实践》P116-123)
题目:获取虎扑步行街论坛上所有帖子的数据,内容包括帖子名称、帖子链接、作者、作者链接、创建时间、回复数、浏览数、最后回复用户和最后回复时间,网络地址为:https://bbs.hupu.com/bxj使用mysql作为数据存储器,完整代码如下:import requestsfrom bs4 import BeautifulSoupimport pymysqlimport timeheaders = { 'User-Agent':'Mozilla/5.0 (Windows N
2021-11-16 12:59:53
869
原创 No.4 爬虫学习——数据解析之正则解析,以爬取糗图百科中图片为例
1、聚焦爬虫:爬取页面中的指定内容。—编码流程:(1)指定url(2)发起请求(3)获取响应数据(4)持久化存储2、数据解析分类:(1)正则(2)bs4(3)xpath(最通用)3、数据解析原理概述:(1)解析的局部的文本内容都会在标签之间或标签对应的属性中进行存储(2)进行指定标签的定位(3)标签或标签对应的属性中存储的数据值进行提取(解析)4、需求:爬取嗅事百科中糗图版块下所有的糗图图片#如何爬取图片数据import requests
2021-11-14 16:26:05
459
1
原创 №3爬虫学习——实现网络采集器,以百度翻译破解为例
需求:实现网络采集器UA检测(UA伪装)(反反爬策略)需求:实现百度翻译的破解import reqestsimport jsonif _name_=="_main_": #1、指定url post_url = 'https://fanyi.baidu.com/sug' #2、进行UA伪装 headers={'User-Agent':.....省略} #3、post请求参数处理(同get请求一致) word = i
2021-11-11 22:14:28
895
原创 №2爬虫学习——requestes模块介绍
1、requests模块python中原生的一款基于网络请求的模块。功能非常强大,简单便捷,效率极高。作用:模拟浏览器发送请求2、requests模块如何使用(requests模块的编码流程)环境安装:pip install requsets3、实战编码需求:爬取搜狗首页的页面数据import requests#step1: 指定urlurl = 'https://www.sogou.com/'#step2: 发起请求#get方法会返回一个响应对象resp.
2021-11-11 13:01:51
245
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人