- 博客(19)
- 资源 (8)
- 收藏
- 关注
原创 MySQL连接出现错误zsh: command not found: mysql
在终端输入mysql -u root -p 出现如下问题:“zsh: command not found: mysql”输入"alias mysql=/usr/local/mysql/bin/mysql",即可解决:再输入"mysql -u root -p ",输入密码即可:
2021-06-07 17:14:31
3068
3
原创 《MySQL题目》2. 统计出当前各个职称类型对应的员工薪水对应的平均工资
有一个员工职称表titles如下:有员工编号、员工职称等信息有一个薪水表salaries简况如下:包括员工编号、薪水等信息统计出各个title职称类型对应的员工薪水对应的平均工资avg。结果给出title以及平均工资avg,并且以avg升序排序,以上例子输出如下:代码求解准备输出:员工职称、平均工资title avg(salary)将员工职称表和新水表 联结起来 对职称进行分组,再求其平均薪水为多少对薪水进行排序 升序使用的是asc、降序使用的是desc# 员工职称表t
2021-02-24 15:04:45
2009
原创 《MySQL题目》1. 获取所有员工当前的经理编号
有一个员工表dept_emp如下:第一行表示为员工编号emp_no为10001的部门dept_no是d001部门。有一个部门经理表dept_manager如下:第一行表示为部门编号为d001部门的经理是编号为10002的员工。问题:获取所有的员工和员工对应的经理,如果员工本身是经理的话则不显示,以上例子如下:代码求解首先确定需要输出的对象获取所有的员工和员工对应的经理,如果员工本身是经理的话则不显示。第一列:员工编号第二列:经理的员工编号将员工表和经理表内部联结,联结条件是员工表
2021-02-24 12:58:09
1322
原创 返回某年某月份有多少天
用到了calendar模块import calendar# Returns weekday of first day of the month and number of days in month, for the specified year and month.# 返回的第一个数加上1 对应的是 当月的第一天是星期几calendar.monthrange(2020,1)返回的结果是:(2, 31)表示的含义是2020年1月1日对应的是星期三,然后一月份有31天。下面查看2020年每
2021-02-01 15:15:47
482
原创 《python数据处理》将txt文件的内容写入csv文件中
第一种方式:import xlwtdef txt_csv(filename,csvname): try: with open(filename,'r',encoding='utf-8') as f: csv=xlwt.Workbook() #生成excel的方法,声明excel sheet = csv.add_sheet('sheet1',cell_overwrite_ok=True)
2020-12-31 17:30:48
2196
原创 创建文件时 如果路径不存在时创建路径
路径不存在会创建这个路径import ospath = 'G:\crawl_pics\shaixuan\\'folder = os.path.exists(path)if not folder: #判断是否存在文件夹如果不存在则创建为文件夹 os.makedirs(path) #makedirs 创建文件时 如果路径不存在会创建这个路径...
2020-12-28 21:39:59
1805
转载 《爬虫》爬取谷歌网页“人脸”图片
爬取谷歌网页搜索的关于“人脸”的图片目标:谷歌搜索“人脸” 网页搜索出现的图片selenium:模拟浏览器的工具。(还需要下载ChromeDriver 放到python的scripts安装目录中)每次下滑500 单位,然后将当前窗口的所有图片的url抓取出来,使用selenium将tag_name为img的抓取出来即可。(另外也可以使用html,用BeautifulSoup解析网页,得到img的url)有些图片会抓取不了,因为他们对应的url并不是图片,所以需要把这些url去掉;另外还有地址特别长的
2020-12-28 21:28:56
911
原创 《爬虫》将爬取到的人脸图片进行筛选,将包含人脸的图片另存
筛选出包含人脸的图片import osimport cv2import numpy as np判断图片中是否包含人脸def detect(file):# 将图片地址传进来 # haarcascade_frontalface_default.xml: 人脸识别中的默认分类器,主要用于人脸图片中的人脸轮廓的识别。 face_cascade = cv2.CascadeClassifier(r'C:\ProgramData\Anaconda3\pkgs\opencv-master\da
2020-12-28 21:02:09
1057
原创 《图像》拼接两张图片
from os import listdirfrom PIL import Imagedef pinjie(): # 获取需要进行拼接的图片列表 im_list = [Image.open(r"E:\桌面\新建文件夹\a.jpg"),Image.open(r"E:\桌面\新建文件夹\b.jpg")] # 图片转化为相同的尺寸 ims = [] for i in im_list: new_img = i.resize((1080, 1000), I
2020-12-27 21:54:32
343
1
原创 《python数据处理》去除重复行
针对dataframe类型的数据,对重复行进行去除:import pandas as pddf = pd.DataFrame([[1,2,3],[2,3,4],[4,5,6],[1,2,3]])df.columns = ["A","B","C"]dfdf.drop_duplicates()
2020-12-26 17:49:18
3407
原创 Matplotlib 绘图图纸上的中文、负号显示问题
导入包:from matplotlib import pyplot as plt# import matplotlib.pyplot as plt中文显示问题plt.rcParams["font.sans-serif"]='SimHei'解决负号无法正常显示的问题plt.rcParams['axes.unicode_minus']=False
2020-12-26 17:16:36
192
1
原创 给图片更改大小
from PIL import Imagedef produceimage(file_in,width,height,file_out): image = Image.open(file_in) resized_image = image.resize((width,height),Image.ANTIALIAS) resized_image.save(file_out)file_in = r"I:/echart/images/wlt.png"width = 460heig
2020-12-25 18:16:27
135
原创 KNN算法 k最近邻算法
1. 算法原理训练样本集中的每个数据都存在标签,输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行距离的计算,并将距离进行排序,选取k个最相似数据中出现次数最多的类别作为新数据的类别。2. 算法优缺点优点:精度高、对异常值不敏感缺点:计算复杂度高(与样本大小n成正比)、空间复杂度高是一种消极学习方法,基本上不需要学习的过程。这种学习方式指不是根据样本建立一般化的目标函数并确定其参数,而是简单地把训练样本存储起来,直到需要分类新的实例时才分析其与所存储样例的关系,据此确定新实例的
2020-12-25 17:49:22
236
原创 针对某关键词爬取相关数据
针对某关键词爬取相关数据目标数据:2020.3.20微博用户发布的包含关键词“疫情”的微博文本数据。针对上述目标数据,涉及到微博的https://weibo.com和https://weibo.cn站点,其中weibo.com的时间粒度是一个小时,weibo.cn的时间粒度是一天,为了抓取到尽可能多的关键词搜索结果,需要使用weibo.com的高级搜索功能来实现按照关键字和时间进行爬取。考虑到该站点查看数据的最小粒度是一个小时,一个小时内可以查看到的数据是50页,每页最多为20条微博数据,因此每个小时得
2020-12-25 15:03:09
3053
2
原创 python将列表格式的字符串转化为列表
python将列表格式的字符串转化为列表针对是列表格式的字符串,将其转化为列表形式,进而进行词频的统计。from ast import literal_evali = 0for line in df["contents_clean"]: df["contents_cleann_new"][i] = literal_eval(line) i+=1完成转换...
2020-12-24 15:37:05
1408
1
原创 papi酱微博数据可视化(截至2020年12月9日)
papi酱微博数据可视化(截至2020年12月9日)1. 爬取微博数据 使用爬虫爬取网站时,首选的是m站,其次是wap站,最后考虑PC站,因为PC站的各种验证最多。然而PC站的信息最全,可以使用高级搜索,针对某具体时间段和关键词进行爬取。一般m站都以m开头后接域名, 此次针对某微博用户进行微博数据可视化,选取m.weibo.cn去分析微博的HTTP请求。(1) 需要的模块import urllibimport urllib.requestimport timeimport jsonimpo
2020-12-11 21:28:54
3968
6
原创 ‘git‘ 不是内部或外部命令,也不是可运行的程序 或批处理文件
使用GitHub开源的代码:点击下载代码,复制代码链接 然后cmd 输入git clone 黏贴刚才复制的链接 点击回车。就把代码库克隆到了本地电脑硬盘。在执行上述步骤的时候,输入git clone…会出现以下错误提示:'git' 不是内部或外部命令,也不是可运行的程序 或批处理文件解决方案是:从git官网下载windows版本的git:http://git-scm.com/downloads下载完毕后,安装,一路next。记好安装路径。添加环境变量3.1 找到git安装路
2020-10-12 13:52:54
2301
原创 pyecharts模块的使用
数据可视化pyecharts模块的使用1. pyecharts介绍pyecharts 是一个用于生成 Echarts 图表的类库。echarts 是百度开源的一个数据可视化 JS 库,主要用于数据可视化。pyecharts 是一个用于生成 Echarts 图表的类库。实际上就是 Echarts 与 Python 的对接。使用 pyecharts 可以生成独立的网页,也可以在 flask , Django 中集成使用。2. pyecharts安装pip install pyecharts我安装的是
2020-08-14 18:23:48
962
原创 泰坦尼克号生还情况数据分析
1.数据探索我们首先对样本数据集的结构,规律和质量进行了分析,从数据质量分析和数据特征分析等两个角度进行展开。1.1 数据质量分析训练集train.csv中样本共891个,包括以下12个特征: 特征名 含义 PassengerID 乘客ID Survived 是否生还 Pclass 船舱级别 Name
2020-06-15 19:03:37
4409
2
haarcascade_frontalface_default.xml
2020-12-28
广州lianjia爬虫.zip
2020-07-29
tangyudi机器学习1.zip
2020-07-29
威尔逊判别法处理素数判别问题
2020-04-15
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人