- 博客(18)
- 问答 (1)
- 收藏
- 关注
原创 【数据库】把SQL数据库从一个服务器迁移到另一个服务器的方法(备份-还原)
***步骤1.***打开SQL server management studio, 连接到服务器,在“服务器名称”上填写本机名称,可以在计算机-右键-属性中查看“计算机名”,然后点击“连接”,如下图所示:***步骤2.***选中你要复制的数据库,右键-任务-备份,如下图所示:***步骤3.***选择你要复制的目标位置。一般情况下会有一个默认位置,请只备份到一个位置上,最好不要再添加一个位置,不然还原的时候容易出错,可以在备份完之后去默认位置拷贝出备份文件,如下图所示:***步骤4.***点击“确
2022-02-25 15:58:59
8838
1
原创 【数据库】服务器复制文件或文件夹时出错 未指定的错误
问题:要给远程服务器安装sql数据库,把安装复制到服务器,出现复制文件或者文件夹夹时出错提示“未指定的错误”;分析原因:有些服务器可以复制和粘贴文件或本地计算机和远程会话的远程会话和本地计算机之间使用复制和粘贴功能。但是,这仅限于小于 2 GB 的文件。解决方法:一、复制文件或者文件夹夹时出错提示“未指定的错误”。二、远程的服务器访问或者识别本机U盘三、操作步骤1、快捷键Win+R, 输入mstsc,点击确定2、在计算机中输入IP,点击显示选项选择本地资源,点击详细信息4.
2022-02-25 14:46:41
20946
4
原创 【解决error】sqlcmd不是内部或外部命令,也不是可运行的程序解决方法
最近经常用到超过80M *.sql文件的导入问题。上网找了一下,发现超过80M的文件是不能在查询分析器中执行的。sqlcmd -U “sa” -P “111” -d “databasename” -i “mydata.sql”找了些解决方案,个人感觉最简单的方法就是这个SQLCMD的,拿出来分享一下,也方便日后自己使用。例:第一步:Win+R 键入:cmd 命令,开启命令行工具;第二步:键入:sqlcmd -S . -U sa -P sa -d database -i d:\data.sql
2022-01-06 11:06:20
4679
3
原创 【知识碎片】print 各种%输出形式:%d %2d %s %-2s %-*s %f
格式字符串的一般形式为:%[标志][输出最小宽度][.精度][长度]类型, 其中方括号[]中的项为可选项。%d :十进制整数%2d :两位十进制整数,不够两位右对齐%s :字符串%2s :字符串长度为两位,原字符串长度超过2时,按原长度打印,不够右对齐%-2s :字符串长度为两位,原字符串长度超过2时,按原长度打印,不够左对齐%f :浮点数%a.bs:首先根据小数点后面的数b截取字符串,当截取的字符串长度小于a时,还需要在其左侧补空格最小字段宽度:转换后的字符串至少应该具有该值指定的宽度。如
2021-11-23 13:05:35
5833
原创 【知识碎片】python中shape[0]与shape[1]
import numpy as npk = np.matrix([[1, 2, 3, 4], [5, 6, 7, 8], [9, 10, 11, 12]])print(np.shape(k)) # 输出(3,4)表示矩阵为3行4列print(k.shape[0]) # shape[0]输出3,为矩阵的行数print(k.shape[1]) # 同理shape[1]输出列数对于二维的数组来说:shape[0
2021-11-23 10:33:46
3270
原创 【知识碎片】python np.argsort()[::-1]
先定义一个array数据。import numpy as npx=np.array([2,5,3,-5,10,8])我们可以先看看argsort()函数的具体功能是什么:import numpy as npx=np.array([2,5,3,-5,10,8])#输出x中元素从小到大排列的对应的index(索引)print(x.argsort())------------------------[3 0 2 1 5 4]可以看出argsort()函数的作用是:将x中的元素从小到大排列,
2021-11-23 10:13:27
1922
原创 训练集、测试集的划分——K折交叉验证
文章目录一、训练集、测试集二、交叉验证法1.目的2.原理3.具体步骤一、训练集、测试集训练集(Training Set):帮助我们训练模型,简单的说就是通过训练集的数据让我们确定拟合曲线的参数。测试集(Test Set): 为了测试已经训练好的模型的精确度,评估模最终模型的泛化能力。当然,测试集并不能保证模型的正确性,他只是说相似的数据用此模型会得出相似的结果。因为我们在训练模型的时候,参数全是根据现有训练集里的数据进行修正、拟合,有可能会出现过拟合的情况,即这个参数仅对训练集里的数据拟合比较准
2021-11-22 16:49:02
3759
原创 【机器学习】3.Pandas数据操作
这里写自定义目录标题欢迎使用Markdown编辑器新的改变前言一、pandas是什么?二、使用步骤1.引入库2.读入数据总结功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入欢迎使用Markdown编辑器你好! 这是你第一次使用
2021-09-16 16:52:01
522
原创 【机器学习】1.基本概念:监督学习 非监督学习 半监督学习
【机器学习】1.基本概念:标签 特征 回归 分类 监督学习 非监督学习 半监督学习 机器学习基本概念特征与标签监督学习回归与分类非监督学习半监督学习机器学习基本概念特征与标签标签是我么要预测的事物,即线性回归中的y变量。标签可以是小麦未来的价格,图片中人脸的性别,音频的含义等一切要预测的事物。特征是是输入变量,即线性回归中的 x 变量。特征是预测事物的证据,而标签就是预测的结果。以周志华老师在《机器学习》中判断好瓜的问题为例——给你一个西瓜,如何判断出一个它是不是成熟的好瓜?根据以前的经验,我们首
2021-07-29 15:48:22
931
原创 2.跟我一起学爬虫——urllib库的使用
urllib库包含4个模块:request:模拟发送请求。像在浏览器里输入网址然后回车一样,只需要给库传入URL以及额外的参数,就可以模拟实现这个过程了。error:异常处理模块。parse:一个工具模块,提供许多URL处理办法,比如:拆分、解析、合并等。robotparser:识别网站的robots.txt文件,判断哪些网站可以爬,哪些不可以爬。...
2021-04-15 16:01:37
518
原创 【知识碎片】if continue 的用法
Python中continue语句的作用是:如果满足if里面的条件,则不执行循环语句里面的剩余内容,跳出循环,执行下一次循环。for data in datalist: for index in range(len(data)): if index == 4 or index == 5: continue data[index] = '"'+data[index]+'"' 在遍历datalist中的dat
2021-04-08 14:06:37
8082
原创 【知识碎片】python 字符串格式化输出:%d,%s,%f
在进行爬虫项目练习是会遇到语句中有%d,%s,%f的情况,这就是python字符串格式化输出。基本用法是将一个“值”插入到有字符串格式符%d,%s,%f的字符串中。比如下面代码:f_fruit='apple'print("My favourit fruit is %s."%f_fruit)输出:My favourit fruit is apple.除此之外,还可以用%符号对其他类型的数据进行格式化。常见的格式化符号如下表。常见格式化符号格式符号转换%s通过st
2021-04-02 12:04:43
429
3
原创 【知识碎片】关于正则表达式中.*和.*?的理解
.*. 表示 匹配除换行符 \n 之外的任何单字符,*表示零次或多次。所以.*在一起就表示任意字符出现零次或多次。没有?表示贪婪模式。比如a.*b,它将会匹配最长的以a开始,以b结束的字符串。如果用它来搜索aabab的话,它会匹配整个字符串aabab。这被称为贪婪匹配。又比如模式src=.*, 它将会匹配最长的以 src=开始,以结束的最长的字符串。用它来搜索 <img src=test.jpg` width=`60px` height=`80px`/> 时,将会返回 src=test...
2021-04-01 19:26:16
985
原创 【解决error】:AttributeError: partially initialized module ‘re‘ has no attribute ‘IGNORECASE‘
困扰了我好久的问题,居然这么轻松就能解决!!!!代码如下:from bs4 import BeautifulSoupimport reimport urllib.requestimport xlwtimport sqlite3def askURL(url): head = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/7
2021-03-30 20:47:16
3023
2
原创 【解决error】ERROR: Could not find a version that satisfies the requirement re
在进行爬虫之前要进行第三方库的安装。python爬虫需要的一部分第三方库如下:BeautifulSoup4 – 网页解析,获取数据re – 正则表达式,进行文字匹配urllib.request,urllib.error – 制定URL,获取网页数据xlwt – 进行Excel操作sqlite3 – 进行SQLite数据库操作bs4很容易安装,直接pip install bs4就可以安装成功。在安装re库和urllib库时开始报错:【报错代码】ERROR: Could not find
2021-03-20 13:59:32
11717
6
原创 1.跟我一起学爬虫——网页基础
网页由三大部分组成——HTML、CSS、JavaScript。HTML相当于人的骨架,JavaScript相当于人的肌肉,CSS相当于人的皮肤。1.HTMLHTML是描述网页的一种语言,全称Hyper Text Markup Language,即超文本标记语言。网页包括文字、图片、按钮、视频等各种复杂的元素,其基础架构就是HTML。不同类型的元素用不同的标签来表示,如图片–img,视频–video,段落–p,它们之间的布局通过布局标签嵌套组合,也就是各种标签通过不同的嵌套组合才形成了网页的框架。2.C
2021-03-17 22:24:10
188
2
空空如也
大佬帮找找错误 ,爬取豆瓣电影top250,将数据存入数据库
2021-04-09
TA创建的收藏夹 TA关注的收藏夹
TA关注的人