- 博客(28)
- 收藏
- 关注
原创 ajax不执行success回调而是执行了error回调
ajax不执行success回调而是执行了error回调解决:contentType去掉官方文档是这么写的:contentType 类型:String 默认值: "application/x-www-form-urlencoded"。发送信息至服务器时内容编码类型。 默认值适合大多数情况。如果你明确地传递了一个 content-type 给 $.ajax() 那么它必定会发送给服务器(即使没有数据要发送)。...
2020-12-29 13:51:31
211
原创 robot文件在本地环境调试
1.确认Python已经将robot安装完成。2.找到robot.exe文件地址。robot.__file__3.将改地址添加到系统的环境变量中。4.直接在该文件目录下执行robot加文件名即可。由于robot文件是自己定义的所以在执行过程中出现识别不到的问题,解决方法是将文件头部加入*** Test Cases ***。...
2020-12-18 10:46:29
992
原创 xlrd、xlwt
xlrdxlrd是用来从Excel中读写数据的。用xlrd进行读取比较方便,流程和平常手动操作Excel一样,打开工作簿(Workbook),选择工作表(sheets),然后操作单元格(cell)。下面举个例子,例如要打开当前目录下名为”data.xlsx”的Excel文件,选择第一张工作表,读取第一行的全部内容并打印出来。Python代码如下:#打开excel文件data=xlrd....
2020-04-28 16:13:36
356
原创 Flask MongoDB数据库导入Excel文件
1.使用uuid进行唯一编码,写入新文件file_name = 'case_%s.xls'%(uuid.uuid4().hex)2.如果文件路径不存在,就创建。 if not os.path.exists(path_store): os.makedirs(path_store) 3.打开并写入文件 with open(upload_p...
2020-04-28 13:20:36
482
1
原创 Python 前后端联动
1.未与前端联调时,需要自己提交post或get请求,一般使用Python的requests库。post请求(前端传入一个文件):import requestsurl=''files = {'files':open('文件路径','wb+')}r = requests.post(url,files=files)get请求:当后台需要前端传入json数据时,可以先将中间层的r...
2020-04-28 13:08:47
1392
原创 Flask MongoDB数据库导出Excel文件
导出Excel,使用Python的xlwt库写入Excel表。1.获取MongoDB数据:case_obj = OneCaseScheam.objects(version_name=version_name, id=id).first()其中,case_obj是获取到的对象,OneCaseScheam是数据库表的名称,通过版本名称和id对数据进行查询。2.写入表头 titl...
2020-04-28 08:59:59
427
原创 python可变参数*args,**kwargs
*args1 def argsFunc(a, *args):2 print a3 print args4 5 >>> argsFunc(1, 2, 3, 4)6 17 (2, 3, 4)argsFunc中匹配完定义好的参数,剩余的参数以元组的形式存储在 args(args 名称你可以自行定义),因此在上述程序中只要传入不小于 1 ...
2019-09-04 16:37:04
272
原创 自动化测试页面处理
1.在定义类时,可以为类添加一个特殊的__init__()方法,当创建实例时,__init__()方法被自动调用,我们就能在此为每个实例都统一加上属性。__init__()方法的第一个参数必须是self(也可以用别的名字,但建议使用习惯用法),后续参数则可以自由指定,和定义函数没有任何区别。相应地,创建实例时,就必须要提供除self以外的参数。 def __init__...
2019-08-22 15:10:47
439
原创 python 实现栈和队列
栈stack:后进先出队列queue:先进先出两个栈实现一个队列。class QueueWithTwoStacks(object): def __init__(self): self._stack1 = [] self._stack2 = [] def appendTail(self,x): self._stack...
2019-05-11 15:19:36
271
原创 Django连接MySQL遇到的问题
敲重点!Django2.0以上版本与MySQL5.6以下版本不适配!我使用的环境python3.7,Django2.6和mysql5.81.关于python manage.py makemigrations不能生成数据表问题错误提示为:No Changes Detected解决方法:在mysite/--init--.py中添加以下内容:import pymysqlpymys...
2018-11-27 21:37:39
327
原创 tornado实现简单登录注册
需要前台两个HTML文件来进行跳转,而对于连接两个HTML文件是后台的操作。这时就需要一个.py文件来处理。其中两个HTML文件要写入template文件夹下,而template要和.py文件在同一目录下:我们将其中一个HTML文件命名为index,代码如下:<!DOCTYPE html><html> <head><title>Poem M...
2018-06-04 19:14:50
1732
原创 重装系统后找回之前的pycharm配置文件
重装之后c盘会格式化也就意味着pycharm的一些配置文件会丢失。在找到之前安装包重新安装时一定要勾选uninstall silently一定。
2018-04-11 20:19:39
5056
原创 Win7升为Win10以及win7系统的重装
第一次装系统。想着自己是学计算机的就觉得去 实体店装系统花30rmb真的蛮冤的,然后就准备自己试试,大不了装的崩溃了我再去实体店装。首先,我之前是win7旗舰版,然后我想把它升级成win10(有个小建议,如果你的电脑CPU是三代的话不建议升级,可能升级后会变卡,毕竟win10对三代支持不太好。四代的话就无所谓了,只要运行win7是可以的,win10也一样没问题的)。很简单,我下载了一个老鸟一键升级...
2018-02-27 16:08:44
1099
原创 scrapy爬取酒店信息
这个真的是说来话太长。最先是看了scrapy的官方文档,安装成功之后就创建了一个新的工程。然后里面自身就包含如下内容:· scrapy.cfg: 项目的配置文件· tutorial/: 该项目的python模块。之后您将在此加入代码。· tutorial/items.py: 项目中的item文件.· tutorial/pipelines.py: 项目中的pipelines文
2017-12-12 21:01:42
3084
1
原创 ajax异步获取酒店信息
开始接触ajax时的确有点蒙,任务就是用ajax爬取post提取的网页。url = 'http://hotel.elong.com/ajax/list/asyncsearch'header={'Accept':'application/json, text/javascript, */*; q=0.01', 'Accept-Encoding':'gzip, defla
2017-12-12 20:51:38
450
原创 正则爬取糗事百科
其中涉及到了对于消息头的使用user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)' headers = { 'User-Agent' : user_agent } 设置请求的身份,如果没有,服务器可能会没有响应这个可以为任意的,没有每个网页规定的。通过后面的学习,知道网页该部分的查找位置在查
2017-12-12 20:42:10
339
原创 正则爬取多页图片及链接
因为要爬取图片及对应链接,所以本任务采取的方法是先使用正则把自己所需部分匹配出来,也就是每张图片及对应链接部分e1list = re.findall('',text,re.S)re.S。它表示“.”的作用扩展到整个字符串,包括“\n”。如果不使用re.S参数,则只在每一行内进行匹配,如果一行没有,就换下一行重新开始,不会跨行。而使用re.S参数以后,正则表达式会将这个字符串作为一个整体
2017-12-12 20:37:56
887
原创 selenium爬取人民微博
selenium可以模拟登陆网页,爬取时可以应用phanTomjs(无页面浏览器),为了便于观察,下面我会应用两种方法:# driver = webdriver.PhantomJS(executable_path='E:\APP\phantomjs-2.1.1-windows\\bin\phantomjs.exe')driver=webdriver.Firefox()注释掉的部分为无
2017-12-08 20:05:09
346
原创 python学习总结
学习总结从进入科研室以来,主要学习了以下内容:一、初步接触爬虫,第一个任务就是根据视频所讲的内容和所举的例子,利用正则表达式爬取单页百度贴吧图片。爬取步骤大致分为两步,分别定义两个函数,第一个函数的目的是将需要爬取进行遍历,def getHtml(url): page = urllib2.urlopen(url) html = page.read()
2017-12-02 09:01:38
810
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人