- 博客(6)
- 收藏
- 关注
转载 pip的相关问题 没有pip.exe 及pip 升级问题 成功解决
‘pip’ 不是内部或外部命令,也不是可运行的程序 或批处理文件。 直接在windows cmd命令窗口下,进入到python安装目录 输入python -m ensurepip --default-pip 之后再进入Pyhon的Scripts目录下即可使用pip命令安装需要的库 用了好多种方法都不成功,按照这个就可以了。出错原因还没明白。 转载自ououla 的文章 版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。 本文链接:https://blog
2020-06-29 15:44:52
2391
1
原创 scrapy 传入自定义参数的多个spider 同时启动
在spiders 同级目录下新建一个commands 文件夹 在commands文件夹里新建crawlall.py 和__init__.py文件 __init.py 文件为空 crawlall.py 内容如下: 里面包含了传入自定义参数 ,input() id = input('请输入id:') # 传入自定义参数 for name in spider_list: self.crawler_process.crawl(name, ID = id,**op.
2020-06-29 11:53:47
437
原创 网页的基本结构,css
<!DOCTYPE html> <html lang="en"> <head> >head标签内定义一些页面的配置和引用 <meta charset="UTF-8"> <title>This is a Demo</title> >titl...
2020-05-06 19:22:16
442
原创 爬取有道翻译和百度翻译
有道翻译和百度翻译网页编码方式不同,所以爬取方法也不一样。 百度的代码: import requests key = str(input('输入单词:')) url = 'https://fanyi.baidu.com/sug' headers = {'User-Agent':'Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) Appl...
2020-05-05 23:24:40
748
原创 python生态之中文文本分词处理,jieba库
jieba是 Python 第三方中文分词库;共有以下三种模式 -精确模式 把文本精确的切开,不存在冗余 -全模式 把文本中可能的词语都扫描出来,有冗余 -搜索引擎模式 在精确模式的基础上,对长词再次切分 [实例 ] import jieba str = '中华人民共和国是伟大的' #精确模式,返回一个列表类型的分词结果 result_1 = jieba.lcut(str) #...
2020-05-04 20:23:51
843
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅