
scrapy爬虫框架
还是那片西瓜吗
博客个人笔记,不作为任何参考。
简单的事重复做,重复的事情一直做
展开
-
scrapy 爬取糗事百科段子篇章二(下载用户头像)
接着博客往下走 上篇博客地址一、更新代码vim ITtest.pyimport scrapyfrom qiushi.items import QiushiItem #导入糗事项目下items中QiushiItem函数from scrapy.http.response.html import HtmlResponse #导入HtmlXPathSelector模块from scrapy.selector.unified import SelectorList #导入Selecto原创 2020-07-09 23:13:56 · 186 阅读 · 0 评论 -
scrapy 爬取糗事百科段子篇章一
目前还是简单的爬取数据,目前的数据不完全, 个人目前相当于做个笔记,可简单的做个参看。一、创建爬虫项目scrapy startproject ITteststartproject #开始创建项目ITtest01 #创建项目名二、生成爬虫cd qiushi/qiushi/spiders && scrapy genspider ITtest www.qiushibaike.com/text/page/1cat ITtest.py上面说到url地址,现在原创 2020-07-07 23:40:13 · 402 阅读 · 0 评论 -
scrapy 命令
官方文档scrapy -h bench Run quick benchmark test check Check spider contracts commands crawl Run a spider edit Edit spider fetch Fetch a URL using the Scrapy downloader genspider Generate new spide原创 2020-06-29 21:19:21 · 234 阅读 · 0 评论 -
ubutun 搭建scrapy环境
scrapy官方文档本人ubutun系统只有python3,无python2(可以了解python。 2020不在更新python两年前的了解,目前不知道),可以跳过安装python3一、安装以下依赖项sudo apt-get install python3-dev python3-pip libxml2-dev libxslt1-dev zlib1g-dev libffi-dev libssl-dev二、安装scrapypip3 install scrapy三、配置环境变量1、更新原创 2020-06-28 18:23:24 · 349 阅读 · 0 评论