ubantu 安装 scrapy 报错解决 + 安装方法

本文介绍在Ubuntu系统中解决lxml与Scrapy安装过程中遇到的依赖问题的方法,包括安装必要的开发库与使用pip进行软件包管理。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

error:python.h No such file or directory

yum install python-dev


fatal error: ffi.h: No such file or directory

yum install libssl-dev libffi-dev


error:/bin/sh:1:xslt-config:not fount

yum install libxslt-dev


fatal error: openssl

libssl-dev包含libraries, header files and manpages,他是openssl的一部分,而openssl对ssl进行了实现~

使用sudo apt-get install libssl-dev来安装libssl-dev即可


都装一遍。。。


如果存在报错:参考这篇文章----------------------------------

在ubuntu14.04版本上安装lxml老是出错在一番艰辛的搜索之后 终于找出了安装的正确方法其实也就是没有将依赖包装全:

sudo apt-get install libxml2-dev libxslt1-dev python-dev
sudo apt-get install zlib1g-dev
sudo apt-get install libevent-dev
sudo pip install lxml

中途执行pip install lxml可能遇到识别不正确的情况需要apt-get update一下方可继续

参考网址:

http://lxml.de/installation.html

http://blog.marchtea.com/archives/104

http://blog.marchtea.com/archives/91



下面是之前的参考也可能会安装成功

sudo apt-get install python-twisted-web python2.7-dev



安装 pip :

$ wget https://bootstrap.pypa.io/get-pip.py
...

$ sudo python get-pip.py install



使用 pip 安装/升级 lxml(升至 3.3.5) 时出现以下报错:

"error: command 'x86_64-linux-gnu-gcc' failed with exit status 1"

 

这是因为一些依赖包没有安装可以使用以下命令更新依赖包:

$sudo apt-get build-dep python-lxml

 

在更新完依赖包后再次执行 pip 安装:

$ sudo pip install lxml --upgrade

---------------------------------------------------------------------------


安装方法:

  1. 按照官方文档的说明,安装scrapy 需要以下程序或者库:

    (1)、Python 2.7

    (2)、lxml。 Most linux distributions ships PRepackaged versions of lxml. Otherwise refer tohttp://lxml.de/installation.html

    (3)、OpenSSL。 This comes preinstalled in all Operating systems except Windows (see Platform specific installation notes)

    (4)、pip or easy_install Python package managers

    我们安装的Ubuntu14.01系统都已经自带了前面3个,Python的版本为2.7.6。为了验证是否有安装,我们来查看一下。

  2. 打开终端,执行如下命令python, 接下来就是import lxml, import OpenSSL。如下图。如果import没有报错,说明系统已经自带了。

    为了能够保证下面的安装能够成功。我们先执行:sudo apt-get install python-dev。
  3. 再执行:sudo apt-get install libevent-dev。
  4. 接下来就是安装pip了,执行:apt-get install python-pip。
  5. 最后,也就是最重要的,安装Scrapy。执行:pip install Scrapy

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值