
Python
文章平均质量分 94
Sophia$
算法
展开
-
手把手教你安装Python开发工具PyCharm和Anaconda
有的同学一想要安装python了,下意识就去下载安装python.exe,可是这样安装完对python版本并不好管理,以后也并不好用,而且用占用大量的硬盘空间。我们一定要用Anaconda替代python.exe。首先我们就先来安装Anaconda,可以认为它是python各版本的一个集成。原创 2024-12-13 10:45:47 · 2409 阅读 · 0 评论 -
Android 平台的Python-JNI方案(二)-详细版
上一篇博客已经讲了Python与C的交互,本篇主要关于在Android项目中嵌入Python解释器,实现Java与Python相互调用。已有好的项目提供了思路,地址:https://github.com/joaoventura/pybridge这里说一下简单实现1 环境准备从Crystax下载NDK。配置好crystax ndk环境,并创建一个NDK项目,将crystax 包下面的 libpython3.5m.so拷贝至工程 lib/armeabi目录下2 为Java 编写 native原创 2021-01-07 17:08:30 · 3121 阅读 · 0 评论 -
Android平台的Python-基础篇(一)-详细版
1. 前言(本文以Python3为例,Python3是未来,大家都懂的)Python作为一个功能强大又语法简洁的语言,其应用已无需多言。要想在Android平台运行起Python,也有方案实现,其实质就是在Android系统上搭建Python环境。对此Google已经提供了SL4A(Scripting Layer for Android )方案,支持多种脚本语言,除此之外,还可以使用一个叫QPython的app,可以直接在Android上编写以及运行Python代码。但其实意义不大,写好的Python原创 2021-01-03 18:35:52 · 7452 阅读 · 0 评论 -
Android与Python混合编程系列-详细版
1. 前言早在2017年的时候,出于业余兴趣,我就开始研究关于Python移植到Android上的实现方案,我一直希望能实现Android与Python的混合编程,并为此写了一系列博客,我希望借助JNI技术,实现Java与Python的交互。或许是出于上班忙,时间少,精力有限,人的惰性等等原因,一直没有实现一套框架,降低Android与Python混编的难度,做到尽可能封装C语言代码,让使用者无需掌握NDK开发,C语言编程等。原理是早已走通了,剩下的就是苦力活,写C代码,写JNI代码,对接口一一封装。转载 2020-12-16 11:09:34 · 5090 阅读 · 2 评论 -
用其他语言调用Python模块,并提高模块的导入速度
现在许多的项目都要求实时性,如果直接用Java中的Runtime调用命令行界面中的python函数,则在运行python文件前每次都得重新导入对应的包,导致函数运行的时间格外地长。在最初没经过优化的时候大概每次执行函数都需要10多秒的时间。这样远远不能够满足在界面调用的时候实时性要求。最开始的想法是对python中的运行效率进行了极致优化,例如将jieba换成jieba_fast,砍除所有用不到的功能,对数据处理的结构,循环结构,变量使用进行了优化,使对应执行的效率大大提高,然而这个过程费力不讨好,经过转载 2020-09-04 17:27:49 · 505 阅读 · 0 评论 -
Python中re模块的详细使用说明
1. re模块对正则表达式的使用步骤一般有三步: 1、re.compile(正则表达式) 将正则表达式字符串编译为Pattern实例 2、用pattern实例去处理文本并获得匹配结果(比如一个Match实例) 3、然后用Match实例去获得信息。2. 这里先介绍几个常用的Pattern对象常用的方法:正则化方法总结 方法名称 re直接调用 pattern调用 说明 compile re.compile('正则表达式') ...原创 2020-07-14 16:41:13 · 3781 阅读 · 0 评论 -
Scrapy(九):使用scrapy爬虫并将数据保存到MangoDB数据库
1.命令行#1.创建一个新的项目scrapy startproject [项目名]#2.生成爬虫scrapy genspider +文件名+网址#3.运行(crawl)scrapy crawl +爬虫名称scrapy crawl [爬虫名] -o zufang.json# -o outputscrapy crawl [爬虫名] -o zufang.csv#4.check检查错误scrapy check#5.list返回项目所有spider名称scrapy list#6. v.转载 2020-07-07 16:21:19 · 922 阅读 · 0 评论 -
Scrapy(八):使用scrapy爬虫并将数据保存到MySQL数据库
1. 环境搭建:1.python3.6版本2.pycharm编辑器(别的编辑器也可以)。3.mySQL数据库4.navicat for mysql5.scrapy爬虫框架下载这块就不多说了,网上很多下载安装教程及解决方案。遇到问题不要着急,根据报错信息查找解决。2. 操作步骤:2.1 爬虫的实现2.1.1 首先我们使用命令行新建一个scrapy项目。windows使用win+R,输入cmd,进入终端。进入你想创建项目的文件目录,输入scrapy start project he转载 2020-07-07 14:44:20 · 4286 阅读 · 0 评论 -
Scrapy(七):爬虫利器 -正则表达式
Python 正则表达式re 模块使 Python 语言拥有全部的正则表达式功能。compile 函数根据一个模式字符串和可选的标志参数生成一个正则表达式对象。该对象拥有一系列方法用于正则表达式匹配和替换。re 模块也提供了与这些方法功能完全一致的函数,这些函数使用一个模式字符串做为它们的第一个参数。re.match函数re.match 尝试从字符串的起始位置匹配一个模式,如果不是起始位置匹配成功的话,match()就返回none。re.match(pattern, string,转载 2020-07-06 19:50:12 · 2371 阅读 · 0 评论 -
Scrapy(六):scrapy爬取数据保存到MySql数据库
通过往期的文章分享,我们了解了如何爬取想要的数据到Items中,也了解了如何操作MySQL数据库,那么我们继续完善我们的爬虫代码,把爬取的items,保存到MySQL数据库中。scrapy构架为了方便操作,我们自己新建一个mysqlpipelines文件夹,编写自己的pipelines.py文件,来运行保存items,在此文件夹下新建sql.py来编写我们保存数据库的sql语句。编写sql语句打开sql.py 编写代码,首先要连接数据库import pymysql.cursors# 连接转载 2020-07-06 19:49:01 · 940 阅读 · 0 评论 -
Scrapy(五):解析多层网页
通过上期的分享,我们得到了第一个网页的所有小说的名字,通过查看网页可以发现,单击小说名字后,就进入了小说详细界面,上面有小说的名字,作者,种类等信息,那我们如何爬取这些信息,这就是本期分享的内容(解析多层或者说下一层网页)。1. scrapy spider解析多层网页我们在解析小说名字的时候,查看底层代码可以看到一个a标签,此a标签就是下层网页的URL地址,我们在解析小说名字的代码基础上,增加如下代码:novelname = td.find('a').get_text()#小说名字novel转载 2020-07-06 19:42:44 · 854 阅读 · 2 评论 -
Scrapy(四):selectors 选择器
通过上期的简单介绍,我们已经可以新建一个简单的spider,但是细心的网友发现,我们在解析HTML网页的时候是:tds = BeautifulSoup(response.text, 'lxml').find_all('tr', bgcolor='#FFFFFF')#解析网页我们使用到了BeautifulSoup:Beautiful Soup 是一个可以从HTML或XML文件中提取数据的Python库.它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式,但是缺点慢。上期网友反馈使转载 2020-07-06 19:29:24 · 340 阅读 · 0 评论 -
Scrapy(三):代码入门篇
通过以上的分享,我们了解了scrapy框架的流程图以及基本的安装,那么接下来,我们新建一个工程来走入scrapy spider的世界。1. scrapy spide新建工程首先打开我们的pycharm IDE软件,在新建工程前,请确保已经安装好scrapy框架,你可以输入下面代码确保scrapy的正常安装:cmd终端下输入 >>> scrapy -h1.1 scrapy框架确认创建项目:cmd 进入项目文件夹,输入如下代码scrapy startpr.转载 2020-07-06 18:57:00 · 321 阅读 · 0 评论 -
Scrapy (二):读懂Spider流程图
上期我们简单讲述了Scrapy 框架的基本构成,本期文章主要以一种简单的对话形式介绍一下Scrapy流程图。Scrapy框架流程图从Scrapy的流程图,我们知道Scrapy Engine(引擎)作为Scrapy的大脑,主要负责spider的协调工作,当spider运行时:Scrapy Engine(引擎):spider,你好,你好爬取那个网站?Spider(爬虫): 你好,引擎,我要爬取HTTP:\\http://www.XXXXXX.COMScrapy Engine(引擎): 那你把你需要爬转载 2020-07-06 18:45:41 · 910 阅读 · 0 评论 -
Scrapy(一):Spider框架
说道Python,估计很多同学跟我一样都是从学习Python的爬虫开始的。当然你可以使用lxml、BeautifulSoup、Request等第三方库来编写自己的爬虫。但是当需要爬取海量数据,特别是大数据的实际应用中,若自己编写爬虫,是一件特别困难的事情。还好Python提供了类似Scrapy等类似的爬虫框架。1.Scrapy框架介绍图1 Scrapy Spider 框架图Scrapy | A Fast and Powerful Scraping and Web Crawling Framew..转载 2020-07-06 17:37:11 · 1308 阅读 · 0 评论 -
Python Numpy学习
1.Python(1)基本的数据类型Python没有单目操作x++和x--。Booleans: 使用单词and, or, not, !=(2)容器Lists: [] 由数组组成,长度可以变化,可以是不同类型数据的组合。方法:append(element),pop() list comphrehensionsDictionaries: {key:v...翻译 2020-01-16 21:23:50 · 309 阅读 · 0 评论