要说近几年科技圈什么最火热,无疑就是人工智能,各大科技公司纷纷投入这个浪潮之中,很多从事的是毫不相关的行业的企业也投入到了人工智能的开发与应用中,也想在里面分得一勺半羹。
提及人工智能,就不得不说到和他息息相关的开发工具,python就是最接近AI的预言之一。总所周知,机器学习和深度学习是开发人工智能两个非常重要的模块,而 Python拥有keras、Numpy、matplotlib、sklearn、等大量的库,像matplotlib、sklearn、pandas这些库都是做数据分析、数据处理、数据建模和绘图的库,基本上机器学习中对数据的爬取(scrapy)、对数据的处理和分析(pandas)、对数据的绘图(matplotlib)和对数据的建模(sklearn)在Python中全都能找到对应的库来进行处理。
那么要想学人工智能,想学Python,那以下这些是必不可少的:
首先,你要学Python如何爬取数据,你要做数据分析、数据建模,起码你要有数据,这些数据来源有多种方法,但是很多都来自网络,这就是爬虫。
爬虫:爬虫主要分为两个部分,第一个是网页界面的获取,第二个是网页界面的解析;爬虫的原理是利用代码模拟浏览器访问网站,与浏览器不同的是,爬虫获取到的是网页的源代码,没有了浏览器的翻译效果。
举个列子
源代码:
import urllib2
repr = urllib2.urlopen(“URL”)
html = repr.read()
import re
省略一行代码
print url
python爬虫的话很多模块包提供给开发者直接抓取网页,urllib,urllib2,requests(urllib3)等等
然后,有了数据就可以进行数据处理和分析了,这个时候,你需要用到数据处理的一些库。
数据处理:Numpy、scipy、pandas、matplotlib,这些库分别可以进行矩阵计算、科学计算、数据处理、绘图等操作,有了这些库,你就可以一步步开始把数据处理成你需要的格式。
接着,数据符合你的格式以后,你就需要利用这些数据进行建模了,这个时候你用到的库也有很多。
建模: