php_采集网页_标准3步

本文介绍了一种使用PHP实现的网站数据采集方法,包括获取分页链接、文章URL及内容等步骤,并通过DOM操作和正则表达式进行数据解析与本地化存储,最终将数据插入数据库。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

<?php
function unique($arr){
	//删除数组重复元素
		if(is_array($arr[0])){
			$temarr=array_flip(array_flip($arr));
		}else{
			$temarr=array_unique($arr);
		}
		return $temarr;
}
function filterJS($str){
				//过滤script标签 问号表示懒惰匹配
				$str=preg_replace('/<script(.|\s)*?\/script>/','',$str);
				return $str;
}
function filterA($str){
				$str=preg_replace('/<a ([^>]*)>/','',$str);//过滤A标签
				$str=preg_replace('/<\/a>/','',$str);
				return $str;
}
class caiji{
			public function fenyelist($data){
					//sg_调试_仿discuz采集
					//获取分页列表数组 例如:http://movie.douban.com/top250?start=(*)&filter=&type=
					$fenye_url=$data['fenye_url'];
					$fenye_from=$data['fenye_from'];		//0
					$fenye_to=$data['fenye_to'];			//200
					$fenye_increment=$data['fenye_increment'];			//25
					//现在就可以得到一个数组
					$fenye_list=array();
					for($i=$fenye_from;$i<=$fenye_to;$i+=$fenye_increment){
						$fenye_list[]=preg_replace("/\(\*\)/",$i,$fenye_url);
					}
					return $fenye_list;
			}
			
			public function archivesByReg($fenye_list,$reg){
			//下面开始第2阶段,遍历数组$fenye_list列表页(N个http://movie.douban.com/top250?start=25&filter=&type=";)
				//并且根据指定的正则,获取每个文章的具体路径存放到数组
				//http://movie.douban.com/subject/1867345/"
				//样本:$reg='/http:\/\/movie\.douban\.com\/subject\/[\d]*/';
				$arr[][]=null;
				$i=0;
				foreach($fenye_list as $one){					
				//$one="http://localhost/ci/豆瓣电影TOP250.htm";
					$temp=file_get_contents($one);
					preg_match_all($reg,$temp,$arr[$i++]);					
				}
				//var_dump($arr);	//3维数组   [0-9][0][0-25]			
				//遍历这个3维数组,将每篇文章的网址,放到结果数组并返回
				 $one_arr=array();
				 foreach($arr as $arr2){
					 foreach($arr2[0] as $item){
						$one_arr[]=$item;
					 }
				 }
				 $one_arr =unique($one_arr); //去重复元素
				 return $one_arr;
			}

			public function archivesByDOM($fenye_list,$rule){
				require_once("../simple_html_dom.php");//在www_local根目录
				$html = new simple_html_dom();
				$one_arr=array();//准备一个空数组,接收
				foreach($fenye_list as $one){//遍历列表数组
					$content=file_get_contents($one);//取出每一个列表的HTML
					$html->load($content);//从字符串中加载文档
					$arr_A=$html->find($rule);//返回对象数组
					foreach($arr_A as $item){
						$href=$item->href;
						//echo $href."</br>";
						$one_arr[]=$href;//将每一篇文章的url加到数组当中
					}
					//千万记得清理一下内存
					$html->clear();
				}
				$one_arr =unique($one_arr); //去重复url
				 return $one_arr;
			}

			public function downEveryArticle($filename,$bodyRule,$outputdir){
				//现在开始第3阶段,反序列化filename,得到数组$article_arr,每个成员是一篇文章url
				//遍历$article_arr,利用$bodyRule本地化每一篇文章的正文内容,输出到指定目录
				$article_arr=unserialize(file_get_contents($filename));
				//var_dump($article_arr);exit;//sg_调试
				require_once("../simple_html_dom.php");//在www_local根目录
				$html = new simple_html_dom();
				$i=1;
				if(!file_exists($outputdir)){
					mkdir($outputdir);
				}
				set_time_limit(0);
				foreach($article_arr as $one){//$one对应一篇文章的Url
					// if($i>25){
						// exit;
					// }
					$file=$outputdir.$i.'.htm';
					if(!file_exists($file)){
							$content=filterJS(file_get_contents($one));
							$html->load($content);
							$content=$html->find($bodyRule,0)->innertext;
							//var_dump($content);exit;//sg_调试
							$html->clear();//千万记得清理一下内存
							//本地化每一篇文章的正文内容
							file_put_contents($file,$content);
					}
					$i=$i+1;
				}
				echo "采集文章,到本地完毕,请进入下一步,DOM或正则+refresh+sql插入";
			}

			public function insertSQL(){
				//DOM或正则采集单篇文章各个字段+sql插入+refresh
				//单篇文章已经本地化:http://localhost/csdn/temp/1.htm         num为1-76
				//先取得num,为构造目标url作准备
				$dir_url="http://localhost/csdn/temp/";
				set_time_limit(0);
				$start=1;//如果没有传参数Num就从1开始,传了就从指定的参数开始
				$end=30;
				if(isset($_GET['num'])){
					$num=$_GET['num'];
					if($num>$end){
						echo "字段收集完毕";
						exit;
					}
				}else{
					$num=$start;
				}
				$url=$dir_url.$num.'.htm';//构造目标url 如http://localhost/csdn/temp/1.htm
				$content=file_get_contents($url);
				//准备2维数组接收,首个参数是字段名,
				//第2是通过正则和DOM从$content中匹配出来的各个字段的值
				$preg_arr[][]=null;	
				
				require_once("simple_html_dom.php");
				$html = new simple_html_dom();
				
				//第1个字段,匹配a_title
				$html->load($content);
				$fields['a_title']=trim($html->find('span.link_title',0)->plaintext);
				$html->clear();//千万记得清理一下内存
				//var_dump($fields);exit;//sg_调试
				
				
				//第2个字段,匹配a_body
				$html->load($content);
				$fields['a_body']=trim($html->find('div#article_content',0)->plaintext);
				$html->clear();//千万记得清理一下内存
				//var_dump($fields);exit;//sg_调试
				
				//第3个字段,匹配a_pubdate
				$html->load($content);
				$temp=trim($html->find('span.link_postdate',0)->plaintext);
				//echo $temp;//2014-01-08 17:32
				$temp=strtotime($temp);
				//echo date("Y n j G i s",$time);
				$fields['a_pubdate']=$temp;
				$html->clear();//千万记得清理一下内存
				//var_dump($fields);exit;//sg_调试
				
				
				//下面就可以插入数据库了
				$fields["t_id"]=4;
				$database='ci';
				$host='localhost';
				$user='root';
				$pwd='root';
				$table='csdn_article';
				$link=mysql_connect($host,$user,$pwd);
				mysql_select_db($database);
				mysql_query("set names utf8");
				$sql='insert into '.$table.'(t_id,a_title,a_body,a_pubdate) values("'.addslashes($fields["t_id"]).'","'.addslashes($fields["a_title"]).'","'.addslashes($fields["a_body"]).'","'.addslashes($fields["a_pubdate"]).'")';
				//var_dump($sql);exit;//sg_调试
				$b=mysql_query($sql) or die("Invalid query: " . mysql_error());
				var_dump($b);
				
				
				 $num=$num+1;
				 //下面开始收集第2页 到第225页;千万注意要提交到本页面
				 //basename(__FILE__);就个就是本文件的名字,带后缀
				 echo '<meta http-equiv=refresh content="0;url='.basename(__FILE__).'?num='.$num.'">';
				
			}

			
}
	
	//$a=new caiji();
	//========================第1大步==========================
	//$data['fenye_url']="http://blog.youkuaiyun.com/u012576807/article/list/(*)";
	//$data['fenye_from']=1;  //从多少开始
	//$data['fenye_to']=2;		//到多少
	//$data['fenye_increment']=1;		//每次增加多少
	//$fenye_list=$a->fenyelist($data);//第一阶段完成
	//var_dump($fenye_list);exit;
	//下面开始第2阶段,遍历数组$fenye_list列表页(http://movie.douban.com/top250?start=25&filter=&type=";)
	//2选其1,根据正则,获取每个文章的具体url,返回数组$article_arr
	//$reg='/http:\/\/blog\.csdn\.net\/pre_eminent\/article\/details\/[\d]*/';
	//$article_arr=$a->archivesByReg($fenye_list,$reg);	
	//2选其1,根据DOM规则如UL里面的LI,获取每个文章的具体url存放到数组$article_arr
	//$rule='div#article_list span.link_title a';
	//$article_arr=$a->archivesByDOM($fenye_list,$rule);	
	//var_dump($article_arr);	exit;
	//先序列化,要用的时候,再反序列化
	//$filename="csdn";
	//$filename="D:/article_arr_".$filename.".txt";
	//file_put_contents($filename,serialize($article_arr));exit;
	//至此,第2阶段完成,请open下一个PHP页面第3阶段,遍历数组$article_arr,本地化每一篇文章
	//下面进入第4阶段,通过refresh,从本地读取每篇文章
	//并取出相应字段,拼装成SQL,插入数据库
	//========================第2大步==========================
	//上接getAllArticles1.php;
	//现在开始第3阶段,反序列化并遍历数组$article_arr,本地化每一篇文章的正文内容
	/*
	$filename="csdn";
	$filename="D:/article_arr_".$filename.".txt";
	$bodyRule='div#article_details';//这就文章的主要内容
	$outputdir='D:/www_local/csdn/temp/';
	$a=new caiji();
	$a->downEveryArticle($filename,$bodyRule,$outputdir);exit;
	*/
	//========================第3大步==========================
	//下面进入第4阶段,通过DOM或正则+refresh+sql插入,从本地读取每篇文章
	//并取出相应字段,拼装成SQL,插入数据库
	//$a->insertSQL();//注意,这个要单独拿出来!
	

		$dir_url="http://localhost/csdn0/temp/";
				set_time_limit(0);
				$start=1;//如果没有传参数Num就从1开始,传了就从指定的参数开始
				$end=76;
				if(isset($_GET['num'])){
					$num=$_GET['num'];
					if($num>$end){
						echo "字段收集完毕";
						exit;
					}
				}else{
					$num=$start;
				}
				$url=$dir_url.$num.'.htm';//构造目标url 如http://localhost/csdn/temp/1.htm
				$content=file_get_contents($url);
				//准备2维数组接收,首个参数是字段名,
				//第2是通过正则和DOM从$content中匹配出来的各个字段的值
				$preg_arr[][]=null;	
				
				require_once("simple_html_dom.php");
				$html = new simple_html_dom();
				
				//第1个字段,匹配a_title
				$html->load($content);
				$fields['a_title']=trim($html->find('span.link_title',0)->plaintext);
				$html->clear();//千万记得清理一下内存
				//var_dump($fields);exit;//sg_调试
				
				
				//第2个字段,匹配a_body
				$html->load($content);
				$fields['a_body']=trim($html->find('div#article_content',0)->plaintext);
				$html->clear();//千万记得清理一下内存
				//var_dump($fields);exit;//sg_调试
				
				//第3个字段,匹配a_pubdate
				$html->load($content);
				$temp=trim($html->find('span.link_postdate',0)->plaintext);
				//echo $temp;//2014-01-08 17:32
				$temp=strtotime($temp);
				//echo date("Y n j G i s",$time);
				$fields['a_pubdate']=$temp;
				$html->clear();//千万记得清理一下内存
				//var_dump($fields);exit;//sg_调试
				
				
				//下面就可以插入数据库了
				$fields["t_id"]=4;
				$database='ci';
				$host='localhost';
				$user='root';
				$pwd='root';
				$table='csdn_article';
				$link=mysql_connect($host,$user,$pwd);
				mysql_select_db($database);
				mysql_query("set names utf8");
				$sql='insert into '.$table.'(t_id,a_title,a_body,a_pubdate) values("'.addslashes($fields["t_id"]).'","'.addslashes($fields["a_title"]).'","'.addslashes($fields["a_body"]).'","'.addslashes($fields["a_pubdate"]).'")';
				//var_dump($sql);exit;//sg_调试
				$b=mysql_query($sql) or die("Invalid query: " . mysql_error());
				var_dump($b);
				
				
				 $num=$num+1;
				 //下面开始收集第2页 到第225页;千万注意要提交到本页面
				 //basename(__FILE__);就个就是本文件的名字,带后缀
				 echo '<meta http-equiv=refresh content="0;url='.basename(__FILE__).'?num='.$num.'">';
?>

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值