php小偷程序生成,php开发:php小偷程序实例代码

在下面采集数据过程中file_get_contents函数是关键了,下面我们来看看file_get_contents函数语法

string file_get_contents ( string $filename [, bool $use_include_path = false [, resource $context [, int $offset = -1 [, int $maxlen ]]]] )

和 file() 一样,只除了 file_get_contents() 把文件读入一个字符串。将在参数 offset 所指定的位置开始读取长度为 maxlen 的内容。如果失败, file_get_contents() 将返回 FALSE。

file_get_contents() 函数是用来将文件的内容读入到一个字符串中的首选方法。如果操作系统支持还会使用内存映射技术来增强性能。

$homepage = file_get_contents(‘http://www.hzhuti.com/’);

echo $homepage;

?>

这样$homepage就是我们采集网的内容给保存下来了,好了说了这么多我们开始吧。

function fetch_urlpage_contents($url){

$c=file_get_contents($url);

return $c;

}

//获取匹配内容

function fetch_match_contents($begin,$end,$c)

{

$begin=change_match_string($begin);

$end=change_match_string($end);

$p = “{$begin}(.*){$end}”;

if(eregi($p,$c,$rs))

{

return $rs[1];}

else { return “”;}

}//转义正则表达式字符串

function change_match_string($str){

//注意,以下只是简单转义

//$old=array(“/”,”$”);

//$new=array(“/”,”$”);

$str=str_replace($old,$new,$str);

return $str;

}

//采集网页

function pick($url,$ft,$th)

{

$c=fetch_urlpage_contents($url);

foreach($ft as $key => $value)

{

$rs[$key]=fetch_match_contents($value["begin"],$value["end"],$c);

if(is_array($th[$key]))

{ foreach($th[$key] as $old => $new)

{

$rs[$key]=str_replace($old,$new,$rs[$key]);

}

}

}

return $rs;

}

$url=”http://www.php100.com”; //要采集的地址

$ft["title"]["begin"]=”

”; //截取的开始点

$ft["title"]["end"]=”

”; //截取的结束点

$th["title"]["中山"]=”广东”; //截取部分的替换

$ft["body"]["begin"]=”

”; //截取的开始点

$ft["body"]["end"]=””; //截取的结束点

$th["body"]["中山"]=”广东”; //截取部分的替换

$rs=pick($url,$ft,$th); //开始采集

echo $rs["title"];

echo $rs["body"]; //输出

?>

以下代码从上一面修改而来,专门用于提取网页所有超链接,邮箱或其他特定内容

function fetch_urlpage_contents($url){

$c=file_get_contents($url);

return $c;

}

//获取匹配内容

function fetch_match_contents($begin,$end,$c)

{

$begin=change_match_string($begin);

$end=change_match_string($end);

$p = “#{$begin}(.*){$end}#iU”;//i表示忽略大小写,U禁止贪婪匹配

if(preg_match_all($p,$c,$rs))

{

return $rs;}

else { return “”;}

}//转义正则表达式字符串

function change_match_string($str){

//注意,以下只是简单转义

$old=array(“/”,”$”,’?');

$new=array(“/”,”$”,’?');

$str=str_replace($old,$new,$str);

return $str;

}

//采集网页

function pick($url,$ft,$th)

{

$c=fetch_urlpage_contents($url);

foreach($ft as $key => $value)

{

$rs[$key]=fetch_match_contents($value["begin"],$value["end"],$c);

if(is_array($th[$key]))

{ foreach($th[$key] as $old => $new)

{

$rs[$key]=str_replace($old,$new,$rs[$key]);

}

}

}

return $rs;

}

$url=”http://www.php100.com”; //要采集的地址

$ft["a"]["begin"]=’

$ft["a"]["end"]=’>’; //截取的结束点

$rs=pick($url,$ft,$th); //开始采集

print_r($rs["a"]);

?>

小提示file_get_contents很是容易被防采集了,我们可以使用curl来模仿用户对网站进行访问,这算比上面要高级不少哦,file_get_contents()效率稍低些,常用失败的情况、curl()效率挺高的,支持多线程,不过需要开启下curl扩展。下面是curl扩展开启的步骤:

1、将PHP文件夹下的三个文件php_curl.dll,libeay32.dll,ssleay32.dll复制到system32下;

2、将php.ini(c:WINDOWS目录下)中的;extension=php_curl.dll中的分号去掉;

3、重启apache或者IIS。

简单的抓取页面函数,附带伪造 Referer 和 User_Agent 功能

function GetSources($Url,$User_Agent=”,$Referer_Url=”) //抓取某个指定的页面

{

//$Url 需要抓取的页面地址

//$User_Agent 需要返回的user_agent信息 如“baiduspider”或“googlebot”

$ch = curl_init();

curl_setopt ($ch, CURLOPT_URL, $Url);

curl_setopt ($ch, CURLOPT_USERAGENT, $User_Agent);

curl_setopt ($ch, CURLOPT_REFERER, $Referer_Url);

curl_setopt($ch, CURLOPT_FOLLOWLOCATION,1);

curl_setopt ($ch, CURLOPT_RETURNTRANSFER, 1);

$MySources = curl_exec ($ch);

curl_close($ch);

return $MySources;

}

$Url = “http://www.php100.com”; //要获取内容的也没

$User_Agent = “baiduspider+(+http://www.baidu.com/search/spider.htm)”;

$Referer_Url = ‘http://www.jb51.net/’;

echo GetSources($Url,$User_Agent,$Referer_Url);

?>

vivi万能小偷程序是以php语言进行开发的网站采集系统,只需要输入目标站地址就能全自动采集,高智能的采集程序,支持98%的站点,规则制作十分简单,菜鸟也能制作采集规则,采集不求人。 功能简介: ·后台配置采集节点,输入目标站地址即可全自动智能转换自动全站采集 ·支持https、支持POST获取、支持搜索、支持cookie、支持代理、支持破解防盗链、支持破解防采集 ·全自动分析,内外链接自动转换、图片地址、css、js,自动分析CSS内的图片使得页面风格不丢失 ·广告标签,方便在规则里直接替换广告代码 ·支持自定义标签,标签可自定义内容、自由截取、内容正则截取。可以放在模板里,也可以在规则里替换 ·支持自定义模板,可使用标签diy个性模板,真正做到内容上移花接木 ·调试模式,可观察采集性能,便于发现和解决各种错误 ·多条采集规则一键切换,支持导入导出 ·内置强大替换和过滤功能,标签过滤、站内外过滤、字符串替换、等等 ·IP屏蔽功能,屏蔽想要屏蔽IP地址让它无法访问 蜘蛛访问记录 高级功能 ·url过滤功能,可过滤屏蔽不采集指定链接 ·伪原创,近义词替换有利于seo ·伪静态,url伪静态化,有利于seo ·自动缓存自动更新,可设置缓存时间达到自动更新,css缓存 ·简繁体互转 ·代理IP、伪造IP、随机IP、伪造user-agent、伪造referer来路、自定义cookie,以便应对防采集措施 ·url地址加密转换,个性化url,让你的url地址与众不同 ·关键词内链功能 ·插件机制,内容灵活控制 ·还有更多功能等你发现…… ftp上传需使用二进制上传方式,方法请百度 data文件夹需要读写权限 首次使用程序请到后台进行相关设置,否则出现错位、空白等现象 默认后台:http://网站地址/@admin/index.php 默认账号: admin 默认密码: admin 程序使用环境 php5.2 - php5.5 vivi万能小偷程序 v4.0 更新日志: 1.增加采集开关,关闭时将停止采集仅使用缓存 2.增加替换支持首页和内页区分 3.增加禁止手机版搜索引擎转码 4.增加目标站编码自动识别 5.增加支持首页使用目标站标题 6.优化替换算法 7.优化后台采集节点界面 8.强化后台插件管理 9.仅保留最近1万条蜘蛛记录,为提高性能
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值