<?php
//例子1,简单crul获得网页内容,
//01 在命令行cmd、
//02 cd -d D:\wamp\test
//03 php -f curl_url.php
/*$curl = curl_init("http://www.baidu.com");
curl_exec($curl);
curl_close($curl);*/
//例子2,将请求处理存入文件
$curlobj = curl_init();
curl_setopt($curlobj,CURLOPT_URL,"http://www.baidu.com");
curl_setopt($curlobj,CURLOPT_RETURNTRANSFER,true); //请求结果不直接打印
$output = curl_exec($curlobj);
curl_close($curlobj);
//将请求结果写入文件
$myfile = fopen("curl_html.html", "w") or die("Unable to open file!");
//$txt = $output; 直接存储到文件
$txt = str_replace("百度","屌丝",$output); //处理结果集后存储到文件
fwrite($myfile, $txt);
fclose($myfile);
CURL 爬虫,抓取网页并写入文件
最新推荐文章于 2025-05-29 11:03:21 发布