想实现的结果:网页爬虫 =》输入链接=》编辑器输出访问的源代码(不包含样式)=》代码保存到本地文本=》通过浏览器访问
ioutil.ReadAll =====> 读取所有数据 如果读取成功,则 err 返回 nil,而不是 EOF func ReadAll(r io.Reader) ([]byte, error)
ioutil.ReadFile ====>读取文件中的所有数据 如果读取成功,则 err 返回 nil,而不是 EOF func ReadAll(r io.Reader) ([]byte, error)
ioutil.WriteFile =====>向文件中写入数据,写入前会清空文件。如果文件不存在,则会以指定的权限创建该文件。
HandleFunc注册一个处理器函数 第一个参数为请求地址 第二个参数为函数类型 表示这个请求需要处理的事情。没有处理复杂的逻辑,而是直接给DefaultServeMux处理
package main
import (
"fmt"
"io/ioutil"
"log"
"net/http"
)
func main() {
//设置路由
http.HandleFunc("/index",index)
//绑定监听
jian:=":8001"
fmt.Println("启动成功:127.0.0.1",jian)
http.ListenAndServe(jian,nil)
}
func index(w http.ResponseWriter,r * http.Request) {
//获取内容
v,err :=http.Get("http://4399.com") //此处的url可以随意换
if err!=nil{
fmt.Println(err) //错误信息
}
//关闭
defer v.Body.Close()
//读取 ReadAll读取全部内容
v1,err1 :=ioutil.ReadAll(v.Body)
if err1!=nil{
//log.Fatal 退出程序 defer不执行
log.Fatal(err1) //错误信息
}
result:=string(v1)
fmt.Println(result) //输出到编辑器
//写入文件 //写入到的地址可随机更改
err2:=ioutil.WriteFile("D:/1804A/爬小虫/源码.txt",[]byte (result),0777)
if err2!=nil{
log.Fatal(err2) //错误信息
}
fmt.Println("写入成功")
w.Write([]byte(result)) //输出到浏览器
}
浏览器输入 127.0.0.1:800/index 进行访问
620

被折叠的 条评论
为什么被折叠?



