不过有些时候,编码这个问题总是需要解决的 加油
import java.io.*;
import java.net.*;
import java.nio.CharBuffer;
import java.io.DataOutputStream;
import java.io.File;
import java.io.FileOutputStream;
import java.io.FileReader;
import java.io.FileWriter;
public class WebCrawlerByClebeg {
private static String Text_File_Path ="E:\\workshop\\ch2\\htmlsrc.html";
public static void main(String[] argc) {
URL url = null;
FileOutputStream fos = null;
InputStream is;
try {
fos = new FileOutputStream(Text_File_Path);
DataOutputStream ds = new DataOutputStream(fos);
for (int i = 0; i < 1; i++) {
url = new URL("http://www.axure.us/");
is = url.openStream();
int count = 0;
while (count != -1) {
ds.write(count = is.read());
System.out.println(count);
}
is.close();
fos.close();
ds.close();
}
} catch (MalformedURLException e) {
e.printStackTrace();
} catch (IOException e) {
e.printStackTrace();
}
}
}
本文介绍了一个使用Java编写的简单网页爬虫程序。该程序通过访问指定URL抓取网页内容并将其保存到本地文件中。代码展示了如何利用Java标准库中的类如URL、InputStream和FileOutputStream来完成这一过程。
670

被折叠的 条评论
为什么被折叠?



