刚看到一篇帖子,Qt获取网页源码, 最近正好想弄个爬虫. 觉得不错. 粘过来学习一下.包含头文件:#include <QtCore> #include <QtNetwork>
//网页地址
const QString URLSTR = "http://work.doshow.com.cn/active/descant/";
//储存网页代码的文件
const QString FILE_NAME = "code.txt";
QUrl url(URLSTR);
QNetworkAccessManager manager;
QEventLoop loop;
qDebug() << "Reading code form " << URLSTR;
//发出请求
QNetworkReply *reply = manager.get(QNetworkRequest(url));
//请求结束并下载完成后,退出子事件循环
QObject::connect(reply, SIGNAL(finished()), &loop, SLOT(quit()));
//开启子事件循环
loop.exec();
//将读到的信息写入文件
QString code = reply->readAll();
QFile file(FILE_NAME);
file.open(QIODevice::WriteOnly);
QTextStream out(&file);
out << code << endl;
file.close();
qDebug() << "Finished, the code have written to " << FILE_NAME;

本文提供了一段使用Qt进行网页爬虫的代码实例,详细介绍了如何通过Qt获取网页源码,包括引入必要的头文件、定义网址、创建网络请求等关键步骤,并演示了将获取到的网页内容保存到文件中。
884

被折叠的 条评论
为什么被折叠?



