技术:Java、JSP等
摘要:
因特网目前是一个巨大、分布广泛、全球性的信息服务中心,它涉及新闻、广告、消费信息、金融管理、教育、政府、电子商务和许多其它信息服务。但Internet所固有的开放性、动态性与异构性,使得准确快捷地获取网络信息存在一定难度。
本文的目的就是对网站内容进行分析,解析其中的超链接以及对应的正文信息,然后再通过URL与正文反馈网站内容,设计出抓取网页链接这个程序。
抓取网页中的所有链接是一种搜集互联网信息的程序。通过抓取网页中的链接能够为搜索引擎采集网络信息,这种方法有生成页面简单、快速的优点,提高了网页的可读性、安全性,生成的页面也更利于设计者使用。
关键词: 网页解析;JAVA;链接;信息抽取
目录:
摘 要 I
ABSTRACT II
1 绪论 1
1.1 课题背景 1
1.2 网页信息抓取的历史和应用 1
1.3 抓取链接技术的现状 2
1.3.1 网页信息抓取的应用 3
1.3.2 网页信息提取定义 4
2 系统开发技术和工具 7
2.1 项目开发的工具 7
2.1.1 Tomcat简介 7
2.1.2 MyEclipse简介 7
2.2 项目开发技术 8
2.2.1 JSP简介 8
2.2.2 Servlet简介 10
2.3 创建线程 11
2.3.1 创建线程方式 11
2.3.2 JAVA中的线程的生命周期 12
2.3.3 JAVA线程的结束方式 12
2.3.4 多线程同步 12
3 系统需求分析 1