htmlparser的简单使用

抽取豆瓣电影信息的例子:

我个人主要使用的类有NodeFilter ,TagNameFilter,AndFilter,HasAttributeFilter,NodeList ……

public void extract() {
		BufferedWriter bw = null; 
		NodeFilter title_filter = new TagNameFilter("h1");
		NodeFilter info_filter = new AndFilter(new TagNameFilter("div"), 
				new HasAttributeFilter("id","info"));
		NodeFilter detail_filter = new AndFilter(new TagNameFilter("span"), 
				new HasAttributeFilter("class","pl"));
		NodeFilter plot_filter = new AndFilter(new TagNameFilter("span"), 
				new HasAttributeFilter("property","v:summary"));
		try {			
			//解析电影标题,创建写入文件
			NodeList nodeList = this.getParser().parse(title_filter);
			BufferedWriter disabledPages = new BufferedWriter(new FileWriter(new File("E:\\disabledPages.txt"), true));			
			if(nodeList.size() == 0 || nodeList.elementAt(0).getChildren().size() < 2){
				//判断网页文件是否包含正常的title
				//System.out.println("Disabled page:" + this.getInputFilePath());
				String url = "http://" + this.getInputFilePath().substring(10, 42).replaceAll("\\\\", "/");
				disabledPages.write(url + NEWLINE);
				this.disabledCount++;
				if(disabledPages != null) {
					disabledPages.close();
				}
				return;
			}
			NodeIterator it1 = nodeList.elementAt(0).getChildren().elements();
			StringBuffer title = new StringBuffer();			
			while (it1.hasMoreNodes()) {
				Node tmpNode = it1.nextNode();
				if(tmpNode instanceof Span) {
					title.append(tmpNode.toPlainTextString()).append("_");
					//System.out.println(tmpNode.toPlainTextString());
					//String txt = tmpNode.toPlainTextString();
					//title.append(txt).append("_");
				}
			}
			title.deleteCharAt(title.length() - 1);
			String subject = title.toString().replaceAll("_", NEWLINE);
			/**
			 * 特殊字符写入文件名的问题,有些字符GBK编码不支持,改用utf-8 。eg:
			 * 哭泣的草原 (2004) http://movie.douban.com/subject/1388180/
			 * "/"不能用作文件名字符,换成" ",eg:变脸 Face\Off (1997)
			 */
			String GBKTitle = title.toString();
			//String GBKTitle = new String(title.toString().getBytes("GBK"));
			String writableTitle = GBKTitle.replaceAll(":|/|\\\\|\\*|\\?|\\||(")|\\n|(<)|(>)", " ").trim();
			String path = this.getOutputPath();
			String writeFile = path + writableTitle + ".txt";
			if(writeFile.length() >= 260) {
				//windows文件名长度限制为260字符,文件夹长度限制248字符
				writeFile = writeFile.substring(0, 255) + ".txt";
			}
			FileOutputStream fos = new FileOutputStream(writeFile); 
			bw = new BufferedWriter(new OutputStreamWriter(fos, "UTF-8"));
			int startPos = this.getInputFilePath().indexOf("mirror") + 6;
			String url_seg = this.getInputFilePath().substring(startPos);
			url_seg = url_seg.replaceAll("\\\\", "/");
			//按路径生成URL,并去掉最后的“index.html”
			String url = "http:/" + url_seg.substring(0, url_seg.length() - 10);			
			//System.out.println(url);
			bw.write(url + NEWLINE);
			bw.write(subject + NEWLINE);

			this.getParser().reset();
			//解析影片相关信息
			NodeList infoList = this.getParser().parse(info_filter);
			if(infoList.elementAt(0).getChildren() != null) {
				NodeList detailList = infoList.elementAt(0).getChildren();
				NodeIterator it2 = detailList.elements();
				while(it2.hasMoreNodes()) {
					Node tmpNode = (Node) it2.nextNode();
					if(tmpNode instanceof Span)
						bw.write(tmpNode.toPlainTextString());
						//System.out.print(tmpNode.toPlainTextString());
					else if(tmpNode instanceof LinkTag) {
						bw.write(((LinkTag) tmpNode).extractLink());
						//System.out.print(((LinkTag) tmpNode).extractLink());
					}
					else if(tmpNode instanceof TagNode) {
						String str = ((TagNode) tmpNode).getTagName();
						if(str.equals("BR"))
							bw.newLine();
							//System.out.println();
					}
					else if(tmpNode instanceof TextNode) {
						String str = tmpNode.getText();
						if(!str.trim().equals(""))
							bw.write(tmpNode.getText());
							//System.out.print(tmpNode.getText());
					}
				}			
			}
			this.getParser().reset();
			
			//解析电影剧情简介
			//System.out.println("剧情简介:");
			NodeList plotList = this.getParser().parse(plot_filter);
			if(plotList.elementAt(0) == null) {
				if(bw != null) {
					bw.close();
				}
				return;
			}
			bw.write("剧情简介:" + NEWLINE);
			NodeList summary = plotList.elementAt(0).getChildren();
			NodeIterator it3 = summary.elements();
			while(it3.hasMoreNodes()) {
				Node tmpNode = (Node) it3.nextNode();
				if(tmpNode instanceof TextNode) {
					String str = tmpNode.getText();
					int i=0;
					while( i < str.length() && Character.isWhitespace(str.charAt(i))){
						i++;
					}
					bw.write(str.substring(i));
					//System.out.print(str.substring(i));
				}
				else if(tmpNode instanceof TagNode) {
					String str = ((TagNode) tmpNode).getTagName();
					if(str.equals("BR"))
						bw.newLine();
						//System.out.println();
				}
			}			
			if(bw != null) {
				bw.close();
			}
		}catch(Exception e) {
			e.printStackTrace();
			System.out.println(this.getInputFilePath()+ ":Something is wrong!!!!!!!!");
		}
	}


内容概要:本文提出了一种基于融合鱼鹰算法和柯西变异的改进麻雀优化算法(OCSSA),用于优化变分模态分解(VMD)的参数,进而结合卷积神经网络(CNN)与双向长短期记忆网络(BiLSTM)构建OCSSA-VMD-CNN-BILSTM模型,实现对轴承故障的高【轴承故障诊断】基于融合鱼鹰和柯西变异的麻雀优化算法OCSSA-VMD-CNN-BILSTM轴承诊断研究【西储大学数据】(Matlab代码实现)精度诊断。研究采用西储大学公开的轴承故障数据集进行实验验证,通过优化VMD的模态数和惩罚因子,有效提升了信号分解的准确性与稳定性,随后利用CNN提取故障特征,BiLSTM捕捉时间序列的深层依赖关系,最终实现故障类型的智能识别。该方法在提升故障诊断精度与鲁棒性方面表现出优越性能。; 适合人群:具备一定信号处理、机器学习基础,从事机械故障诊断、智能运维、工业大数据分析等相关领域的研究生、科研人员及工程技术人员。; 使用场景及目标:①解决传统VMD参数依赖人工经验选取的问题,实现参数自适应优化;②提升复杂工况下滚动轴承早期故障的识别准确率;③为智能制造与预测性维护提供可靠的技术支持。; 阅读建议:建议读者结合Matlab代码实现过程,深入理解OCSSA优化机制、VMD信号分解流程以及CNN-BiLSTM网络架构的设计逻辑,重点关注参数优化与故障分类的联动关系,并可通过更换数据集进一步验证模型泛化能力。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值