nutch1.3集成solr3.4并支持中文

本文介绍了如何在Linux环境下安装Nutch 1.3及Solr 3.4,并实现两者之间的集成。主要内容包括Nutch的基本配置、Solr的中文支持配置及与Nutch的集成步骤。
(一)安装nutch1.3
1.linux环境,分别从nutch、solr官网下载1.3版本和3.4版本压缩包

2.分别解压,假定nutch目录为/nutch1.3,solr目录为/apache-solr-3.4.0

3.进入/nutch-1.3/runtime/local目录,vibin/nutch,设置JDK1.6路径

NUTCH_JAVA_HOME=/usr/local/jdk1.6.0_22(这个地方应该是jdk6的实际安装路径)

4.chmod +x bin/nutch

5.vi conf/nutch-site.xml,增加配置
<property>
 <name>http.agent.name</name>
 <value>My Nutch Spider</value>
</property>
6.mkdir-p urls 用来存放爬行目标站点

7.vi urls/nutch 增加第一个爬行站点
www.sina.com.cn

8.bin/nutchcrawl urls -dir crawl -depth 3 -topN 5
如果爬行无误,证明nutch安装成功,爬行功能正常。

(二)安装solr并集成中文
1.cp /nutch1.3/conf/schema.xml/apache-solr-3.4.0/example/solr/conf/
覆盖solr原始配置文件(原始文件想保留,可以先备份)

2.进入/apache-solr-3.4.0/example目录,vistart.sh
/usr/local/jdk1.6.0_22/bin/java -jarstart.jar&

3.chmod +x start.sh

4.vi solr/conf/schema.xml,增加ik中文分词支持
将旧的配置段
 <fieldTypename="text" class="solr.TextField"
          positionIncrementGap="100">
          <analyzer>
              <tokenizerclass="solr.WhitespaceTokenizerFactory"/>
              <filterclass="solr.StopFilterFactory"
                 ignoreCase="true"words="stopwords.txt"/>
              <filterclass="solr.WordDelimiterFilterFactory"
                 generateWordParts="1"generateNumberParts="1"
                 catenateWords="1" catenateNumbers="1"catenateAll="0"
                 splitOnCaseChange="1"/>
              <filterclass="solr.LowerCaseFilterFactory"/>
              <filterclass="solr.EnglishPorterFilterFactory"
                 protected="protwords.txt"/>
              <filterclass="solr.RemoveDuplicatesTokenFilterFactory"/>
          </analyzer>
       </fieldType>
替换为
 <fieldType name="text"class="solr.TextField">
              <analyzertype="index">
               <tokenizerclass="org.wltea.analyzer.solr.IKTokenizerFactory" isMaxWordLength="false"/>
               <filter class="solr.StopFilterFactory"ignoreCase="true" words="stopwords.txt"enablePositionIncrements="true" />
               <filterclass="solr.LowerCaseFilterFactory"/>
             </analyzer>
              <analyzertype="query">
                <tokenizerclass="org.wltea.analyzer.solr.IKTokenizerFactory"isMaxWordLength="true"/>
                <filterclass="solr.StopFilterFactory" ignoreCase="true"words="stopwords.txt" enablePositionIncrements="true"/>
                <filterclass="solr.SynonymFilterFactory" synonyms="synonyms.txt"ignoreCase="true" expand="true"/>
                <filterclass="solr.LowerCaseFilterFactory"/>
             </analyzer>  
       </fieldType>

5. 此时solr还缺ik的支持包,无法运行,执行./start.sh会有提示

6.进入work目录,一直往里,找到WEB-INF/lib目录,将ik支持包IKAnalyzer3.2.8.jar拷贝到该目录

7.重启solr,执行./start.sh,如果不提示错误,证明solr集成ik启动无误。

8.访问http://your.host.ip/solr/admin出现solr页面,证明solr安装成功。

(三)集成nutch和solr

1.进入nutch目录,执行
./bin/nutch crawl urls -solr http://localhost:8983/solr/ -dir crawl-depth 3 -topN 5 
如不提示错误,则nutch爬行www.sina.com.cn成功,并完成在solr建立索引。

2.访问http://your.host.ip/solr/admin,输入“财经”,如果显示查询结果页,证明整个安装集成大功告成。

转载请注明出处。
【电能质量扰动】基于ML和DWT的电能质量扰动分类方法研究(Matlab实现)内容概要:本文研究了一种基于机器学习(ML)和离散小波变换(DWT)的电能质量扰动分类方法,提供了Matlab实现方案。首先利用DWT对电能质量信号进行多尺度分解,提取信号的时频域特征,有效捕捉电压暂降、暂升、中断、谐波、闪变等常见扰动的关键信息;随后结合机器学习分类器(如SVM、BP神经网络等)对提取的特征进行训练与分类,实现对不同类型扰动的自动识别与准确区分。该方法充分发挥DWT在信号去噪与特征提取方面的优势,结合ML强大的模式识别能力,提升了分类精度与鲁棒性,具有较强的实用价值。; 适合人群:电气工程、自动化、电力系统及其自动化等相关专业的研究生、科研人员及从事电能质量监测与分析的工程技术人员;具备一定的信号处理基础和Matlab编程能力者更佳。; 使用场景及目标:①应用于智能电网中的电能质量在线监测系统,实现扰动类型的自动识别;②作为高校或科研机构在信号处理、模式识别、电力系统分析等课程的教学案例或科研实验平台;③目标是提高电能质量扰动分类的准确性与效率,为后续的电能治理与设备保护提供决策依据。; 阅读建议:建议读者结合Matlab代码深入理解DWT的实现过程与特征提取步骤,重点关注小波基选择、分解层数设定及特征向量构造对分类性能的影响,尝试对比不同机器学习模型的分类效果,以全面掌握该方法的核心技术要点。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值