lucenc-solr-4.9.1



建立D:\lucene\solr4.9.1\home
复制E:\学习\搜索引擎\软件\4.9.1\solr-4.9.1\example\multicore下所有文件进入D:\lucene\solr4.9.1\home




1、solr-4.6.0\example\lib\ext 下所有的jar文件复制到 tomcat的lib目录下
2、solr-4.6.0\example\resources 下的log4j.properties文件复制到 tomcat的lib目录下
3、solr-4.6.0\dist下的solr-4.6.0.war文件复制到 tomcat8\webapps 下,并且启动tomcat
4、删除tomcat8\webapps 下的solr-4.6.0.war文件,此时会有solr-4.6.0的文件夹,然后将其改名为solr, 拷贝到D:\lucene\solr4.9.1\home目录下。


5、C:\tomcat-7.0.39\conf下的server.xml文件中进行如下设置:






<Context path="/solr" docBase="D:\lucene\solr4.9.1\server\solr" reloadable="false">
<Environment name="solr/home" type="java.lang.String" value="D:\lucene\solr4.9.1\home" override="true"/>
</Context>




D:\lucene\solr4.9.1\home\solr.xml打开修改


<solr persistent="false">




  <cores adminPath="/admin/cores" host="${host:}" hostPort="${jetty.port:8983}" hostContext="${hostContext:solr}">
    <core name="core0" instanceDir="core0" />
    <core name="core1" instanceDir="core1" />
    
    <shardHandlerFactory name="shardHandlerFactory" class="HttpShardHandlerFactory">
      <str name="urlScheme">${urlScheme:}</str>
    </shardHandlerFactory>
  </cores>




修改为


<solr persistent="true">


  <cores adminPath="/admin/cores" defaultCoreName="core0">
    <core name="core0" instanceDir="core0" />


    <shardHandlerFactory name="shardHandlerFactory" class="HttpShardHandlerFactory">
      <str name="urlScheme">${urlScheme:}</str>
    </shardHandlerFactory>
  </cores>




solr/dist目录下solr-core.jar  solr-solrj.jar 考入工程,供工程使用.
solr/dist/solr-lib/下所有 jar拷入工程,供工程使用


23.solr4.6索引的相关操作


D:\lucene\solr4.9.1\home\core0\conf\solrconfig.xml

打开文件。加入如下代码


  <!-- realtime get handler, guaranteed to return the latest stored fields 
    of any document, without the need to commit or open a new searcher. The current 
    implementation relies on the updateLog feature being enabled. -->
  <requestHandler name="/get" class="solr.RealTimeGetHandler">
    <lst name="defaults">
      <str name="omitHeader">true</str>
    </lst>
  </requestHandler>  
   <!-- 新加入的-->
  <requestHandler name="/select" class="solr.SearchHandler">
       <lst name="defaults">
            <str name="echoParams">explicit</str>
            <str name="defType">edismax</str>
            <str name="q.alt">*:*</str>
            <str name="rows">10</str>
            <str name="fl">name,content,testik</str>
            <str name="qf">
                    name^11.0 content^3.0
            </str>
       </lst>
  </requestHandler>

   <!-- 新加入的-->

修该如下代码。把大小都加入了个0

  <requestDispatcher handleSelect="true" >
    <requestParsers enableRemoteStreaming="false" multipartUploadLimitInKB="20480" formdataUploadLimitInKB="20480" />
  </requestDispatcher>



schema.xml文件中  ,请查阅文档,弄懂omitNorms  precisionStep positionIncrementGap什么意思。

   <fieldtype name="string"  class="solr.StrField" sortMissingLast="true" omitNorms="true"/>
   <fieldType name="long" class="solr.TrieLongField" precisionStep="0" positionIncrementGap="0"/>



修改如下:

  <types>
  
   <!--IKAnalyzer-->
   <fieldType name="text" class="solr.TextField" autoGeneratePhraseQueries="false">
       <analyzer class="org.wltea.analyzer.lucene.IKAnalyzer"/>                          
    </fieldType>


  
   <fieldtype name="string"  class="solr.StrField" sortMissingLast="true" omitNorms="true"/>
   <fieldType name="long" class="solr.TrieLongField" precisionStep="4" positionIncrementGap="0"/>
   
   <fieldType name="int" class="solr.TrieIntField" precisionStep="4"  positionIncrementGap="0"/>
   <fieldType name="float" class="solr.TrieFloatField"  precisionStep="4"  positionIncrementGap="0"/>
   <fieldType name="double" class="solr.TrieDoubleField"  precisionStep="4"  positionIncrementGap="0"/>
   <fieldType name="date" class="solr.TrieDateField"  precisionStep="4"  positionIncrementGap="0"/>
  


  </types>

 <fields>   
  <!-- general -->
  <field name="id"        type="string"   indexed="true"  stored="true"  multiValued="false" required="true"/>
  <field name="_version_" type="long"     indexed="true"  stored="true"/>
  
  <field name="content"      type="string"   indexed="true"  stored="true"  multiValued="false" /> 
  <field name="name"      type="string"   indexed="true"  stored="true"  multiValued="false" /> 
  <field name="core0"     type="string"   indexed="true"  stored="true"  multiValued="false" /> 
  <field name="testik"      type="text"   indexed="true"  stored="true"  multiValued="false" /> 
  
  
  <!-- name,content-->
  <field name="name_content"      type="string"   indexed="true"  stored="true"  multiValued="true" /> 
  
 </fields>


 <!-- field to use to determine and enforce document uniqueness. -->
 <uniqueKey>id</uniqueKey>


 <!-- field for the QueryParser to use when an explicit fieldname is absent -->
 <defaultSearchField>name_content</defaultSearchField>


 <!-- SolrQueryParser configuration: defaultOperator="AND|OR" -->
 <solrQueryParser defaultOperator="OR"/>
 <!-- multi field-->
 <copyField source="name" dest="name_content" /> 
 <copyField source="content" dest="name_content" /> 




IKAnalyzer2012FF_u1.jar文件考入D:\solr-4.9.1\server\solr\WEB-INF\lib



  <requestHandler name="/select" class="solr.SearchHandler">
       <lst name="defaults">
            <str name="echoParams">explicit</str>
            <str name="defType">edismax</str>
            <str name="q.alt">*:*</str>
            <str name="rows">10</str>
            <str name="fl">name,content,testik</str>
            <str name="qf">
                    name^11.0 content^3.0
            </str>

       </lst>

  </requestHandler>

qf指定搜索字段


SolrQuery query = new SolrQuery(condition);

query.setParam("df", "msg_title,msg_content")

程序中设定的搜索字段优先级大于schema.xml文件中配置的默认搜索字段。<defaultSearchField>name</defaultSearchField>

condition=“name:中国”

若在搜索条件中加入搜索字段,优先级大于solrconfig.xml中配置的<str name="qf">
                    name^11.0 content^3.0
            </str>


condition=“name:中国 OR content:xxx”也可以检索  AND


程序中使用setFields,可以指定显示字段,并且该方式优先级大于solrconfig.xml中配置的fl值  <str name="fl">name,content,testik</str>

String[] filds = {"name","content"};

query.setFields(filds);



query.setHighlight(true)
.setHighlightSimplePre("<span class='lighter'>")
.setHighlightSimplePost("</span>")
.setParam("hl.fl", "msg_title,msg_content")

======上面是3.x高亮字段写法,下面是4.x写法

query.setHighlight(true)
.setHighlightSimplePre("<span class='lighter'>")
.setHighlightSimplePost("</span>")
..setHighlightField("msg_title,msg_content")



//显示的字数
params.setHighlightFragsize(10);

//排序
params.addSort("age", ORDER.desc);


//过滤 搜索后的内容name包含中国的显示出来
// String[] fqs = {"name:中国"};
// params.addFilterQuery(fqs);


代码转载自:https://pan.quark.cn/s/f87b8041184b Language: 中文 欢迎来到戈戈圈! 当你点开这个存储库的时候,你会看到戈戈圈的图标↓ 本图片均在知识共享 署名-相同方式共享 3.0(CC BY-SA 3.0)许可协议下提供,如有授权遵照授权协议使用。 那么恭喜你,当你看到这个图标的时候,就代表着你已经正式成为了一名戈团子啦! 欢迎你来到这个充满爱与希望的大家庭! 「与大家创造更多快乐,与人们一起改变世界。 」 戈戈圈是一个在中国海南省诞生的创作企划,由王戈wg的妹妹于2018年7月14日正式公开。 戈戈圈的创作类型广泛,囊括插画、小说、音乐等各种作品类型。 戈戈圈的目前成员: Contributors 此外,支持戈戈圈及本企划的成员被称为“戈团子”。 “戈团子”一词最初来源于2015年出生的名叫“团子”的大熊猫,也因为一种由糯米包裹着馅料蒸熟而成的食品也名为“团子”,不仅有团圆之意,也蕴涵着团结友爱的象征意义和大家的美好期盼,因此我们最终于2021年初决定命名戈戈圈的粉丝为“戈团子”。 如果你对戈戈圈有兴趣的话,欢迎加入我们吧(σ≧︎▽︎≦︎)σ! 由于王戈wg此前投稿的相关视频并未详细说明本企划的信息,且相关视频的表述极其模糊,我们特此创建这个存储库,以文字的形式向大家介绍戈戈圈。 戈戈圈自2018年7月14日成立至今,一直以来都秉持着包容开放、和谐友善的原则。 我们深知自己的责任和使命,始终尊重社会道德习俗,严格遵循国家法律法规,为维护社会稳定和公共利益做出了积极的贡献。 因此,我们不允许任何人或组织以“戈戈圈”的名义在网络平台或现实中发布不当言论,同时我们也坚决反对过度宣传戈戈圈的行为,包括但不限于与戈戈圈无关的任何...
内容概要:本文详细介绍了一个基于YOLOv8的血细胞智能检测系统全流程开发指南,涵盖从环境搭建、数据准备、模型训练与验证到UI交互系统开发的完整实践过程。项目利用YOLOv8高精度、高速度的优势,实现对白细胞、红细胞和血小板的自动识别与分类,准确率超过93%,单张图像检测仅需0.3秒。通过公开或自建血细胞数据集,结合LabelImg标注工具和Streamlit开发可视化界面,构建了具备图像上传、实时检测、结果统计与异常提示功能的智能系统,并提供了论文撰写与成果展示建议,强化其在医疗场景中的应用价值。; 适合人群:具备一定Python编程与深度学习基础,从事计算机视觉、医疗AI相关研究或项目开发的高校学生、科研人员及工程技术人员,尤其适合需要完成毕业设计或医疗智能化项目实践的开发者。; 使用场景及目标:①应用于医院或检验机构辅助医生进行血涂片快速筛查,提升检测效率与一致性;②作为深度学习在医疗影像领域落地的教学案例,掌握YOLOv8在实际项目中的训练、优化与部署流程;③用于学术论文写作与项目成果展示,理解技术与临床需求的结合方式。; 阅读建议:建议按照“数据→模型→系统→应用”顺序逐步实践,重点理解数据标注规范、模型参数设置与UI集成逻辑,同时结合临床需求不断优化系统功能,如增加报告导出、多类别细粒度分类等扩展模块。
基于蒙特卡洛,copula函数,fuzzy-kmeans获取6个典型场景进行随机优化多类型电动汽车采用分时电价调度,考虑上级电网出力、峰谷差惩罚费用、风光调度、电动汽车负荷调度费用和网损费用内容概要:本文围绕多类型电动汽车在分时电价机制下的优化调度展开研究,采用蒙特卡洛模拟、Copula函数和模糊K-means聚类方法获取6个典型场景,并在此基础上进行随机优化。模型综合考虑了上级电网出力、峰谷差惩罚费用、风光可再生能源调度、电动汽车负荷调度成本以及电网网损费用等多个关键因素,旨在实现电力系统运行的经济性与稳定性。通过Matlab代码实现相关算法,验证所提方法的有效性与实用性。; 适合人群:具备一定电力系统基础知识和Matlab编程能力的研究生、科研人员及从事新能源、智能电网、电动汽车调度相关工作的工程技术人员。; 使用场景及目标:①用于研究大规模电动汽车接入电网后的负荷调控策略;②支持含风光等可再生能源的综合能源系统优化调度;③为制定合理的分时电价政策及降低电网峰谷差提供技术支撑;④适用于学术研究、论文复现与实际项目仿真验证。; 阅读建议:建议读者结合文中涉及的概率建模、聚类分析与优化算法部分,动手运行并调试Matlab代码,深入理解场景生成与随机优化的实现流程,同时可扩展至更多元化的应用场景如V2G、储能协同调度等。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值