搜索

大约有 100 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.0061秒)

21.RE: 二元分词问题

发布时间:2011-11-16 11:11 t By hightman

...kenizer 类,然后根据自己需要生成 tokens 就可以了。 二元分词并不是直接分成N长的若干段,而是 ABCD => AB + BC + CD 你的作法会把 ABCD => AB+CD 这样搜索 BC 就搜索不到了。。。

22.RE: small50,big161这种词汇搜索不到

发布时间:2013-06-18 11:06 t By hightman

@FIXME: 先记录一下,这是因为你既是自定义分词器又指定了 non_bool 参与权重计算。 那么 SDK 端先按自定义分词器拆分重新组合成查询语句,发送到 xapian 解析器时由于不是 boolean prefix,因此它又会调用内部切词法再次切割。 简...

23.search->setScwsMulti关闭分词无效

发布时间:2014-07-17 17:07 t By jayle

数据量太大了,导致分词搜索结果数太多,反而不精准了。 所以想在某些情况下可以关闭分词功能,输入的是什么就搜索什么。 翻到了这个帖子 http://bbs.xunsearch.com/showthread.php?tid=2141&pid=4025#pid4025 根据回复是设置为0即可,...

24.RE: 建议用户能设置数字不分词

更新时间:2013-06-18 14:06 t By hightman

这是分词的策略问题,这种情况可以自定义分词器来补充。。。 将你的词复制到 [url]http://www.xunsearch.com/scws/demo/v4.php[/url] 进行实测,分割结果为: E14188m E14188 14188 14188m 那么搜索以上4个词都是可以搜索到的,至于你从中提取 e...

25.xunsearch-1.3.1 (基于xapian/scws/php的开源中文全文搜索,新增分词SDK修正大量小BUG)

发布时间:2012-04-06 10:04 t By hightman

...发布 1.3.1 正式版,在 SDK 层面加入了许多用户诉求的 scws 分词接口,并修正了许多小 BUG,强烈建议所有用户升级到这个最新稳定版本。 [b]主要更新如下:[/b] 1. 增加基于搜索服务端的 XSTokenizerScws 便于直接使用 SCWS 的分词功...

26.开发规范

...,请自行编写 代码和定义时不要也以 `XS` 开头。 自定义分词 --------- Xunsearch 在项目配置时支持针对某些字段自定义分词。每个自定义分词功能单独使用一个 文件名,命名为 `XSTokenizerXyz.class.php`,其中 `Xyz` 是您自己的分词名称...

27.塔里木河的分词问题

发布时间:2013-06-08 12:06 t By wlx

测试代码如下,导致搜索:塔里木,会搜索不到结果。 require_once '/home/wlx/xunsearch/sdk/php/lib/XS.php'; $xs=new XS('westdc'); $tokenizer = new XSTokenizerScws; $text = '塔里木河下游浅层地下水变化的生态效应及生态系统健康评价研究项目的...

28.RE: [HELP]xunsearch安装好了,搜索没有结果集。。。

发布时间:2011-10-26 15:10 t By vist2007

非常感谢...也在刚开始学习xunsearch xunsearch采用 scws 分词 xunsearch好像集成了 scws 对于分词 xunsearch 可以通过 XSTokenizer 扩展 我想问的是 既然是 集成scws 那么 1.有没有提供scws的api接口,实现短语分词功能 2.是否可以对scws自定义中文...

29.split无效

更新时间:2014-07-23 11:07 t By q398044828

index=self时,split分词器会执行,但是index=mixed时,split分词器就不会执行 这是怎么回事? 这是我字段内容 1=2&3=1&4=3-------------- 这是字段配置 [userinfo] tokenizer = split(&) type = string index = mixed 搜索1=2 分词器不执行,搜索userinfo:1=2 分词器才会...

30.split无效

更新时间:2014-07-23 11:07 t By q398044828

index=self时,split分词器会执行,但是index=mixed时,split分词器就不会执行 这是怎么回事? 这是我字段内容 1=2&3=1&4=3-------------- 这是字段配置 [userinfo] tokenizer = split(&) type = string index = mixed 搜索1=2 分词器不执行,搜索userinfo:1=2 分词器才会...

  • 时间不限
  • 按相关性排序