...sw,但是不知道有xunsearch,当时公司使用的是zend lucene和scsw分词,速度相当相当慢,查询总数5万条左右的记录要2秒以上。现在想换xunsearch试试
HM,您好,我目前使用自定义词库实现分词,但是通过scws_get_top5()方法获取数据的时候(字母+数字大于等于3个的时候也会返回)。求过滤方案。 $sh = scws_open(); scws_set_charset($sh, 'utf8'); scws_set_dict($sh, './dict.txt', SCWS_XDICT_TXT); scws_...
今天旗下的http://www.anetb.com需要一个支持中文分词的搜索页,原drupal的太烂了, 我的做法是:结合xunsearch实现drupal commerce下的中文搜索 测试页:http://www.anetb.com/tsearch/demo/commerce/search.php , 可输入“奶粉”,我的站准备做这...
...现在的问题是想通过XSTokenizerScws来获取指定文本的自定义分词结果。sdk使用了github里最新的版本,词典格式由一楼所示,现在取出来的结果并不包含任何自定义词典的关键词,求解。[/code] [php] $text =
..."23,435,66,6",想要搜索出分类id为6的数据,可以使用自定义分词,用","分隔这样设置字段: [cat_id] index = self tokenizer = split(,) 然后使用字段索引搜索就可以解决问题了; 不过有下面需求的时候我就不知道怎么解决了: 有一个图...
...ype = title tokenizer = full 求指点 [/quote] type=title的貌似分词必须用默认的吧 tokenizer = full 这个去了
分类分词 tokenizer = split(|) 这样的存进文档里,这样可以实现多个分类的 分面查询吗? 之前有篇帖子加 addTerm 或者 以split(|) 分割的2种方法,我试了下,不能解决分面搜索的统计结果! 没办法,又试了下,我结合以split(|) 分...
...ype = title tokenizer = full 求指点 [/quote] type=title的貌似分词必须用默认的吧 tokenizer = full 这个去了 [/quote] 好 我先试试
...cws->add_dict("./dict_extra.txt", SCWS_XDICT_TXT); [/php] 在说说词分词测试: 我的网址:http://sjz.haojishu.com/tools/222.php 官方网址:http://www.ftphp.com/scws/demo/v48.php 同时输入下边的词,大家看看: 石家庄河北师大播音主持培训中心高考...
...ghtman: PHP-SDK: 调整 XSTokenizer 支持在搜索语句中执行自定义分词 * 2011-09-16 hightman: 修正安装脚本 setup.sh 中 'read -e' 的兼容问题