分类分词 tokenizer = split(|) 这样的存进文档里,这样可以实现多个分类的 分面查询吗? 之前有篇帖子加 addTerm 或者 以split(|) 分割的2种方法,我试了下,不能解决分面搜索的统计结果! 没办法,又试了下,我结合以split(|) 分...
... [title] type = title [tags] type = string index = both tokenizer = split([/[\s,\/]+/]) 搜索语句的写法为: $search->setLimit(10); //设置返回结果最多为 5 条,并跳过前 10 条 $docs = $search->search("tags:公务员考试 AND tags:论文 AND tags:杂志 AND tags:...
如下: 自定义分词字段 b_split_title [b_split_title] type = title tokenizer =coupon $search->setQuery( '(b_split_title:宠物 OR 宠物 ) AND b_city_id:31')->setlimit(1000000)->setFacets('b_tag_id')->search(); 打印: Xapian::Query(((or:(pos=1) AND 宠物:(pos=2) AND and:(pos=3) ...
...吗?如果你这段字是用空格或逗号分隔,那么你可以用 split 这个分词器啊。 搜索的时候搜索任何一个分割后的TAG都可以搜索到。 [/quote] 呵呵,管理员没听明白楼主的意思,他希望xunsearch能提供分词接口,给其他程序使用...
还是不明白! 你把这段文字用scws切割会有问题吗?如果你这段字是用空格或逗号分隔,那么你可以用 split 这个分词器啊。 搜索的时候搜索任何一个分割后的TAG都可以搜索到。
...吗?如果你这段字是用空格或逗号分隔,那么你可以用 split 这个分词器啊。 搜索的时候搜索任何一个分割后的TAG都可以搜索到。 [/quote] 我需要的功能只是分词。和搜索木有关系。考虑另外安装scws了。。。