看了一下基本上说内置了中文分词 内置中文分词 好处我想应该索引会相对的小一些 但是坏处就是要维护词库 新出词语不用立马根据 所以问一下是否支持一元分词 这样就可以实现类似mysql like方式的搜索了
自己做个扫描程序,以文件名为key,内容为body建索引不就好了? xunsearch 本身并不是完整的搜索引擎,它是提供核心组件并附带一些例子
这个要考虑一些用户没有安装MBSTRING扩展的情况。 像你这样你可以考虑自己拓展一个 Tokenizer 类,然后根据自己需要生成 tokens 就可以了。 二元分词并不是直接分成N长的若干段,而是 ABCD => AB + BC + CD 你的作法会把 ABCD => AB+CD ...
使用xunsearch进行搜索的时候,有的关键字和翻页查询时间最高到11s.我运行的$query都是一些简单基本的语句,请问有什么方法和手段可以来提高查询效率.比如开启缓存模块等等.(ps:服务器都是32g内存 cpu也比较高)
...dateline='1326431112'] 对于字段搜索,内部转换时会自动加上一些括号,所以可能超标了。 [/quote] 那只能缩短搜索语句了呀?有什么其他方案么?老是给你添麻烦,呵呵 ,抱歉那。 [/quote] 呆会发布1.3.0把长度扩大到20...
...索都是通过log分析来处理的但是有一个隐藏的弊端. 比如一些敏感词,如果一个人反复搜索的话,他的搜索记录就会进入log这样下次有人搜索的时候输入自动提示和相关推荐都会出现这种敏感词,有什么方法可以在保证搜索记录正常...
你没发现你的逻辑混乱嘛? 你只要开启 fuzzy 相当于 ”杭州 OR 西湖“就可以了,这样既包含杭州又包含西湖的自然权重会高一些在前面,除非你强制了 setSort ...
我也遇到这个问题,请问solomon解决了没有,怎么解决?[hr] 不是网络问题,这点我可以确定[hr] 你是不是也改源码了,我改动了一些源码,但是跟这个错误丝毫没关系