在用xunsearch做项目的时候,遇到这样的一个问题,当搜索某一词语,需要统计在有哪些类别。针对这个就需要用到mysql里面的group by了 不知道xunsearch 现在是否有这个功能,或者未来是否能支持这个功能[hr] 晕死,经过查看api后发...
看了一下基本上说内置了中文分词 内置中文分词 好处我想应该索引会相对的小一些 但是坏处就是要维护词库 新出词语不用立马根据 所以问一下是否支持一元分词 这样就可以实现类似mysql like方式的搜索了
[quote='bigxu' pid='920' dateline='1339722807'] 只要导入xunsearch数据库,所有搜索都支持 [/quote] 具体代码能share一下么?
如果你了解scws就会知道它其实对散字也是自动二元处理。 你所谓的一元是一个字一个词?你也可以拓展 XSTokenizer 自己实现分词
一直用的sphinx,想体验一下xunsearch。但是不解,xunsearch是否支持时下很火的lbs搜索呢? sphinx配置: [code] sql_query_range = SELECT IFNULL(MIN(`id`), 1), IFNULL(MAX(`id`), 1) FROM `fandian` sql_query = SELECT `id`,`type`, `name`, RADIANS(`lat`) AS `latitude`, RAD...
个人认为第一次检索吃硬盘资源 后面的都是靠内存HZ频率 而不是内存大小 LZ有没试过一秒内大量并发时(检索不同关键词)%wa特别高?CPU的话 我还不清楚XS是否多线程 但是看到默认是有三个进程 不知是否利用多进程来模拟多线...