看了一下基本上说内置了中文分词 内置中文分词 好处我想应该索引会相对的小一些 但是坏处就是要维护词库 新出词语不用立马根据 所以问一下是否支持一元分词 这样就可以实现类似mysql like方式的搜索了
...。 像你这样你可以考虑自己拓展一个 Tokenizer 类,然后根据自己需要生成 tokens 就可以了。 二元分词并不是直接分成N长的若干段,而是 ABCD => AB + BC + CD 你的作法会把 ABCD => AB+CD 这样搜索 BC 就搜索不到了。。。
最近项目加了个搜索建议,但是单个字有时候没有建议词返回,于是就按照访问量直接获取了前10条 根据匹配标题,标题切了,spit(|)作为搜索结果返回,这回是有了效果,但是我输入拼音没有了效果,请问这个怎么才可以啊?
哦,那我自定义分词吧,但是单字搜的话,有些还是根据地址搜索的,真心纠结,2的n次幂 -1 的组合,这组合太多了,纠结!谢谢你了[hr] [quote='bigxu' pid='8360' dateline='1405578798'] http://www.xunsearch.com/site/search?q=%E5%8D%95%E5%AD%97+%E5%88%86%...
...歉,这里没有讲清楚,英文,数字本身不需要设置会自动根据词界切割。 这里说的是那些中英混合的特殊词汇,限制了夹带的字母只能1个或2个字符。 比如:我有很多Q币,这里Q币你如果设为词,它可以被切出。 再比如:我有...
[quote='KnightE' pid='334' dateline='1323542477'] 应该尽量通过xs得到id,然后根据id批量从DB/NOSQL取信息,直接从xs取信息不是个好主意。 [/quote] 取信息可以从DB/NOSQL取信息,但是涉及到从XS过滤 就是个问题了
...要过滤的词新增加文本词典,属性设为 ! 即可。或者自己根据词性直接在取得返回值的时候排除它。。 尝试了下,是可以的!!!多谢
清除符号本质上是根据词性来处理的。勾上词性后发现这些被清除的词性都是 un 所以会被清除,这是因为词典的数据不对导致的,之前的繁体词典是一位朋友帮忙整理的,可能有所缺漏和不对。
原来是这样,分库倒是个不错的主意。自己根据条件决定要不要 addDb() 我担心的是通过 value 匹配才导致的慢,比如 addRange() 调用 或 setFacets()
..., 是不是之前的搜索记录没有拿过来, 搜索建议应该是根据搜索的log来的吧 [/quote] 难道真的是吗?我竟然把原来数据库上的传到另外一个服务器上,运行成功了,晕! 谢谢楼上了! 要强制刷新下,呵呵! util/Indexer.php --flush-lo...