我遇到的问题和你应该一样,我词典里有 内衣和保暖内衣,当我对句子 保暖内衣进行分词的时候,确只分出来 保暖内衣,而丢失了内衣词。请问,有没有人知道怎么解决,在线等待!!
比如我要搜a4纸,但是实际上我的意思是要出a4复印纸,问题是基词的分割是a4与纸,指定同义词的时候就会无效,谁有更好的解决方案? 我的方案是过滤这个关键字,用setQuery的or语法查出来
[quote='tendyming' pid='4248' dateline='1371710729'] hi hightman, 我现在是xunsearch1.4.6, 您的意思是升级到1.4.7-dev? 目前,在高访问时,这种情形是频繁出现的。 [/quote] 升级吧。可能早期的memory-cache有一点点问题
规则倒是可以匹配,rules.utf8.ini没有问题,但dict.utf8.xdb怎么也转换不过来 版主可有什么办法?
我已经排查了 nginx 和 php 等所有可能的cache 。真的没有了 就是死活不更新。 Hm 真的不行,那个字典 完全看不出啥问题
通常英文是不需要分词的,但很多时候词性是需要的,比如nike,dior这类品牌英文。 目前默认词性都是en,有什么办法可否自定义词典来改变他的词性。 还有个问题,就是纯数字的词性为什么是en呢,不是m? 望赐教。
...count能够确认确实有>10个数据(大约30条) 有别人遇到这个问题吗?[hr] 如果数据量>=100的时候又能够返回确定的10条数据, 是searchd的什么原因导致的吗?