在使用scws分词的时候,如果输入40多个“卡”字,最后分出来的那个词少了一个字节,就是说在utf8下原本3字节的一个“卡”字,变成了两个字节,形成了一个乱码。在线测试也会出现这种情况,大家怎么解决啊???
[quote='tendyming' pid='4248' dateline='1371710729'] hi hightman, 我现在是xunsearch1.4.6, 您的意思是升级到1.4.7-dev? 目前,在高访问时,这种情形是频繁出现的。 [/quote] 升级吧。可能早期的memory-cache有一点点问题
...一类是一个词的也能搜得到 千万 千年 千* 我搜索 那 出现的 是不是完整词的 比如等到胜利那一天,都市那点事,世界那麽大,帕那索斯博士的奇幻秀。。。可是我想搜的 “那些年,我们一起追的女孩”确没有出来,请管理...
...log这样下次有人搜索的时候输入自动提示和相关推荐都会出现这种敏感词,有什么方法可以在保证搜索记录正常的条件下,在自动完成或者推荐处理来屏蔽这些敏感词的呢
可否说一下是怎么调试的,第2个方式可能是编译器优先级的问题? 希望可以准确复现 php_scws.dll 在WIN32平台下加载TXT会出现问题吗?