1. 应该可以查到,问题大概出在你的 type:电影 上,是否给字段做了正确的索引? 2. 似乎没什么好办法,如果量小你可以把 ff设置为 芬芳、非凡、风范的同义词,但从你的量看这个方法应该不可行。你可以尝试另外做一个索引...
1. 应该可以查到,问题大概出在你的 type:电影 上,是否给字段做了正确的索引? 2. 似乎没什么好办法,如果量小你可以把 ff设置为 芬芳、非凡、风范的同义词,但从你的量看这个方法应该不可行。你可以尝试另外做一个索引...
楼上你的情况是因为你对API使用不正确, scws_get_result 应该循环调用 while ($words = scws_get_result($sh)) { foreach ($words as $word) { print_r($word); } } 此外, 繁体词库很不完善, 缺词太多而且有一些词也不正确
en这样解决也比较简单可靠,又避免把scws装到/usr/local中去混杂在一起
还是不明白! 你把这段文字用scws切割会有问题吗?如果你这段字是用空格或逗号分隔,那么你可以用 split 这个分词器啊。 搜索的时候搜索任何一个分割后的TAG都可以搜索到。
如果是xunsearch搜索日志你不需要手动导入,它已经自动处理过了。 外部来的可以导,手册很明确指出搜索日志用于拼音建议、相关搜索。至于你所谓的精准度,似乎毫无关系