终于OK了 我在UTF-8演示文件第77行,即“$cws->set_charset('utf8');”这一句后面再补上两句(参考GBK版本): $cws->set_rule(ini_get('scws.default.fpath') . '/rules.utf8.ini'); $cws->set_dict(ini_get('scws.default.fpath') . '/dict.utf8.xdb'); 再次运行,分词正确...
http://www.hightman.cn/bbs/showthread.php?tid=712 里面有解释啊
1. 应该可以查到,问题大概出在你的 type:电影 上,是否给字段做了正确的索引? 2. 似乎没什么好办法,如果量小你可以把 ff设置为 芬芳、非凡、风范的同义词,但从你的量看这个方法应该不可行。你可以尝试另外做一个索引...
1. 应该可以查到,问题大概出在你的 type:电影 上,是否给字段做了正确的索引? 2. 似乎没什么好办法,如果量小你可以把 ff设置为 芬芳、非凡、风范的同义词,但从你的量看这个方法应该不可行。你可以尝试另外做一个索引...
楼上你的情况是因为你对API使用不正确, scws_get_result 应该循环调用 while ($words = scws_get_result($sh)) { foreach ($words as $word) { print_r($word); } } 此外, 繁体词库很不完善, 缺词太多而且有一些词也不正确
xunsearch不连接数据库的。 你可以把数据从"txt文件,pdf文件,oracle,mysql“等各类文件中,添加到xunsearch库中。
...因为项目还在线下,几乎无人访问。一般都是重建索引或restart/fastrestart后恢复,隔开一段时间又出故障。 我先使用false测试。