搜索

大约有 1,288 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.0991秒)

951.RE: 为什么我用update , getDbTotal 的记录数还是越来越多?

发布时间:2014-04-11 10:04 t By hightman

应该是你用了 XSIndex::add 导致的?

952.RE: 拼音搜索时遇到的问题

发布时间:2012-12-29 17:12 t By hightman

1. 应该可以查到,问题大概出在你的 type:电影 上,是否给字段做了正确的索引? 2. 似乎没什么好办法,如果量小你可以把 ff设置为 芬芳、非凡、风范的同义词,但从你的量看这个方法应该不可行。你可以尝试另外做一个索引...

953.RE: 拼音搜索时遇到的问题

发布时间:2012-12-29 17:12 t By hightman

1. 应该可以查到,问题大概出在你的 type:电影 上,是否给字段做了正确的索引? 2. 似乎没什么好办法,如果量小你可以把 ff设置为 芬芳、非凡、风范的同义词,但从你的量看这个方法应该不可行。你可以尝试另外做一个索引...

954.RE: 第四版遇到()和中英文混合分词的问题。

发布时间:2009-06-14 21:06 t By hightman

楼上你的情况是因为你对API使用不正确, scws_get_result 应该循环调用 while ($words = scws_get_result($sh)) { foreach ($words as $word) { print_r($word); } } 此外, 繁体词库很不完善, 缺词太多而且有一些词也不正确

955.三个问题需要求教

发布时间:2011-01-17 11:01 t By nftw

... “家+電+節+能”。 总之 scws用着很顺手,感谢hightman.

956.RE: bug-搜索出来的最后一条记录显示的标题是错误的-求解

发布时间:2012-08-10 16:08 t By hightman

是不是你早先存在的数据。先 $index->clean();

957.一个疑问……

发布时间:2007-11-28 22:11 t By 逍遥小妖

...未知的不可分词要素干扰,导致无法正确分词。 请教Hightman究竟该如何完成这一功能……

958.RE: FreeBSD编译scws提示ld cannot find lscws解决办法

发布时间:2010-10-08 08:10 t By hightman

en这样解决也比较简单可靠,又避免把scws装到/usr/local中去混杂在一起

959.RE: 我想使用系统自动的分词功能,可是只看到有接口

发布时间:2011-11-25 12:11 t By hightman

还是不明白! 你把这段文字用scws切割会有问题吗?如果你这段字是用空格或逗号分隔,那么你可以用 split 这个分词器啊。 搜索的时候搜索任何一个分割后的TAG都可以搜索到。

960.RE: 我有10多万条用户搜索记录,导入到日志中,有什么用

发布时间:2012-02-20 16:02 t By hightman

如果是xunsearch搜索日志你不需要手动导入,它已经自动处理过了。 外部来的可以导,手册很明确指出搜索日志用于拼音建议、相关搜索。至于你所谓的精准度,似乎毫无关系

  • 时间不限
  • 按相关性排序