搜索

大约有 70 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.0037秒)

1.RE: 怎么搜索2个project???

发布时间:2012-03-30 10:03 t By hightman

建议不要分开。分开的话如果结构不同,你硬合在一起也不好看啊。 如果同结构只是分库索引,则调用 XSSearch::addDb 即可

2.RE:1234

发布时间:2007-12-30 15:12 t By dos2000

成功了,不用重新编译php,只要编译后获得scws.so即可,然后在php.ini里面写上正确的路径[z=maozedong]搞定啦[/z]

3.RE: 分词不对

发布时间:2010-04-26 13:04 t By hightman

多谢汇报,根据词典机械分词存在一定的误分率。 因为该词典从互联网信息为主要语料进行取值,故可能存在一些错误,只要将词典中的 年高 词频调低即可。 若不方便改词典可以加一个文本词典,并将 年高 词频减低。

4.RE: 分词不对

发布时间:2010-04-26 16:04 t By hightman

一个快速解决办法在 rules.ini 及 rules.utf8.ini 的 v + v = 10 之后添加以下一行 q + vn = 10 即可

5.RE: Overflow bug

发布时间:2010-12-30 11:12 t By hovea

注释这行即可解决

6.RE: 按字段搜索排序

发布时间:2013-06-07 13:06 t By hightman

INI加上 non_bool =yes 然后搜索 example_attr:jianyue,baise 即可

7.RE: 关于Limit 100的解决方案

发布时间:2013-09-13 13:09 t By hightman

呵,不用这么麻烦,可以在服务器上直接解压 packages/xunsearch-1.4.7.tar.bz2 然后,修改、编译即可

8.RE: 三个问题需要求教

发布时间:2011-01-18 21:01 t By hightman

只要 SCWS_MULTI_DUALITY 即可了。 SHORT 是指把“中国人”再细切为“中国”+“人” ZMAIN 是把其中的主要文字都切出来,比如“中国人”在其它切法的基础上再切出“中”+“国”+“人” ZALL 则所有文字,ZMAIN只会切出包含在词典中...

9.RE: 集成包怎么用自定义词库?

发布时间:2011-09-20 15:09 t By hightman

词库在 $prefix/etc/dict.utf8.xdb 您用制作好的 scws 词库支替换它即可,词库生成办法要看看 scws 的帮助,此外字符集必须是 UTF-8

10.分词问题,不能分出单个字

更新时间:2013-01-07 15:01 t By rocl

...复: 建议把这些要过滤的词新增加文本词典,属性设为 ! 即可。或者自己根据词性直接在取得返回值的时候排除它。。 尝试了下,是可以的!!!多谢

  • 时间不限
  • 按相关性排序