搜索

大约有 498 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.1917秒)

151.使用getCorrectedQuery进行纠错出现特殊字符

发布时间:2014-05-23 15:05 t By akado

...> string '高å° ' (length=8) ini是选定的utf-8格式,不知道为什么使用纠错后,会出现以下3种增加了特殊字符的返回。求助是什么原因

152.search->setScwsMulti关闭分词无效

发布时间:2014-07-17 17:07 t By jayle

...了。 所以想在某些情况下可以关闭分词功能,输入的是什么就搜索什么。 翻到了这个帖子 http://bbs.xunsearch.com/showthread.php?tid=2141&pid=4025#pid4025 根据回复是设置为0即可,但经测试,设置后仍旧后无效。 希望官方可以解决...

153.RE: Xunsearch 并发占用资源如何计算?

发布时间:2013-08-15 21:08 t By HiLinz

...库大小为8.1G,如果日访问量100万用户,那服务器配置要什么标准呀?对CPU、内存、硬盘I/0 有什么要求?请指教。谢谢。最好给个参考值。

154.关于addrange的问题.........

更新时间:2012-02-27 14:02 t By 鸭梨山大

...//[color=#0000CD]这里打印出是[/color][color=#FF0000]null[/color] 为什么是null呢?这样就查不出东西啦 help~~~:huh::huh::huh: --------------------------------- [num] type=numeric tokenizer = none index = none 这是索引配置文件 求助~~~~ ...

155.关于建立索引的疑问

更新时间:2012-02-24 18:02 t By 鸭梨山大

...也都是一样的汉字[/color] 小弟看文档上说id是唯一的.为什么可以建立两次同样都是一样的汉字做id 还都能被索引,也都能被查询,这是什么原因是不是我哪里弄错了

156.请问一下,怎么才能让词典里有的四字成语分割正确?

发布时间:2013-07-12 17:07 t By zhuaijay

我想请教一下,我用scws分割了一篇文章,里面把一些词典库里收录了的四字成语分割成一个字一个字的了,这是为什么?有没有什么设置方法能让它被正确地分割出来的?谢谢了~

157.不等于或大于小于的问题

发布时间:2013-12-17 20:12 t By skybaby

老大,有没有什么方法可以检索到不等于某个字段值的数据。 比如我有个字段是。 [specialcid] index = self tokenizer = split(,) 里面的内容是:45668,98644,110134,214567 有没有什么方法构造搜索语句是不等于这个字段的值,比如我想检索...

158.RE: Windows7 分词准确率极低

更新时间:2010-12-31 02:12 t By pittece

...$fstat['size'] != $hdr['fsize']) return false就返回了。请问这说明什么问题呢?[hr] 事实上,$hdr['fsize'] = 13245833, 而$fstat['size']就是dict.xdb文件的大小4497408 ,那为什么$hdr['fsize']会等于13245833呢?

159.php5.2.13的scws只能分割出人名

发布时间:2010-05-05 17:05 t By hight

我用的是 "陈凯歌并不是《无极》的唯一著作权人,一部电影的整体版权归电影制片厂所有" 这段话,不知道为什么就只能分割出来陈凯歌,如果是分词没起作用的话就不会分割出陈凯歌的,这到底是为什么呢?麻烦高人帮帮我吧

160.RE: 在更新索引时,经常出错,麻烦大家看看

发布时间:2011-09-30 01:09 t By hightman

...入呢?是否方便复现。 这种情况是发生在导入数据的什么 阶段?刚开始还是导了很久又或是什么情况 。 现现这个情况的时候建议查看一下 tmp/indexd.log 是否有相关的错误日志,以及 tmp/*.rcv, tmp/*.snd 文件的大小。

  • 时间不限
  • 按相关性排序