搜索

大约有 299 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.0047秒)

61.RE: 如何去除无用的词?

发布时间:2013-05-02 12:05 t By darena

我用UTF8, 也是"我是中国人", 出来的正好只有"中国人"一个词

62.RE: 如何去除无用的词?

发布时间:2013-05-03 15:05 t By longjianghu

有没有什么工具可以推荐下?

63.大数据导入如何加快速度?

发布时间:2013-05-06 14:05 t By 2bcoder

现在要导入 7000W 数据 平均每条100个字符以下 发现10个小时才导入 1400W 感觉速度有点慢了 怎么样可以快点?

64.RE: 大数据导入如何加快速度?

发布时间:2013-05-07 09:05 t By hightman

你启用 XSIndex::openBuffer 了吗,把这个开启一下会快很多很多

65.RE: 自定义词库如何使用?

发布时间:2013-05-13 15:05 t By hightman

这个是内置的一个复合分词功能。你要关闭这个功能可以在搜索时: $xs->search->setScwsMulti(0);

66.如何使用Node.js集成迅搜?

发布时间:2013-06-11 17:06 t By goyoungco

如题,有没有解决方案?

67.如何优化xunsearch

发布时间:2013-06-19 11:06 t By tendyming

不知道有没有用户知道怎么优化xunsearch, 发现多用户搜索量大时,会导致 cpu 资源消耗非常严重,严重影响服务器(vps)的性能。各位有什么好办法没有?

68.RE: 如何优化xunsearch

更新时间:2013-06-20 09:06 t By hightman

也许你碰到 1.4.7-dev 的BUG了,赶紧更新吧。正常来说 xunsearch 压力不大

69.RE: 如何优化xunsearch

发布时间:2013-06-20 14:06 t By tendyming

hi hightman, 我现在是xunsearch1.4.6, 您的意思是升级到1.4.7-dev? 目前,在高访问时,这种情形是频繁出现的。

70.RE: 如何优化xunsearch

发布时间:2013-07-29 12:07 t By gilroy

研究了一下源代码,最终功夫不负有心人,成功的避过了中英文混合,使用字典中的词语分词,我用的是 在调整每次读取数据的大小和缓冲区大小时有不同的情况

  • 时间不限
  • 按相关性排序