搜索

大约有 14 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.2958秒)

1.RE: addweight

发布时间:2014-12-05 14:12 t By binny_w

非常非常非常感谢hightman,按你的建议修改了代码,实测下来,每条结果的权重值仍然会在比较大的范围内变化(可能是缓存)。

2.RE: 关于documnt & search的问题

发布时间:2012-03-31 09:03 t By 290977824@qq.com

就操作上来看,是看不到数据的,但是数据目录里显示的文件占用磁盘还是挺大的

3.RE: 多个addRange后getLastCount有问题

发布时间:2013-12-19 22:12 t By xilin

[quote='hightman' pid='5447' dateline='1387443918'] addRange 后会影响概率计算,count 会有问题 [/quote] 有什么什么方法能得出相对准确的count呢,数据量小时count没有问题,大的时候差别非常大

4.RE: 在更新索引时,经常出错,麻烦大家看看

更新时间:2011-09-30 11:09 t By jake

谢谢,我用了两台虚拟机安装的,一台出现的比较少,一台碰到大的就一直出现了[hr] http://114.80.193.25/trunkey/index.php?url=www.qq.com您可以试试这个,多刷新几下有时会出现

5.关于词库导入的问题!

更新时间:2010-06-05 15:06 t By huangxyun

您好,我做了一个简易的词库,不想要那么多大的词库,为什么我导出词库重新生成之后会出一大堆错误,在make_xdb_file.php以下两行出错。 if ($v['part']) $flag |= 0x02; $data = pack('ffCa3', $v['tf'], $v['idf'], $flag, $v['attr']); 我的词库是UTF...

6.RE: mysql 其实支持中文全文检索的

发布时间:2010-05-16 09:05 t By hightman

没有什么太大的问题,但必须存一个冗余字段。以前就有建议过一些朋友这么做。 还有,MYISAM内置的全文也只是一个简单的解决方案,最终效果可能也不是非常好,根据以前的测试50万左右的数据用内置的match .. against ... 效果...

7.RE: 疑问?为什么索引大小大约为数据大小的3.5倍

发布时间:2012-03-06 01:03 t By coo

索引肯定比原来的数据要大的,因为要分词 然后存储吧, 一个句子可能被分割好多段

8.RE: mysql 其实支持中文全文检索的

发布时间:2010-05-16 12:05 t By xiaolan

[quote='hightman' pid='3550' dateline='1273972998'] 没有什么太大的问题,但必须存一个冗余字段。以前就有建议过一些朋友这么做。 还有,MYISAM内置的全文也只是一个简单的解决方案,最终效果可能也不是非常好,根据以前的测试50万...

9.初次使用XS,关于平滑重建问题请教!

发布时间:2014-12-08 18:12 t By melody

...行时前端会返回空白,而使用A方法就没事。 3、数据量大的话是不是用A方法比B方法要好?B方法循环应该会很慢吧。 刚接触XS不太懂,特此请教!谢谢!

10.RE: xunsearch服务器一到晚上就死了,重启后又好了,我把日志贴上来

发布时间:2012-11-13 01:11 t By yxlwfds

看来对并发大的支持不好啊。。

12
  • 时间不限
  • 按相关性排序