迅搜在运行过程中,对磁盘非常贪婪: 使用du查看分区占用情况: /dev/sda2 276G 203G 59G 78% /home/slavefs 用了203G 然后终止迅搜,进入磁盘目录,使用du查看: du -h --max-depth=1 /home/slavefs/ 637M /home/slavefs/data 637M /home/slav...
出于性能考虑,索引刷新有一个延迟整合的过程,如果你需要立即刷新就调用: $index->flushIndex(); 或 php Indexer.php --flush -p /var/www/xunsearch/goods.ini
备注,我下载的版本是1.22的 现在的版本还能载入文本文件(txt)么 ,我在调试的过程中发现add_dict() 函数载入xdb文件没有问题,但是载入txt文件就报错,望回答。 备注:老版本的如1.17还有下载么
这样的configure过程一切正常? 何错之有? WARNING 是没有关系的, 直接打 make 即可
通过 [XSSearch] 对象实现各种搜索相关操作。实现使用过程中并不需要自行创建该对象, 而是直接访问 [XS::search] 即可。 ~~~ [php] require '$prefix/sdk/php/lib/XS.php'; $xs = new XS('demo'); $search = $xs->search; // 搜索对象来自 XS 的属性 ~~~ 默...
...供了这么方便的分词工具! 使用中发现,在字典的建立过程中,及php make_xdb_file.php 报了一大堆警告: Notice: Undefined index: tf in C:\xampp\php\xdb\make_xdb_file.php on line 93 Notice: Undefined index: idf in C:\xampp\php\xdb\make_xdb_file.php on line 93 直...
...,现迁移到ubuntu 64位系统,下载安装了最新版scws,安装过程还算顺利。 测试时发现以下怪现象: 本人使用15000个左右的学校名称做分词测试,约1400条记录返回空白,其它则貌似正常,不知何故。 比如:北京大学、中国人民...
... [/quote] 今天又测试了一下,好像要等这个快速添加的过程结束一会儿,才能搜出来,队列数据一直增加到几千,到最后才开始写入
...直接做标签都有不错的效果了 :) 我理解其实就是搜索过程的一个反向 正常搜索就是 一句话 -> 分词 -> 搜索匹配 -> 输出 具体实现上 那匹配标签或者关键字这么做似乎也行 一句话 -> 分词 -> 搜索匹配 -> 前10个结果取样(比如取...