... 一下队列数就增加1,但是$search->getDbTotal() 仍然是0 所以每次增加数据都不成功,请问一下是什么原因引起的,还是我哪里没设置好?
出于性能考虑,索引刷新有一个延迟整合的过程,如果你需要立即刷新就调用: $index->flushIndex(); 或 php Indexer.php --flush -p /var/www/xunsearch/goods.ini
[quote='hightman' pid='1100' dateline='1347001498'] 是不是你启用了 beginRebuild() 却没有 endRebuild() 关闭它? [/quote] 没使用beginRebuild() ,系统会不会自己在一端时间后,或者发生什么状况后自己启动beginRebuild() ,反正就是增加不进去,...
我运行了一下运行条件检测 php RequiredCheck.php +------------+------------+--------------------------+--------------------------------+ | 项目 | 结果 | 用于 | 备注 | +------------+------------+--------------------------+---...
$index->flushIndex(); 或 php Indexer.php --flush -p /var/www/xunsearch/goods.ini 用过后队列数还是没有改变,索引还是没有增加进去,仿佛就在缓存队列中,然后我就把xs重启,队列数据变成0条了,然后我就$index->add($doc),对列数据又增加成一...
是不是你启用了 beginRebuild() 却没有 endRebuild() 关闭它? [quote='deling007' pid='1091' dateline='1346655726'] $index->flushIndex(); 或 php Indexer.php --flush -p /var/www/xunsearch/goods.ini 用过后队列数还是没有改变,索引还是没有增加进去,仿佛就...
如果我每次都只叠加一点点词语 估计就5-6个是否每次叠加完成都要执行 $xdb->Optimize();函数? 因为执行这个$xdb->Optimize();要等很久... 能不能周期性的优化? 就是新加的差不多数量了比如100个了就手动执行一次$xdb->Optimize();? ...
如果你能长时间用 $scws 对象那就可以一次加载,多次使用。如果每次在不同的脚本中 set_dict 那肯定是每次都加载啊。
...这引发了大量的send操作,当然应用层做了缓冲1024字节,每次超过1024字节时候才发送,有一定改善效果。但是在xs.php中的search则是每次读取一个字段,从而引发每秒钟数万次读取网络数据的io操作