为确保服务器性能,采用空闲时写入。但不至于1-2小时,是不是有其它情况。可以尝试: util/Indexer.php --flush
...! 谢谢楼上了! 要强制刷新下,呵呵! util/Indexer.php --flush-log project
flush使用了没用, 而且用--info来查看的时候,队列数据也是129714条, 但是就是少了10条。[hr] 而且我单条导入的是时候, 查看info是这样, 导入进程是 无 状态 数据库名:db 队列数据:2条 导入进程:无
...1-2小时,是不是有其它情况。可以尝试: util/Indexer.php --flush [/quote] 今天又测试了一下,好像要等这个快速添加的过程结束一会儿,才能搜出来,队列数据一直增加到几千,到最后才开始写入
...,就用--fulsh命令,不过报错 [root@zhengmei util]# ./Logger.php --flush /export/home/www/xunsearch/data/products -c gbk [XSException] ../lib/XS.php(819): Missing field of type ID #0 ../lib/XS.php(522): XSFieldScheme->checkValid(true) #1 ../lib/XS.php(296): XS->loadIniFile('/export/home/ww.....
... 原来是搜索日志还没有刷新,可以使用 util/Indexer.php --flush-log dream 强制刷新一下就显示搜索建议了。。。[/color]
...cat search.log httpd rmvb nginx nginx 然后使用 # Logger.php --flush test 来强制更新,提示完成,然后再查看search.log已经中转完了,已经新建了log_db,但是查看hot统计却发现 # Logger.php --hot=total test 1. httpd 16...
... php 缓冲区 问题。我看胃官方的demo文档。发现代码上有 flush () 强行刷新缓冲区。不过伙使用了。效果还是一样。偶尔得偶尔不得。 但。我单独开个php文件。单独使用了 scws的demo代码。就没问题。 恳求大家胡帮助。十分感谢