...成。服务重启一下即可。 注意: 如果使用了 rebuild 重建索引,一定要完成,否则就会卡在那里。 建议大家测试没有问题的情况下,使用后台执行的方式进行 rebuild 重建索引。
...,http://www.xunsearch.com/doc/php/guide/start.demo 在执行 2. 填充索引数据□ 中的 : util/Indexer.php --source=csv --clean demo 出现以下错误: [root@localhost php]# util/Indexer.php --source=csv --clean demo Object id #2 #0 lib/XS.php(367): xs_error_handler(8, 'Uninitia...
...g.goods_id = ga.goods_id where g.is_on_sale = 1" --project=fp 开始重建索引 ... 初始化数据源 ... mysql://root:@localhost/shop 开始批量导入数据 (请直接输入数据) ... 完成索引导入:成功 16 条,失败 0 条 完成重建索引 ... [root@FPDev util]# php Indexer...
...CPU还不少~ 我使用命令将几百万数据导入以后,提示完成索引导入,但是查看系统top的时候 xs-import进程一直占着很大的cpu,并且data文件夹里的文件大小也一直在变化,是不是虽然索引导入完成,还有一些其他的工作在执行?
--stop-rebuild 后要等一段时间让服务器调整过来。 --rebuild 不成功就重启服务器的话,文件系统就停留在 db.re 没用了,但可以正常进行再次重建或清空 所以使用这个要小心,确保 rebuild 正常完成不要随便中断啊
重启一下服务 端吧,应该是直接 rebuild 没有完成。 bin/xs-ctl.sh restart
[quote='hightman' pid='184' dateline='1320990561'] 重启一下服务 端吧,应该是直接 rebuild 没有完成。 bin/xs-ctl.sh restart [/quote] 重新启动服务试过,后来服务器也重启过了。但一直是这个错误,估计是和我删除了部分临时文件有关系?
mydb/ db/ 这个80M db_a/ 近12G db_o/ 近12G log_db/ 30M 这是560万条数据 最终会有2400万条数据 也就是会达到55G左右 硬盘速度是120M/s 12G大小左右xs-compact进程就需要运行8分钟左右完成了 如果数据库达到3亿...
...p on line 207 开始批量导入数据 (请直接输入数据) ... 完成索引导入:成功 0 条,失败 0 条 刷新索引提交 ...
建立索引 只有目录 目录下没有文件 咋回事呢 /var/xunsearch/sdk/php/util/Indexer.php --source=mysql://root:root@192.168.1.700/test --sql="SELECT id, uid FROM test" --project="/var/xunsearch/sdk/php/app/person.ini" 开始批量导入数据 (请直接输入数据) ... 完成索引导...