现在要导入 7000W 数据 平均每条100个字符以下 发现10个小时才导入 1400W 感觉速度有点慢了 怎么样可以快点?
... db_a/ 近12G db_o/ 近12G log_db/ 30M 这是560万条数据 最终会有2400万条数据 也就是会达到55G左右 硬盘速度是120M/s 12G大小左右xs-compact进程就需要运行8分钟左右完成了 如果数据库达到3亿条数据 这个时间会长的不能...
...况下 还有没有必要自行分库? 最终我打算测试2.7亿条的数据库 差不多是600G的xs数据库大小 自动分库能满足不?[hr] 补充下 http://www.xunsearch.com/doc/php/guide/start.changelog 发现1.1开始自动分库了 这样子的情况下 还有没有必要自行...
...越来越大你的监控方式是什么呢?最好能给出较为准确的数据以便判断。 [/quote][hr] 其实代码只是在文档的例子中添加了一个循环。 [quote='hightman' pid='3438' dateline='1267692528'] 是什么版本呢,新的版本应该是没有内存泄露了。 ...
是什么版本呢,新的版本应该是没有内存泄露了。 越来越大你的监控方式是什么呢?最好能给出较为准确的数据以便判断。
按官方提供的测试数据,索引大小大约为数据大小的3.5倍。 我不是很理解,为什么索引的东西反而比原数据大,而且是3.5倍。 照理说,索引的东西是源数据的精华精简来的,应该小才对?
官方 所提到的 如果您的索引数据库相当大,希望对索引库进行适当的分割,可以自命名新的索引库。 在搜索时可以使用 XSSearch::addDb 进行多库并行搜索。 一般情况下 一个库 多少数据为好呢? 我现在 480W数据 单库 搜索速度非...
...quote='hightman' pid='639' dateline='1331712167'] 那你说的应该是XML数据 源,HTML不好当数据 源吧 [/quote] 呃,H大,我想到的是,Xunsearch既然是出色的全文搜索引擎,那么应该具有的功能是:类似百度或者谷歌的,那么应该优先可以收...