[quote='hpxl' pid='116' dateline='1319506745'] 500万条数据可以分段来读取,比如每次10000条,就不会出现上面的php错误了。判断是不是某条数据是不是已经存在了,可以根据主键来判断是不是已存在,存在的跳过就可以了。例如: [php]$qu...
...。参见以下代码: ~~~ [php] // 表示先以 chrono 正序、再以 pid 逆序(pid 是字符串并不是数值所以 12 会排在 3 之后) $sorts = array('chrono' => true, 'pid' => false); // 如果直接把字段名作为数组的值,默认对该字段采用逆序,因此以上用法和...
[quote='hightman' pid='7090' dateline='1319383230'] 什么方式运行的? 是不是词典的原因啊,用了自定义吗 [/quote] linux Centos5。scws.1.1.8版的。 还没用上自定义的词库。 第一次基本大于0.1秒以上。就很短的几个词也是这么慢。 提交同样...
...w.xunsearch.com/scws/ [3]: http://bbs.xunsearch.com/showthread.php?tid=749&pid=1556 $Id$
[quote='kaikai' pid='8405' dateline='1409467664'] 在使用/demo/search.php 搜索的时候,出现的。权限需要怎么解决? 错误:[XSException] ../../../../usr/local/xunsearch/sdk/php/lib/XS.php(2481): Permission denied(C#13, localhost:8384) [/quote] 原因是防火墙的问题。...
...地的 `8383、8384` 端口并使用 UTF-8 编码,包含四个字段:pid,subject,message,chrono 。 填充索引数据 ----------- 出于测试方便,我们采用 `csv` 格式来写入索引数据,请先按以下方式操: ~~~ cd $prefix/sdk/php util/Indexer.php --source=csv --c...
... beginRebuild() 却没有 endRebuild() 关闭它? [quote='deling007' pid='1091' dateline='1346655726'] $index->flushIndex(); 或 php Indexer.php --flush -p /var/www/xunsearch/goods.ini 用过后队列数还是没有改变,索引还是没有增加进去,仿佛就在缓存队列中,...
...ODE:514) 2012-05-22 16:17:04 ~master[29076] child process worker[3] exit (PID:21044, STATUS:-2) 2012-05-22 16:17:04 ~master[29076] succesful to spawn child worker[3] process (PID:21054) 2012-05-22 16:17:04 worker3[21054] I came, happy to meet you 2012-05-22 16:17:04 worker3[21054] init the threa...
..... no checking for inline... inline checking for off_t... yes checking for pid_t... yes checking for size_t... yes checking size of off_t... 8 checking for error_at_line... yes checking vfork.h usability... no checking vfork.h presence... no checking for vfork.h... no checking for fork... yes checki...
...ect.default_charset = GBK ;server.index = 8383 ;server.search = 8384 [pid] type = id [subject] type = title [message] type = body [dateline] type = numeric [author] index = both [authorid] [tid] index = self tokenizer = full [fid] index = self tokenizer = full [...