tokenizer = full 就是不分词了。但不指定字段时还是会分词,除非你用 XSSearch::addQueryTerm 来构建查询
...5.3的php ,然后再安装xunsearch ,成功后在运行 sdk/php/util/RequiredCheck.php 结果出现提示: /usr/bin/env: php: 没有那个文件或目录 这是怎么回事? [/quote] /usr/local/bin/php 文件不存在吧? 可以做个软件连接过来
来个邪门的方法,把六千常用汉字放进词典,坏处是会给相关性带来干扰 稍微正常的方法,去别的网站收集所有一字歌的汉字,导入,坏处是要记得更新 题外话,nutch默认就是单字索引,但为了单字要牺牲其他,比如最重要的...
加油,有情况最好能复制一下 tmp/search.log 和 tmp/index.log 出错时间前后的日志来参考。
[quote='hightman' pid='2097' dateline='1357272615'] 这个日志说的是超时了,也就是说SDK连接上服务端后,5秒过后还没有收到查询请求,服务端强制关闭了这条连接 [/quote] 嗯,测试外部库可以了。本地lo设备关闭了。
呃,如此看来只能猜想是不是跟php-fpm有点关系,但不合常理:( 您可否转到cli方式下用命令行测试几次看看