通过文档获取分页的返回数据的时候发现setLimit会少返回一个数据,setlimit(10)的话会只返回9个数据,通过count能够确认确实有>10个数据(大约30条) 有别人遇到这个问题吗?[hr] 如果数据量>=100的时候又能够返回确定的10条数据, 是searchd...
测试了一下 numeric 超过100万的值 在update之后 数据精度会丢失 原始数据:1283934062 加入索引并检索 获取数据 1.28393e+09 1.28393e+09 从索引中取出来的数据 精度已经丢失 type = numeric index = self tokenizer = full
原始数据:1283934062 加入索引并检索 获取数据 1.28393e+09 浮点数是这样没什么好办法
...结果文档保存在 $docs 数组中 $count = $search->count(); // 获取搜索结果的匹配总数估算值 var_dump($docs);
...->logQuery(); } 的代码,在开启了分面功能时,$tmp对象在获取分面数据时被重置了,运行到上面的代码时,大家都没有出错?(php5.2.9)
...目前使用自定义词库实现分词,但是通过scws_get_top5()方法获取数据的时候(字母+数字大于等于3个的时候也会返回)。求过滤方案。 $sh = scws_open(); scws_set_charset($sh, 'utf8'); scws_set_dict($sh, './dict.txt', SCWS_XDICT_TXT); scws_set_rule($sh, './rule...
... 查询分词(自动侦测连接?): $cws->send("我是中国人"); 获取结果 echo $cws->recv(); 设定参数: key=>value binary => (on) autodis => (on|off) ignore_mark => (yes|no) delim => '_|/'... $cws->set("autodis", "yes") 关闭 $cws->clos...
...->logQuery(); } 的代码,在开启了分面功能时,$tmp对象在获取分面数据时被重置了,运行到上面的代码时,大家都没有出错?(php5.2.9) [/quote] en,这是BUG,多谢汇报,修改成 $this->_count = $this->_lastCount; 就可以了,所幸...
...目前使用自定义词库实现分词,但是通过scws_get_top5()方法获取数据的时候(字母+数字大于等于3个的时候也会返回)。求过滤方案。 $sh = scws_open(); scws_set_charset($sh, 'utf8'); scws_set_dict($sh, './dict.txt', SCWS_XDICT_TXT); scws_set_rule($sh, '...
... _tag FROM wenti_nr Where `search`=0 若只用sql进行数据库查询能获取到结果,而用xunsearch执行更新索引时候就提示上面的错误,求高手解决,先谢谢啦!