测试了一下,在NOT specialcid:XXX 前面有搜索关键词的时候是正常的。。如果前面没搜索关键词的话没有效果。。
您 的PHP版本?是否先运行 util/RequiredCheck.php 测试一下,看上去你的PHP似乎 不支持 __toString()
...还是调用不到啊!![hr] 现在是这样的情况,在本地,我测试了一下,程序没半点问题,能正常分词 我用FTP传到服务器上,却不行了 说明一下:所有文件编码都GBK,但是传到FTP上,用浏览器打开,却成了UTF-8的编码了,显示出...
汗,看来就是因为“\r”问题。 hightman老兄,你是用那个来判断换行的?\r\n ?[hr] 测试了一下windows下你使用的是“\n”,linux下你是不是使用了"\r\n" ? 汗,本地windows,服务器linux........ 继续测试。。。
测试了一下 numeric 超过100万的值 在update之后 数据精度会丢失 原始数据:1283934062 加入索引并检索 获取数据 1.28393e+09 1.28393e+09 从索引中取出来的数据 精度已经丢失 type = numeric index = self tokenizer = full
从结果看应该是 scws_set_dict(s, "/usr/local/etc/dict_chs_gbk.xdb", SCWS_XDICT_MEM); 这句话出了问题, 也就是可能词典不正确. 但这个词典目前测试在64位系统下也是可以正常工作的, 检查一下词典的字节数是不是没有下载完整.
今天又在网站上重新下载了 简体utf8 xdb字典,和make_xdb 等软件,做次操作, xdb->txt 再txt->xdb 就不行了,直接报错! 麻烦版主测试一下,给一个修改字典的方法,谢谢!
可能是你的词被切成了其它不合理的单位吧. 加到special没有用. 你最好测试一下被检索的语句/文本切词后的效果...