[s]呵呵,观察了一天,“document xxxx not found”的问题看不到了[/s] 额,不是,还是有这个错误在log中:(
你默认的字符集是 gbk吧?请在 add_dict 前先调用 $so->set_charset('utf8'); 或者直接用 $so = scws_new('utf8');
感谢 七夜 兄的测试和指出,现在已经作了修正。原因是对输入的编码做了二次校正。 改法参见 GIT 仓库,因为输入的数据已经统一转成 UTF-8 了,所以搜索服务端应统一使用 UTF-8 即可。 [url]https://github.com/hightman/xunsearch/commit...
...果还是会出现包含这些词性的。 这。。。似乎完全有BUG,稍后查。 [/quote] 感谢 magike 网友再度来信指出,目前已经在CVS中作了修正,预计在下一版本同时发布。 看了一下确实是宏定义的问题 diff -c -r1.28 -r1.29 *** libscws/...
[quote='KnightE' pid='449' dateline='1326794968'] [s]呵呵,观察了一天,“document xxxx not found”的问题看不到了[/s] 额,不是,还是有这个错误在log中:( [/quote] 那还会有错误吗?是search还是index的log?
自定义词库有些词无效。。 有的是3个以上的,有些是4个以上的,不定。。 ubuntu linux环境,自编译安装 比如顶置的例子我这里是这样的 ; dict_extra.txt 我是新增词 2.0 再试一个 1.0 1.0 @ ; 以下词为删除项 删除 ...
这个原因还是出自于 PDO 的字符集修正语句,应该统写为没有带引号的 utf8 兼容性最高。 如果您在使用 INDEXER 时一直有乱码现象,请按以下方法修改一下 $prefix/sdk/php/util/XSDataSource.class.php 详见补丁文件: [url]https://github.co...
我安装了scws 的php扩展。 然后使用。使用过程中个问题。 get_tops 这个方法。10次有7次不返回分词数组。 经常为空数组。 但强制刷新后又能正常的返回数组了。我以为椒 php 缓冲区 问题。我看胃官方的demo文档。发现代码上有 f...
感谢关注和指出,关于汇露确实存在,修正PATCH文件如下,由于此处泄露量比较小导致的影响也比较轻,所以暂不强制提供升级版本。 [code] diff -c -r1.20 scws.c *** scws.c 19 Apr 2011 08:00:23 -0000 1.20 --- scws.c 7 May 2011 14:57:49 -...
这个问题最后我试验了.发现.是由于 词库名字错误.. dict.utf8.xdb 的而我市 dict.xdb 这个就不对了.除非你是gbk 的. 还有就是..我在代码上显式的加载词库.所以也导致词库加载失败 ...十分奇怪.. $so->add_dict(ini_get("scws.default.fpath"...