用了最新版也不行. 如"冰毒"scws_has_word判断不出来 , 真奇怪 还有什么问题导致的呢?
但是我的服务器上还是用的1.1.0,半年前,自从我用了1.1.0之后,服务器内存溢出非常严重,几乎每天都Apache自动崩溃, 你觉得是1.1.0引起的吗,我确定我自己的代码没有死循环
...库,但好像英文及中英文混合分词都无效。 譬如: $so = scws_new(); $so->set_charset('utf8'); $so->set_dict('words.txt',SCWS_XDICT_TXT); $so->set_ignore(true); $so->send_text("GMhello指导员"); echo ''; while ($tmp = $so->get_result()) { var_dump($tmp); } $so->close(); 在words...
600万数据怎么可能要建2天,肯定用法不当咯。 我们没有做 scws for sphinx 的整合,不知别的地方有没有。
在phpext目录./configure之前做一下 export CFLAGS="-O2 -DZTS=1" 不知为什么会检测到 zts off,而实际上 zts 是 on,或许是编译脚本太旧?
开始一直在取舍,最后敲定了scws 经过部分测试,scws的分词还是比较准确的, 当然还是需要大量的数据测试, 以及一段时间的试运行才会有更好的结果。 就是社区稍显冷清。。呵呵 新项目内部命名为super.maria 。 策划了有一...
呵呵,多谢hightman![hr] 再针对第三个问题问一下: 如果实现二元分词但无但无单字分词的话以下组合中,是不是要去掉SCWS_MULTI_SHORT? SCWS_MULTI_SHORT | SCWS_MULTI_DUALITY | SCWS_MULTI_ZMAIN | SCWS_MULTI_ZALL