哦,是用tab符分开呀,我还以为用空格分开呢,我又重新生成了一次,看了一下分词效果还不错。 谢谢。
呃,如此看来只能猜想是不是跟php-fpm有点关系,但不合常理:( 您可否转到cli方式下用命令行测试几次看看
...不同,上面说的。 我还有就是刚才我试了,我用我自定义的词生成词典,用scws_set_dict添加我的词典后(词典中的word TF IDF 都很高的,记性我标记为@),但输出(scws_get_tops)的有好多并不是我定义的词语,而且好多还把我定义...
就一条记录怎么会有4M?如果文件 已存在生成是不会覆盖的啊 你描述的并不是很清楚,你用的是PHP的工具还是C的转换工具呢?一个.TXT对应转换成一个.XDB
... centos5 scws 1.1.2 php 以扩展形式安装 . 如果我不显式的定义 $so->add_dict(ini_get("scws.default.fpath") . '/dict.utf8.xdb'); $so->set_rule(ini_get('scws.default.fpath') . '/rules.utf8.ini'); 那么就分词正常. 这个是第一个问题. 第二个问题就是,定...
最长的词16个汉字,250个英文字母。 应该是你的词典做错了,比如字符集不匹配之类。生成词典要严格按照字段区分开,字段之间用区分,这说都有相关的说明,按说明操作应当没有问题。
我是这样测试的. FF浏览器: 先输入: 笔记本 然后搜索,就正常出现结果.然后.我加多一个关键字:不错.也就是 搜索关键字是: 笔记本不错. 这会就出现 get_result() 返回 false 了.
我用IE8在您的网址试了非常多次的强制刷新,MS都是正常的。但用FF确实不正确(而且是一直不正确)。。。 我猜到原因所在了,你提交的是GET方法,FF自动在URL中显示汉字,所以可能导致传输编码出现问题。。。