我用的是scws[PHP-5.4.x (40KB,VC9,NTS)] 分词模块。其中的代码我都没改。我对“调用 segment 方法执行词汇切割”进行分词,分词结果为“Array ( [0] => 璋 [1] => 冪 [2] => 敤 [3] => segment [4] => 鏂 [5] => 规 [6] => 硶 [7] => 鎵 [8] => ц [9] => [10]...
...情况,在本地,我测试了一下,程序没半点问题,能正常分词 我用FTP传到服务器上,却不行了 说明一下:所有文件编码都GBK,但是传到FTP上,用浏览器打开,却成了UTF-8的编码了,显示出乱码了! 不管怎么去设置,每次打开...
... [pid] type = id [subject] index = both tokenizer =xlen(2) 二元分词只能对英文生效,对中文不生效 同时急于需要一元分词,主要是做黑词筛选用,因为有的时候就要搜索某些一元词,比如 武器 near/2 售,但是不能实现
需要 NEAR 位置信息的话,目前只能用内置的 scws 分词 scws 目前不能自定义词库,你必须把词库转换成 dict.utf8.xdb 一个统一的词库放进 $prefix/etc/ 才可以
锅炉的用法上 No. WordString Attr Weight(times) ------------------------------------------------- 01. 法上 nz 14.14(1) 02. 锅炉 n 5.86(1) 分词也不对的[hr] 下载的rules.ini里没有v+v=10这个东西
我想对打断的英文做分词,utf-8,scws可以用么?应该下载哪个版本呢?PSCWS4 说是速度慢,不推荐使用,而PSCWS23 仅支持GBK字符集
ubuntu13.04是用amd64.iso在虚拟机里安装的 分词几乎都是un 而在另一个32位ubuntu上则正常 字典是完好的的xdb 顺便问下有无txt格式的字典下载,用scws_gen_dict生成不知道行否