... header("Content-type: text/html; charset=utf-8"); var_dump(SCWS('中文分词解析,我的个神啊')); //中文分词解析 function SCWS($title) { set_time_limit(0); $data = array("data"=>$title,"respond"=>"json","ignore"=>'yes', "multi"=>3); $data = http_build_query($data); $re = w...
这是分词的策略问题,这种情况可以自定义分词器来补充。。。 将你的词复制到 [url]http://www.xunsearch.com/scws/demo/v4.php[/url] 进行实测,分割结果为: E14188m E14188 14188 14188m 那么搜索以上4个词都是可以搜索到的,至于你从中提取 e...
...能够正常的被php加载上去了。 但是现在有个问题是 无法分词,情况是这样的: 1. 按照统计形式分词,返回结果为空 2. 而按照非统计形式分词,结果是单字,没有词组。 3.回头去查,发现原来安装的另外一台32位的1.1.1版本的分...
...是SCWS-1.2.2 我用自己的词库替换了dict.utf8.xdb,然后尝试分词“朝鲜近日播放的一个纪录片中,发现”,发现“纪录片中”在分词结果中丢失了 Array ( [word] => 朝鲜 [off] => 0 [len] => 6 [idf] => 0 [attr] => @ ) Array ( [word] => 近日 [off] => 6 ...
Hi Hightman, 您好! 非常感谢您做的scws分词和xunsearch系统, 最近我们在做网站的搜寻服务, 考察了coreseek, sphinx-for-chinese 和 xunsearch 这三个系统, 觉得还是 xunsearch 比较适合, 因为词典制作和查询的方式都较另外二者灵活. 在今天做...
词典没有正确放置或设置吧,看看你的 php.ini 中关于 scws.default.fpath 的设置
...用,估计是配置差别导致。经过反复对比,确定和字段的分词策略设置有关。 起初对于分类id这个字段,我认为设置成type=numeric index=full就行,从实验看,需要设置成index=self(默认采用scws分词),这样就达到了目的。 不过还...
使用的是scws-1.2.1 对“有空间”这个句子进行分词,理想的结果应该是“有空 空间” 但实际结果是“有空 间” 即使通过scws_add_dict()添加了自定义的txt字典(里面只包含“空间 11.82 12.38”一行),仍然分不出“空间”这个词。...
...1.2.1) ,php扩展 其一: strpos($w['word'],"5) 参数limit,设置分词数上限,可否不控制上限?参数是什么 其二: set_ignore(bool yes) 参数:true的话,表示忽略标点,但是实测中好像' "这种标点是无法忽略的, 如在我使用中会切出 N...