词库没有正确加载,你检查一下 /usr/local/scws/etc/ 下的 .xdb 的文件属性,默认.tar.bz2 解开有可能是600,建议 chmod a+r /usr/local/scws/etc/*
华硕主板H61-PLUS,想分词结果中包含H61。 通过 [url=http://www.xunsearch.com/scws/demo/v48.php]http://www.xunsearch.com/scws/demo/v48.php[/url] 得到的结果为“华硕/主板/H/61/-/PLUS”。尝试过自定义词库,$prefix/data/项目名称/dict_user.txt 加入H61,但是...
楼上你的情况是因为你对API使用不正确, scws_get_result 应该循环调用 while ($words = scws_get_result($sh)) { foreach ($words as $word) { print_r($word); } } 此外, 繁体词库很不完善, 缺词太多而且有一些词也不正确
...增词库 $cws->set_ignore(true); //var_dump($cws); //添加中文分词 $cws->send_text($a); dict_extra.txt 已经增加了一行:享鑫 1 1 n,但是“享鑫金属”还是只有金属被匹配出来
[quote='admin' pid='2688' dateline='1291049346'] 词库没有正确加载,你检查一下 /usr/local/scws/etc/ 下的 .xdb 的文件属性,默认.tar.bz2 解开有可能是600,建议 chmod a+r /usr/local/scws/etc/* [/quote] 非常感谢,被这个问题折磨了1天,原来是权限问题...
...能够正常的被php加载上去了。 但是现在有个问题是 无法分词,情况是这样的: 1. 按照统计形式分词,返回结果为空 2. 而按照非统计形式分词,结果是单字,没有词组。 3.回头去查,发现原来安装的另外一台32位的1.1.1版本的分...
...纯单词进行检索效果相当好。长句略慢。。。。[/quote] 分词结果: [quote]1 . 全文检索 , 此次 全文 搭配 数据库 进行 。 测试 中 大概 有 45 万 篇文章 , 约 900 万个词 ( 是 分 好 的 词 不是 字 ) 。 检索 效果 还 不错 , 如...
建议支持词库里的词可以是纯英文单词,虽然在分词时英文单词可以自动识别切分开,但在关键词提取和非法词过滤时却无法提取出或过滤掉纯英文单词。 比如:我要从一些商品名中提取一些品牌:adidas nike。。。对商品名分词...
感谢SCWS提供了这么优秀的中文分词库. 我有个问题如下: 文字内容为:"武汉车友会的地盘,听武汉车友的,来这里涂鸦吧" 我希望分词结果为 武汉车友会,武汉车友 ,其他的词都不要.该如何做呢. 传递参数如下: array('data'=>$data, 'igno...
由于词库太大干扰所致,建议可以附加一个小词典(目的是删除这些无用词汇,以下我写出来作参考,把下面的文字存成dict.txt,然后在原有的set_dict之后加上 scws_add_dict(s, 'path/to/this_ad_dict.txt', SCWS_XDICT_TXT); 这样使文本词典生效. ...