...木,但搜索塔里木就会找不全数据。 而且,采用自定义分词的方法,好像没有效果。 我修改了dict_user.txt,其内容为: 塔里木 12.07 20.38 ns 然后重建索引,重启服务,但搜索结果依旧。 好像没有起作用。 可以到 http://www.heiheda...
http://bbs.xunsearch.com/showthread.php?tid=2141&pid=4025#pid4025 我找到了这个帖子,不过好像结果更离谱了。 自定义的直接搜不到了理想的结果了,而数据库是存在完全匹配的。。。
...是SCWS-1.2.2 我用自己的词库替换了dict.utf8.xdb,然后尝试分词“朝鲜近日播放的一个纪录片中,发现”,发现“纪录片中”在分词结果中丢失了 Array ( [word] => 朝鲜 [off] => 0 [len] => 6 [idf] => 0 [attr] => @ ) Array ( [word] => 近日 [off] => 6 ...
...库,(测试用的,只放2个词在词库), 然后对这句话进行分词“我爱喝南瓜汤,番茄汤”进行分词, 希望得到结果 我爱喝(未被分词) 南瓜汤(分词OK) , 番茄汤(分词OK) 可是结果什么都没显示。 $so->set_dict("d:\test.x...
使用的是scws-1.2.1 对“有空间”这个句子进行分词,理想的结果应该是“有空 空间” 但实际结果是“有空 间” 即使通过scws_add_dict()添加了自定义的txt字典(里面只包含“空间 11.82 12.38”一行),仍然分不出“空间”这个词。...
不能正确分词,测试代码在 Windows php5 下运行正常 纠结问题所在 原话:“喜讯:谷歌中国宣布将关闭两大服务 终止与天涯合作” 分词结果:“谷歌中 宣布 关闭两” Windows 下分词就是正确的 分词结果:“喜讯 谷歌 中国 宣布 ...
我下了个PSCWS23 代码并成功安装,结果分词只对汉字有效。我用的其中的pscws3分词。 比如我输入“2009年” 分词结果却为“年”。也就是说,它只输出了汉字部分 请问这该怎么解决
...能够正常的被php加载上去了。 但是现在有个问题是 无法分词,情况是这样的: 1. 按照统计形式分词,返回结果为空 2. 而按照非统计形式分词,结果是单字,没有词组。 3.回头去查,发现原来安装的另外一台32位的1.1.1版本的分...
这是正常情况,分词的机制决定的。通常讲,搜索单字是不有意义的,一定有这个需求的话需要自己修改分词引擎让它支持拆为单字。 具体看 XSTokenizerScws 这节,可以自行扩展然后通过 setMulti 方法索引单字
...阳”无法查到相关信息。进到数据库一看。原来以前保存分词结果的时候。带有“小沈阳”的词句都被分成了这个模式: “小沈阳若在美国”:“小沈 阳若 在 美国”。而单独输入“小沈阳"作为关键字的时候,分词结果却是:...