多谢建议。这个部分要做得精准的话其实是比较尖端的,SCWS分词后有提供一些热门词排序,如果简单归结为标签也是不妥的,我觉得需要有标签库进行匹配和比对。
最长的词16个汉字,250个英文字母。 应该是你的词典做错了,比如字符集不匹配之类。生成词典要严格按照字段区分开,字段之间用区分,这说都有相关的说明,按说明操作应当没有问题。
http://bbs.xunsearch.com/showthread.php?tid=2141&pid=4025#pid4025 我找到了这个帖子,不过好像结果更离谱了。 自定义的直接搜不到了理想的结果了,而数据库是存在完全匹配的。。。
...);} 添加权重索引词 无论是否包含这种词都不影响搜索匹配, 但会参与计算结果权重, 使结果的相关度更高
...的修饰, 再传递给底层的搜索服务器进行处理,然后把匹配的结果返回。具体包括以下步骤: * 构建搜索查询语句 `query`,然后调用 [XSSearch::setQuery] 设定它 * 根据需要设置附加的查询条件:通过 [XSSearch::addWeight] 干扰排名权...
...XT);(注:a.txt)为文本字典,运行无报错,但是无法正确匹配(如:我的a字典就2个词,好纠结啊,纠结死啦,但是当我输入时还是分词为 纠结|死了),求救啊!! 还有帖子1中,字典的问题,生成的字典是因为无法载入而报错...
最近单位有个地址匹配的工作要做,发现你的东西非常高兴,正和我用。 但发现现有的字典不太适合我们做地址的分词,能不能给个办法将文本的转为dict.xdb格式,看到你在论坛中回复提到一个转换程序,但我不知道在哪里下...
调整了跟包一起的 etc/rules.ini etc/rules.utf8.ini etc/rules_cht.utf8.ini ,让规则语法匹配更加准确。 建议同步更新~~
但网址和EMAIL如果这样切,也太粗糙了吧。要全部匹配才能检索到,输入 EMAIL 的前段或网址的一部分均检索不到了。 至于消除 HTML 标签,这不应该是分词的事哦