如果只要文章中有Linux出现就算是Linux相关文章的话,其实是不需要分词了,直接用全文搜索Linux就好了。 只是SCWS目前看前来它的自定义词典不支持超过3个字,如果可以的话,可以通过自定义“Linux优化”来指定分词
因为我的项目是电商网站,所以我自定义了一个词库,把我自己的品牌、商品类目名字给加进去了。 我希望是这样的搜索结果,比如搜索“迪卡侬蓝色货品”: 现在是这样的: [code]Xapian::Query(((迪卡侬:(pos=1) SYNONYM (迪卡:(po...
问题是系统在使用自定义词库的时候,添加的词能不能算是基词?是否使用同义词的时候可以进行关联? 就目前的情况是添加了自定义词之后,如果这个词不算是基词,关联的同义词就无效、、、、
....php[/url] 得到的结果为“华硕/主板/H/61/-/PLUS”。尝试过自定义词库,$prefix/data/项目名称/dict_user.txt 加入H61,但是不起作用,中文词汇是可以的。如果想分词结果中有H61,是不是只能自定义分词了?像这种商品的型号中很多类似...
...提供scws的api接口,实现短语分词功能 2.是否可以对scws自定义中文词典,方便扩展 [/quote] 目前没有直接支持自定义词典,而是直接读取 dict.utf8.xdb 你自己改词也必须转换成这个词典文件才能用。 词典转换关于SCWS的网站上有。
我有一自定义词库,用来文本中的非法词。譬如“美女” ,用scws_get_tops分出来的词中有这个词,但是scws_has_word却判断为不包含这个词。 但是大部分自定义词库中的词还是能用scws_has_word判断出来,而有些却有不可以,尤其是两...
...大的 scws 分词,适合绝大多数字符串字段。也可以指定自定义分词器,格式为 name 或 name(arg) 两种形式,其中 name 是分词器名称,arg 则是传递给分词器构造函数的参数。自定义分词器需要在 lib/ 目录下编写名为 XSTokenizerName 的分...
...到相当的说明,希望你有时间能帮我解答一下。 现在自定义分词,是不是只能在索引的时候进行,我的项目中需要对内容进行自动分词,用于生成文章的tag,我自己给定了一个用户自定义词库,在$tokenizer->getTops()时,不能...