...一个分割后的TAG都可以搜索到。 [/quote] 我需要的功能只是分词。和搜索木有关系。考虑另外安装scws了。。。
[quote='icebolt' pid='282' dateline='1322453185'] 如果只是想实现分词,为什么直接用scws呢,何必用xunsearch呢? [/quote] 因为同一个系统里面,既有需要分词提取tag的地方,又有搜索,当然会出现此情况了。目前已安装scws来实现该功能...
...。[b]当使用本库做为 daemon server 时应当使用 mem 方式,当只是 embed 调用时应该使用 xdb 方式[/b],将 xdb 文件加载进内存不仅占用了比较多的内存,而且也需要一定的时间(35万条数据约需要0.3~0.5秒左右)。[/quote] 上文中daemon ser...
mblen 只是个指针,指向的是在 charset.c 中定义的全局变量,应当已经是共用的了; 至于 mode 看需要吧,只是一个整型 ,如果你在不同线程中切分建议各自用一个 mode ,除非你自己能确定它们的切词设置是共用的(主要用于保存...
只是。。。 没法用而已。。 因为英文中都是用空格进行分割的 不过如果将ft_min_word_len改为2, 然后在程序里将内容用scws进行分词,然后存入数据库单独的字段里,用空格分开,检索的时候, 用mysql的全文检索,可以检索到...
如果只要文章中有Linux出现就算是Linux相关文章的话,其实是不需要分词了,直接用全文搜索Linux就好了。 只是SCWS目前看前来它的自定义词典不支持超过3个字,如果可以的话,可以通过自定义“Linux优化”来指定分词
TF/IDF值不会导致用不到分词,只是靠在一起时需要消岐才用得到。你自定义词典用不了要查查是什么别的原因。 通常问题: 1.词典写的字符集不对,比如把GBK当UTF-8了 2.词典更新后的修改时间由于某些原因比/tmp目录下生成的临...
...定。当使用本库做为 daemon server 时应当使用 mem 方式,当只是 embed 调用时应该使用 xdb 方式,将 xdb 文件加载进内存不仅占用了比较多的内存,而且也需要一定的时间(35万条数据约需要0.3~0.5秒左右)。 若此前 scws 句柄已经加载...
...为原有功能,scws_add_dict 是新增功能,2者功能相当接近,只是 scws_set_dict 会把 scws handler 现存的词库表 清空,并设为当前的词库,而 scws_add_dict 只是将该词库添加到 scws handler 的词库表中,并优先使用。 scws_add_dict 添加的...