...索引擎的建索引时主要耗费的时间都花费在分词上,反正现在内存也便宜,而且词典不算太大。如果程序偶尔才需要分一下词,那就没必要load到内存里了。
那我下次死的时候,就用这个方法查一下吧,不过现在我通过top查看到有三个 xs-searchd的进程 这个正常吗
之前因为迅搜还不完善所以使用了sphinx,现在再来,发现你们没有放弃,而且将迅搜做得更强大了。1.4.6看起来很稳定的样子,将考虑以后使用强大的迅搜,支持你们!
...s [name_tc] index = self cutlen = 15 weight = 3 phrase = yes 现在中文字都可以了,,就是英文字不行,比如我的数据量 name 的是 abc,babcd,abcdce 。 我希望 当收 abc 是 只搜出 abc, abcdce 这样。 我试过 把英文的配置也改成跟中文一...
现在先列出下个版本将引进的主要功能,供大家参考和建议。 1. 同义词搜索,通过API建立、管理同义词库,检索的时候智能匹配同义词进行搜索。比如设置 “xunsearch”与“迅搜”为同义词,那么搜索 xunsearch也会包含迅搜的记...
...关于字段数的限制方面的建议,不知合理不合理: 我现在的理解是字段数目有只能是255个的限制,对于大多数项目来说,这个数目是足够了。但是对tmall.com(taobao.com)这样的网站,对与叶子类别下的商品有不同特性的分面及...
...的词典路径肯定没错!! 但是还是调用不到啊!![hr] 现在是这样的情况,在本地,我测试了一下,程序没半点问题,能正常分词 我用FTP传到服务器上,却不行了 说明一下:所有文件编码都GBK,但是传到FTP上,用浏览器打开...
感谢 七夜 兄的测试和指出,现在已经作了修正。原因是对输入的编码做了二次校正。 改法参见 GIT 仓库,因为输入的数据已经统一转成 UTF-8 了,所以搜索服务端应统一使用 UTF-8 即可。 [url]https://github.com/hightman/xunsearch/commit...
...php_scws.dll在php5.3上面运行不正确吧。请官方解决下,毕竟现在服务器用win2003的非常多! 感谢 Hightman 的无私奉献。
...索引擎的建索引时主要耗费的时间都花费在分词上,反正现在内存也便宜,而且词典不算太大。如果程序偶尔才需要分一下词,那就没必要load到内存里了。 [/quote] 恩,主要是把整个词典load到内存需要一些时间的(不光读取...