谢谢! 因为刚上线不久,所以使用次数不多 现在搜索是按照年份分库的,每2年分一个库,默认的搜索两年内其实只是加载了最近的两个库。任意时间搜索就是把所有库加载了进去。偶尔出现的搜索慢确实有些奇怪
...有建议过一些朋友这么做。 还有,MYISAM内置的全文也只是一个简单的解决方案,最终效果可能也不是非常好,根据以前的测试50万左右的数据用内置的match .. against ... 效果还是可以接受的。
...e='1359526203'] 是你自己搞错了! “是一”本身不是词,只是因为二元结合法所以scws自动将其合成为一个词。 复合分词是对原本是词的长词情况处理的,比如”中国“可以切成”中“+”国“+”中国“ 你的问题必须是 [co...
...andler(2, 'xcache_get(): x...', '/usr/local/xuns...', 431, Array) 如果只是缓存配置文件的话,缓存不缓存倒没所谓了
...inx ,项目配置也是一样的, 虽然在开发上并没有影响,只是想知道为何结果不一样,希望有知道内幕的,可以分享一下。。
...了”枪“、”王之王“,显然在查询的时候用户很有可能只是输入”枪王“作为关键字。而我自己的系统是不查询单字的。在自定义字典中又不知如何操作。毕竟感觉三个字的词在自定义字典中起了作用。而四个字的却没有预期...
没有特别去开进程来修改索引库阿. 我这里只是在数据有更新时才会执行性一次 --rebuild索引, 都是手工来做的. 我们现在的处理方式: 凌晨4:00 固定的去重起xunsearch, 如果没有做, 凌晨4:00多就挂掉。很奇怪,每天都这样。。
搜索其实是很快的,只是传输结果集实在是太慢了,个人觉得应该提供另外一种模式:先把要发送的所有记录或者部分记录打包,然后统一分段发送,这样可以减少发送端和接收端的网络io操作次数
如果只要文章中有Linux出现就算是Linux相关文章的话,其实是不需要分词了,直接用全文搜索Linux就好了。 只是SCWS目前看前来它的自定义词典不支持超过3个字,如果可以的话,可以通过自定义“Linux优化”来指定分词
...,模块划分,jabberd2都相当不错 [/quote] 呵,我认为我只是学习了它的代码。至于GPL以前我也很喜欢这样的授权协议,但似乎太严格了对很多方面都不利。 此外,我写的那些限制主要是为了避免下载后经部分用户自行修改...