其实我更应该感谢你,这个程序做的非常棒。我找了很多分词的方案,做得如此精炼的只有这一个。 这个错误造成的coredump 是无法预测的地方,所以非常难定位。
...的全文也只是一个简单的解决方案,最终效果可能也不是非常好,根据以前的测试50万左右的数据用内置的match .. against ... 效果还是可以接受的。 [/quote] 还会对取出的结果集再进行分析一次, 冗余字段是什么意思? 不太理...
... 解开有可能是600,建议 chmod a+r /usr/local/scws/etc/* [/quote] 非常感谢,被这个问题折磨了1天,原来是权限问题
...,OFFSET 不能单用必须配合 limit [/quote] 呵呵 原来如此 非常感谢,数据已经导入了500万左右,做了测试,真是相当快,最慢的也就1秒就有结果了,顶起~~
[quote='vist2007' pid='126' dateline='1319615395'] 非常感谢...也在刚开始学习xunsearch xunsearch采用 scws 分词 xunsearch好像集成了 scws 对于分词 xunsearch 可以通过 XSTokenizer 扩展 我想问的是 既然是 集成scws 那么 1.有没有提供scws的api接口,实...
...中的部署。 [/quote] 虚拟主机就没有办法了,但如果你非常需要用而且请求量不大,可以用我们提供的WEB 开放API http://www.ftphp.com/scws/api.php
...词内模糊就行了,比如按3个字母为单位建立? [/quote] 非常感谢! 我刚试了下,针对我的需求来说,对于人物英文名以3个字母为单位建立索引的确可以达到很好的效果,中文名以一个汉字为单位。 最后贴出我的代码给有...