其实主要意思是看你的应用是否持续调用分词功能。持续调用就用mem的方式
600万数据怎么可能要建2天,肯定用法不当咯。 我们没有做 scws for sphinx 的整合,不知别的地方有没有。
从提示信息看您往服务端发送15664字节,但实际只有8192字节发送成功,您是用 util/Indexer 来更新数据吗?也许是 server 端卡住,是否同时运行了多个脚本在并发写入呢?是否方便复现。 这种情况是发生在导入数据的什么 阶段?...
这个你就看说明吧,试用 DEMO 那一章节
为了优化性能,默认都是会有延迟更新的。 你可以强制使用 XSIndex::flushIndex 来刷新的
原随 scws 一起发布的简体中文 xdb 词典存在部分问题,导致一些冷僻汉字不能做到散字自动二元,甚至被当做标点符号清除。 现已更新词典,修正该问题,强烈建议重新下载新词典。下载地址: [URL]http://www.ftphp.com/scws/download....
[quote='hightman' pid='3550' dateline='1273972998'] 没有什么太大的问题,但必须存一个冗余字段。以前就有建议过一些朋友这么做。 还有,MYISAM内置的全文也只是一个简单的解决方案,最终效果可能也不是非常好,根据以前的测试50万...
xunsearch/bin/xapian-check xapian-inspect 这几个工具可以检查一下数据库,看看是不是坏了。 还有你可以试试用命令行的 util/Quest.php --db=db_a,db 这样强制指定DB库来测试一下呢?
词库的字节序原因,你可以在 ppc 处理器上重新用 bin/gen-scws-dict 制作一份词库就可以了。