其实主要意思是看你的应用是否持续调用分词功能。持续调用就用mem的方式
600万数据怎么可能要建2天,肯定用法不当咯。 我们没有做 scws for sphinx 的整合,不知别的地方有没有。
从提示信息看您往服务端发送15664字节,但实际只有8192字节发送成功,您是用 util/Indexer 来更新数据吗?也许是 server 端卡住,是否同时运行了多个脚本在并发写入呢?是否方便复现。 这种情况是发生在导入数据的什么 阶段?...
这个你就看说明吧,试用 DEMO 那一章节
为了优化性能,默认都是会有延迟更新的。 你可以强制使用 XSIndex::flushIndex 来刷新的
在php5.2.0,windows下还是安装不了扩展,原php环境运行正常 操作步骤: 1 将php_scws.dll copy至php5扩展目录ext下 2 在php.ini中增加 extension=php_scws.dll scws.default.charset = gbk 3 在命令行运行[b]php -m[/b]检测模块是否加载,报错:缺少php4ts....
[quote='hightman' pid='3550' dateline='1273972998'] 没有什么太大的问题,但必须存一个冗余字段。以前就有建议过一些朋友这么做。 还有,MYISAM内置的全文也只是一个简单的解决方案,最终效果可能也不是非常好,根据以前的测试50万...
好长时间不写C了,写着有点吃力,所以暂时先把最基本需要的分词及高频词提取写出来了。 后续等有点空时会慢慢实现更多的功能及加入相关脚本。
[quote='admin' pid='2688' dateline='1291049346'] 词库没有正确加载,你检查一下 /usr/local/scws/etc/ 下的 .xdb 的文件属性,默认.tar.bz2 解开有可能是600,建议 chmod a+r /usr/local/scws/etc/* [/quote] 非常感谢,被这个问题折磨了1天,原来是权限问题...