如果我每次都只叠加一点点词语 估计就5-6个是否每次叠加完成都要执行 $xdb->Optimize();函数? 因为执行这个$xdb->Optimize();要等很久... 能不能周期性的优化? 就是新加的差不多数量了比如100个了就手动执行一次$xdb->Optimize();? ...
这个分词系统虽说是简易的,但是我觉得还是过于强大了 譬如说像我们行业类网站,要分的词不多,屈指可数,也可能就几百个 如果能提供分词方法,和一个自己可以添加的词库就好了 呵呵 谢谢
...呢 1.mysql的字符集是UTF8 我连接进去查看 数据都没问题 如果方便自己改一下 Indexer.php 在 $index->update 之前打印一样 $data 的字段。 2.$data 之前的数据中文乱码 您使用哪个方式的 MYSQL 访问方式,之前也有人报告了类似的错误,原...
...72244057'] date 只能是 Ymd 到天。 这样肯定不会影响精度,如果到毫秒就不行了。 最终我只能增加一个string类型的date字段,专门用来取得时间戳 [/quote] 需求原来是精确到毫秒 我的应用一般都是精确到秒
我是 centos5 scws 1.1.2 php 以扩展形式安装 . 如果我不显式的定义 $so->add_dict(ini_get("scws.default.fpath") . '/dict.utf8.xdb'); $so->set_rule(ini_get('scws.default.fpath') . '/rules.utf8.ini'); 那么就分词正常. 这个是第一个问题. 第二个问题就是...
...,我反复建立了两次没报错。。。 这个好像不会检测的,如果你重复添加就会有多条,这个你要自己处理的呃 我看官方文档说使用文档更新语句话他会先判断是否存在,存在就更新,不存在就添加,但是效率要比直接添加慢...
比如比如我希望用SCWS能搜索 一个关键词的信息,但是现在虽然内容里面有很多这包含这个词语的信息了, 但是搜索的时候却搜索不到. 应该如何处理呢? 如果是修改rules.ini文件的话,难道是加到[special]这个位置吗???