看了一下基本上说内置了中文分词 内置中文分词 好处我想应该索引会相对的小一些 但是坏处就是要维护词库 新出词语不用立马根据 所以问一下是否支持一元分词 这样就可以实现类似mysql like方式的搜索了
我刚才讲错了,这个错误意思是无法写入 $prefix/tmp 目录,你看看文件是事存在 其实你也可以看一下 tmp/indexd.log 末尾几行看看怎么说,里面会有相应的错误信息 tail -100 tmp/indexd.log
这个情况可以不更新吧,也没事。 因为XS里,基于文档的索引只能整体更新。。。。无法局部更新。
我想问一下,自定义的词典里,只有word,没有其它TF、IDF、Attr可以吗?能生成吗。 因为我试了直接加载TXT的太慢了,想转换成XDB。
--stop-rebuild 后要等一段时间让服务器调整过来。 --rebuild 不成功就重启服务器的话,文件系统就停留在 db.re 没用了,但可以正常进行再次重建或清空 所以使用这个要小心,确保 rebuild 正常完成不要随便中断啊
...复合分词是对原本是词的长词情况处理的,比如”中国“可以切成”中“+”国“+”中国“ 你的问题必须是 [code] $tk = $tokenizer->setDuality(false)->setIgnore(true)->setMulti(11)->getResult("是一"); [/code]
既然有php扩展,为什么不推出一个php+mysql版本的,把词库放在mysql中,这样可以更方便我们对词库的扩展和管理,更加降低入门门槛,对scws的发展也会有一定的帮助。