迅搜在运行过程中,对磁盘非常贪婪: 使用du查看分区占用情况: /dev/sda2 276G 203G 59G 78% /home/slavefs 用了203G 然后终止迅搜,进入磁盘目录,使用du查看: du -h --max-depth=1 /home/slavefs/ 637M /home/slavefs/data 637M /home/slav...
想请教下,假如我开启复合分词,在返回的分词结果里怎么区分哪些是复合分词的结果,哪些是平常的结果? 比如我对“中国人”分词,返回中国+人+中国人,怎么单独提取复合词 中国+人呢?
在第28行后,加上以下三句试试: #ifdef HAVE_FLOCK # include #endif
测试了一下 numeric 超过100万的值 在update之后 数据精度会丢失 原始数据:1283934062 加入索引并检索 获取数据 1.28393e+09 1.28393e+09 从索引中取出来的数据 精度已经丢失 type = numeric index = self tokenizer = full
只要 SCWS_MULTI_DUALITY 即可了。 SHORT 是指把“中国人”再细切为“中国”+“人” ZMAIN 是把其中的主要文字都切出来,比如“中国人”在其它切法的基础上再切出“中”+“国”+“人” ZALL 则所有文字,ZMAIN只会切出包含在词典中...
我用csv进行添加,多个csv文件每次ID都要是连续依次增加吗??用Indexer.php添加第二个时会清空第一次添加的内容吗??csv文件的id序列号重复了可以吗??
斑竹你好,我是菜鸟,有个扩展安装的问题麻烦你下啦。 我的网站是gb2312的,但是从 scws 主页上下载词典文件有好几个,dict.utf8.xdb,dict.xdb和dict_cht.utf8.xdb,我可以把这几个都装到etc文件夹里么?还有那几个ini文件也是一样的...
当在中文中加入英文后,英文加头部时,只能得到英文分词,而后面的中文却没用了;英文中间时,仅能得到英文前的汉字的分词;英文放尾部时,英文分词也得不到,这是哪里没配置的原因么? 我在网站上在线分词那输入中...