搜索

大约有 991 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.0085秒)

331.占据磁盘巨大的问题

发布时间:2014-06-24 23:06 t By askie

迅搜在运行过程中,对磁盘非常贪婪: 使用du查看分区占用情况: /dev/sda2 276G 203G 59G 78% /home/slavefs 用了203G 然后终止迅搜,进入磁盘目录,使用du查看: du -h --max-depth=1 /home/slavefs/ 637M /home/slavefs/data 637M /home/slav...

332.set_multi()复合分词问题

发布时间:2012-10-23 10:10 t By muzi1012

想请教下,假如我开启复合分词,在返回的分词结果里怎么区分哪些是复合分词的结果,哪些是平常的结果? 比如我对“中国人”分词,返回中国+人+中国人,怎么单独提取复合词 中国+人呢?

333.RE: 从windows迁移到linux发生的问题

发布时间:2013-12-11 15:12 t By hightman

先检查一下你的 $str 是否正确无误。scws 本身是对机器位数没有依赖

334.RE: 安装scws-1.2.1时遇到的问题

发布时间:2013-05-10 10:05 t By hightman

在第28行后,加上以下三句试试: #ifdef HAVE_FLOCK # include #endif

335.RE: 关于 numeric 类型精度问题

发布时间:2011-12-06 17:12 t By vist2007

测试了一下 numeric 超过100万的值 在update之后 数据精度会丢失 原始数据:1283934062 加入索引并检索 获取数据 1.28393e+09 1.28393e+09 从索引中取出来的数据 精度已经丢失 type = numeric index = self tokenizer = full

336.RE: -b unix模式下运行 权限有问题

发布时间:2012-02-22 14:02 t By hightman

默认是用运行用户的权限的。连接的话你要改成PHP用户可读写

337.RE: 三个问题需要求教

发布时间:2011-01-18 21:01 t By hightman

只要 SCWS_MULTI_DUALITY 即可了。 SHORT 是指把“中国人”再细切为“中国”+“人” ZMAIN 是把其中的主要文字都切出来,比如“中国人”在其它切法的基础上再切出“中”+“国”+“人” ZALL 则所有文字,ZMAIN只会切出包含在词典中...

338.我用csv进行添加是的ID问题

更新时间:2013-11-06 11:11 t By 子不语

我用csv进行添加,多个csv文件每次ID都要是连续依次增加吗??用Indexer.php添加第二个时会清空第一次添加的内容吗??csv文件的id序列号重复了可以吗??

339.扩展安装问题求助,谢谢

更新时间:2009-05-25 15:05 t By pardis_xiong

斑竹你好,我是菜鸟,有个扩展安装的问题麻烦你下啦。 我的网站是gb2312的,但是从 scws 主页上下载词典文件有好几个,dict.utf8.xdb,dict.xdb和dict_cht.utf8.xdb,我可以把这几个都装到etc文件夹里么?还有那几个ini文件也是一样的...

340.中英混合问题

更新时间:2012-10-16 19:10 t By o00ofly

当在中文中加入英文后,英文加头部时,只能得到英文分词,而后面的中文却没用了;英文中间时,仅能得到英文前的汉字的分词;英文放尾部时,英文分词也得不到,这是哪里没配置的原因么? 我在网站上在线分词那输入中...

  • 时间不限
  • 按相关性排序