呵,不用这么麻烦,可以在服务器上直接解压 packages/xunsearch-1.4.7.tar.bz2 然后,修改、编译即可。
我编译后没有实现分词功能,只分字了.图片如下 [attachment=33] 只实现了分字,并没实现分词!!!!![hr] 我自己找到原因了,哈哈.原来是字典没加载成功. 我从这个帖子找到原因的 http://www.hightman.cn/bbs/showthread.php?tid=37
[quote='askie' pid='64' dateline='1318181536'] 这个在检测说明中说一下就好了![hr] eAccelerator识别不出来,apc可以! [/quote] 新版 eacc 默认不开启 cache 功能的,你应该编译时加入 --with-eaccelerator-shared-memory 选项才可以
来个邪门的方法,把六千常用汉字放进词典,坏处是会给相关性带来干扰 稍微正常的方法,去别的网站收集所有一字歌的汉字,导入,坏处是要记得更新 题外话,nutch默认就是单字索引,但为了单字要牺牲其他,比如最重要的...
[code] $search->setQuery('my3:"CSB-YP,zer,one,thr,six,two"' )->search(); [/code] 这个写法应该是对的,你可以用 util/Quest.php --show-query 来打印拆分结果看看
分词并不影响一字歌的搜索。只要库内有那个“词”。 比如:陈百强-不.mp3 这样分词的结果是 [color=red]陈百强 陈百 百强 不[/color] 这样搜索”不“,搜索”陈百强“,”陈百“,”百强“都可以搜索到,怎么会不能搜索单字呢...
txt 自定义字典 起第哦 武则天 我就是 精武英雄 1.5 1.5 xx 然后 前端搜索 精武英雄 很正常 词属性是 xx 但是,当我修改了字典 然后上传服务器,然后再搜索刷新, 属性就不会改变了还是 xx 似乎有缓存。 而且似...