我查了一下, Sphinx的性能要比Xapian好很多,而且比较成熟,文档也比Xapian多!为什么非要用Xapian,而不用Sphinx呢?
多谢建议。这个部分要做得精准的话其实是比较尖端的,SCWS分词后有提供一些热门词排序,如果简单归结为标签也是不妥的,我觉得需要有标签库进行匹配和比对。
我来复述下我的建议 {title}实际名称 {start}自定义前缀 {end}自定义后缀 入库时候{start}{title}{end}的格式 查询时候根据{start}{end}计算步长,得出最符合需求的结果,需要对search.php做比较多的修改
谢谢,我用了两台虚拟机安装的,一台出现的比较少,一台碰到大的就一直出现了[hr] http://114.80.193.25/trunkey/index.php?url=www.qq.com您可以试试这个,多刷新几下有时会出现
刚看到这个分词系统, 很感兴趣, 但是还不太会用, hightman能不能给个比较规范的步骤, 介绍一下怎样在c代码里调用scws的分词功能? 多谢
在搜索条件结果比较多时,默认排序情况下,第一页并没有得到我想要的结果 搜索条件中我增加了一个addweight(), 针对一个字段加权, 测试时, 对几个文档权重增加很大 每个文档得分在14左右, 但是第一页20个结果中得分都...
...是默认的词库过大,导出其实蛮不方便,还是借助命令行比较好。 等1.1.6估计 会加上这个功能 export_dict(); import_dict() 之类的,直接可以把xdb导出为数组或把数组导入形成xdb词典,甚至提供标签决定导入的是否为临时内存词典...
scws源码中写死的…… 超过2个字符的英文数字都在第一步被预处理了,所以想要改这个恐怕了也会比较麻烦。
因为我们平时开发环境都没有windows,所以没能去尝试编译。。。所以WIN32支持计划可能会比较远了