今天旗下的http://www.anetb.com需要一个支持中文分词的搜索页,原drupal的太烂了, 我的做法是:结合xunsearch实现drupal commerce下的中文搜索 测试页:http://www.anetb.com/tsearch/demo/commerce/search.php , 可输入“奶粉”,我的站准备做这...
多谢建议。这个部分要做得精准的话其实是比较尖端的,SCWS分词后有提供一些热门词排序,如果简单归结为标签也是不妥的,我觉得需要有标签库进行匹配和比对。
[quote='bigxu' pid='7789' dateline='1399872014'] 我也碰到过这个问题,是加了一个品牌字段,并且增加了权重。 [/quote] 。。。嗯,明明是一个已定义的词语,非要拆分了弄出一些不相干的结果。。。咋办啊
#问题 在全文中搜索长的英文时(10个单词左右,就是一篇文章的英文标题),速度较慢(大部分是0.5秒左右,有时1秒多,有时甚至2秒多),上次与hightman交流,说是配置可能有问题,贴出来大家帮看看,谢谢了! 搜索主要用...
[quote='net_li' pid='4355' dateline='1374126126'] 没人给解答下吗? [/quote] 可以使用1.4.7测试版本,这样就可以设置分词的setMulti属性,设置成11就能把所有单字都分出来,但是这样数据文件会变大,个人权衡效率问题吧
http://bbs.xunsearch.com/showthread.php?tid=2141&pid=4025#pid4025 我找到了这个帖子,不过好像结果更离谱了。 自定义的直接搜不到了理想的结果了,而数据库是存在完全匹配的。。。
...new_shop/public/xunsearch-full/sdk/php/lib/XS.php'; 文件或者生成demo搜索页都报同一个错误; 错误:[XSErrorException] ../../../software/install/xunsearch-full/sdk/php/lib/XS.php(501): xcache_get(): XCache var cache was not initialized properly. Check php log for actual reason...
[php]bash-3.2$ php sdk/php/util/Quest.php spj example_attr:small50 --show-query -------------------- 解析后的 QUERY 语句:Xapian::Query((ZHsmall:(pos=1) AND 50:(pos=2)))[/php] 搜不到任何结果?