搜索

大约有 1,288 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.0996秒)

661.RE: 我想用xunsearch代替mysql的like语句

发布时间:2012-03-05 10:03 t By hightman

。。。。 全文检索就已经是分词匹配了,还LIKE什么LIKE啊

662.RE: 过了N秒了,还是搜索失败啊,大神们啊...

发布时间:2012-05-16 12:05 t By hightman

队列数据没有提交?用 Indexer.php -p demo --flush 先

663.RE: 手工添加SCWS的分词应该如何做?

更新时间:2009-03-01 19:03 t By hightman

可能是你的词被切成了其它不合理的单位吧. 加到special没有用. 你最好测试一下被检索的语句/文本切词后的效果...

664.RE: mysql 其实支持中文全文检索的

更新时间:2010-05-16 22:05 t By hightman

用scws的MYSQL插件就不需要另外存一份了,而且操作也简便,对表设计和操作不需要做任何额外的处理。其它差别不大吧

665.RE: SCWS切分的字符串是否有长度限制?

发布时间:2010-08-19 00:08 t By hightman

这是SCWS的一个功能吧,参见 scws_set_multi

666.RE: scws_set_multi复式分割无效

发布时间:2011-11-03 23:11 t By hightman

C语言不要用 1~15 而是必须用上面列的宏定义。

667.RE: 安装出错,求助 failed to compile scws

发布时间:2013-03-22 23:03 t By hightman

你缺少基本的编译工具,先装好 g++,gcc,make这些

668.RE: small50,big161这种词汇搜索不到

发布时间:2013-06-18 11:06 t By hightman

example_attr 是分词器之类什么配置呢,你的索引是又存储了什么样的词。

669.RE: 全文检索 tokenizer = full 时,无法查询

发布时间:2013-09-06 13:09 t By hightman

tokenizer = full 就是不分词了。但不指定字段时还是会分词,除非你用 XSSearch::addQueryTerm 来构建查询

670.RE: 每天都会生成1G的core.xxxxx

发布时间:2012-05-14 11:05 t By hightman

加油,有情况最好能复制一下 tmp/search.log 和 tmp/index.log 出错时间前后的日志来参考。

  • 时间不限
  • 按相关性排序