搜索

大约有 40 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.1945秒)

11.RE: 怎么分库才能优化好搜索性能?

发布时间:2011-11-07 13:11 t By hightman

...应该说旧贴子不太可能再发生删除、修改等操作;建议按时间段切割,但不建议分割过多。 在索引数据入库时根据时间判断该对应哪个库名,比如用 db_1, db_2, ... 来区分 而在搜索的时候统一用 addDb 把所有的 db 都添加进支就可...

12.关于搜索分页的bug

发布时间:2012-03-27 10:03 t By ttgive

...dtime',$from,null)->search(); $count=$search->getLastCount(); 在相关时间区间里面搜索再以时间来排序,这种query可能造成结果总数的不准确 解决方案: 其实解决方案很容易,如下代码 $docs=$search->addRange('addtime',$from,null)->search()->getLastCount()...

13.不知道我这个需求是否合理

更新时间:2012-04-02 00:04 t By Dull

...00页 我发现如果搜索结果较多排序的时候引起首次搜索时间特别长 是默认排序的2-3倍时间 我想能不能API加入一些特征 进行快速的过滤 比如前2000条结果外的就不统计了[hr] 仔细想下 这个需求意义不大 200万个搜索结果的情况...

14.RE: 虎踞龙蟠BBS全文检索正式上线

发布时间:2011-11-25 14:11 t By hightman

...用了 value compare (addRange)的所以效率比较慢。建议直接对时间字段建立年份索引 以下为示范代码 $doc->addTerm('time', date('Y', $chrono)); 这样搜索的时候可以默认搜索当前 2年内的只要加上 AND (time:2011 OR time:2010) 效果可能会比 compare 快...

15.RE: xunsearch-1.4.5 (基于 xapian 和 scws开源中文搜索引擎,高扛压不死锁)

发布时间:2013-03-26 16:03 t By vus520

hightman 辛苦~ 第一时间升级到最新版了。我有一个疑问,找了一些文档,没有找到相当的说明,希望你有时间能帮我解答一下。 现在自定义分词,是不是只能在索引的时候进行,我的项目中需要对内容进行自动分词,用于生...

16.在做一个PHP的项目。 部分功能用到scws。 大家多多交流

更新时间:2010-05-11 18:05 t By xiaolan

...比较准确的, 当然还是需要大量的数据测试, 以及一段时间的试运行才会有更好的结果。 就是社区稍显冷清。。呵呵 新项目内部命名为super.maria 。 策划了有一段时间了, 功能方面也基本都设计好了 整个项目的基本功能就...

17.一个字符搜索不到数据,必须两个字符或以上才行

更新时间:2014-06-05 20:06 t By phpqinsir

...pe = numeric index = self ; 价格 [price] type = numeric ; 上架时间 [uptime] type = numeric ; 商品类型 [goods_type] tyep = string tokenizer = full ; 商品权重 [weight] type = numeric ; 配送范围 [scope] type = string index = mixed tokenizer = default ; ...

18.获取热门搜索

获取热门搜索词 在您的搜索功能进行一段时间后,系统会记录并分析所有的搜索词汇, 提供热门搜索词列表以辅助网站运营、引导用户搜索。 热门搜索词使用 [XSSearch::getHotQuery] 方法,返回值是以搜索词为键、 搜索...

19.RE: 虎踞龙蟠BBS全文检索正式上线

发布时间:2011-11-25 15:11 t By zcbenz

谢谢! 因为刚上线不久,所以使用次数不多 现在搜索是按照年份分库的,每2年分一个库,默认的搜索两年内其实只是加载了最近的两个库。任意时间搜索就是把所有库加载了进去。偶尔出现的搜索慢确实有些奇怪

20.RE: daemon server(linux后台程序)和embed(库的形式嵌入程序中)

发布时间:2010-12-10 15:12 t By hightman

...就应该采用mem方式,比如搜索引擎的建索引时主要耗费的时间都花费在分词上,反正现在内存也便宜,而且词典不算太大。如果程序偶尔才需要分一下词,那就没必要load到内存里了。 [/quote] 恩,主要是把整个词典load到内存...

1234
  • 时间不限
  • 按相关性排序