搜索

大约有 30 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.0061秒)

11.RE: 请问下xunsearch搜索时能不能返回所有搜索记录,而不是根据偏移量返回

发布时间:2014-11-10 16:11 t By intsig

我也想让它一次性全部返还记录,但是当结果记录超过100的时候,一次只能取出从偏移开始的前100条记录,求高手赐教

12.RE: 对医院的分词不太理想

更新时间:2010-09-07 18:09 t By hightman

杯具的分词词库和规则导致这个结果, 稍后我看能不能简单调整一下规则来获得比较好的效果。 查到原因了,是因为词库里居然有个错误的词叫“民医院”!! 建议删除该词重新生成词典或,写一个附加词典标记为删除。...

13.RE: scws_has_word的逻辑问题

发布时间:2010-08-05 15:08 t By backluck

..., 多个词性之间用逗号隔开。当以~开头时表示统计结果中不包含这些词性,否则表示必须包含, 传入 NULL 表示统计全部词性。 返回值:如果有返回 1 没有则返回 0 错误:无 ·scws_top_t scws_get_words(scws_t s, char *xattr); ...

14.使用addRange查询时出现字段丢失问题

更新时间:2013-12-27 14:12 t By root

...ddRange('type',2,3)->search(); 进行查询时 topicid字段不存在于结果中 但是:如果使用 $res = $search->search($_GET['kw']); 或者 $search->setQuery($_GET['kw'])->search(); 进行查询,结果却存在 topicid 字段 请问字段丢失问题如何避免,是迅搜B...

15.scws 1.2.2的问题,为什么PHP调用c扩展和直接在c语言环境下得到的分词结果不一样?

发布时间:2014-02-24 10:02 t By 562586756

比如说“这本书”,在用C语言编译调用scws分词结果为"这/本书",但是编译为php扩展后调用,结果为"这本书",没有分掉,同一份代码同一个词库同一个规则,为什么会出现不一样的结果

16.xunsearch的几个小小优化

发布时间:2012-09-12 22:09 t By Dull

...字母数字汉字,仅仅是特殊符号,则会直接返回所有搜索结果,http://www.xunsearch.com/demo/search.php?q=%21@@&f=_all&s=relevance 可以测试这个看,可以考虑强行判断,不包含就让搜索词为空,进行相应处理 如 if(!preg_match('/([0-9a-z]{2,2})/i')) He...

17.RE: 我搜索真的很慢,求大神帮看看是什么问题

发布时间:2014-11-25 17:11 t By intsig

搜索其实是很快的,只是传输结果实在是太慢了,个人觉得应该提供另外一种模式:先把要发送的所有记录或者部分记录打包,然后统一分段发送,这样可以减少发送端和接收端的网络io操作次数

18.SCWS-php扩展的说明及用法

发布时间:2007-06-07 18:06 t By hightman

...ignore(resource scws_handle, bool yes)[/color] 说明:设定分词返回结果时是否去除一些特殊的标点符号之类。 返回:始终为 true 参数:scws_handle 即之前由 scws_open 打开返回的; yes 设定值,如果为 true 则结果中不返回标点符号,...

19.RE: 测试环境运行了几天,昨天出现一个错误

发布时间:2011-12-21 00:12 t By KnightE

...第二个参数设置为true有关,不调用setFacets(),或设置精准结果false,都没有问题。 因为项目还在线下,几乎无人访问。一般都是重建索引或restart/fastrestart后恢复,隔开一段时间又出故障。 我先使用false测试。

20.RE: mysql 其实支持中文全文检索的

发布时间:2010-05-16 12:05 t By xiaolan

... against ... 效果还是可以接受的。 [/quote] 还会对取出的结果再进行分析一次, 冗余字段是什么意思? 不太理解你的意思.. 感谢回复..

123
  • 时间不限
  • 按相关性排序