搜索

大约有 168 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.0047秒)

101.RE: 词典格式疑问?

发布时间:2012-02-22 19:02 t By vanni

为什么不能定义超过3个中文的词呀。(自定义词典使用的是UTF8格式) 比如我定义 “相宜本草” ,但是没有用!

102.RE: 安装后,第一个例子,显示乱码

发布时间:2013-03-28 10:03 t By hightman

明显,你的源码是以UTF-8存的,也就是你的中文其实是UTF-8的

103.RE: 不能搜索单个字

发布时间:2013-05-10 09:05 t By hightman

这不为什么,这就是全文检索,中文分词。搜索单字没有实际意义,实在有必要你可以自定义分词器,按字索引。

104.可以实现搜索纯静态网站吗?

更新时间:2013-09-16 17:09 t By anicca

像蜘蛛爬虫那样去检索指定的网站,把数据存入数据库,然后搜索 [hr] 像 sphider 开源的那个,只不过他没有中文分词

105.一点疑惑

更新时间:2013-11-09 15:11 t By 子不语

...果!为啥?? 默认的分词也不行,:huh::huh:我用csv导入的 中文全都不可以搜索和显示出来 [id] type = id [user] index = both tokenizer = full [q] index = both tokenizer = full [w] index = both tokenizer = full ~

106.使用

发布时间:2013-11-15 15:11 t By wydky

我的网站采用的是付费的空间,window2003 iis6 php5.3的环境,请问可以使用saws中文分词吗?谢谢!

107.RE: addRange后count不准确

发布时间:2014-05-05 16:05 t By yuangu125

这个统计的我也是不准,不明白什么原因,数字可能还好,这个中文搜索,精确匹配的,就是怪怪的。

108.RE: xunsearch 经典案例大收集!!!

发布时间:2013-12-25 10:12 t By chinapubmed

生物医学论文搜索 - 中文PubMed:[url=http://www.chinapubmed.net]www.chinapubmed.net[/url]

109.二元分词问题

发布时间:2011-11-14 17:11 t By icebolt

...index = both tokenizer =xlen(2) 二元分词只能对英文生效,对中文不生效 同时急于需要一元分词,主要是做黑词筛选用,因为有的时候就要搜索某些一元词,比如 武器 near/2 售,但是不能实现

110.如何让xunsearch变成英文全文搜索?

发布时间:2011-10-02 10:10 t By joey

如何让xunsearch变成英文全文搜索? 我打算用xunsearch做纯英文网站,但不知道目前xunsearch对英文支持如何? 我看文档中对搜索字词校对等都是从中文出发,有没有方法可以改成英文?

  • 时间不限
  • 按相关性排序