搜索

大约有 100 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.2921秒)

1.关于多粒度的建议

发布时间:2013-12-24 13:12 t By anzm2005

...的多粒度分词,有一种情况不能实现 比如词典里有: 我们是中国人 我们是中国 我们是 中国人 中国 当要分句子: 我们是中国人 无论怎么设置,都无法分出 我们是中国 我们是 这些词 就是目前是按照词典最长...

2.新增“开源捐赠"链接

发布时间:2013-08-15 19:08 t By hightman

我们一直致力于开源的 xunsearch 中文全文检索和 scws 中文分词开发。 我们一直在努力做得更好,如果您对我们的成果表示认同或对您有所帮助, 我们乐意接受您的捐赠。我们的开源事业离不开您的支持。 [url]http://www.xunsearch...

3.请问一下,xdb与txt词库那个读取效率更高

发布时间:2013-06-29 21:06 t By 阿弟2013

你好,我们最近在postgresql整合了scws,效果很棒,现在我们自己增加了一些词库,不知道xdb与txt相比,那个效率更高 另外,scws对于中英文分词效果不是很好,即文中的中文分得还可以,但对于页面中的英文部分,包括email,url,hos...

4.RE: 您好,请教一个问题

发布时间:2011-12-26 10:12 t By hightman

其实我们提供的搜索方案是提供API的,简单来说就是你可以通过API维护数据。至于如何同步完全取决于你的作法和设计,至于JOIN也一样,这个本身不是XUNSEARCH的功能 但我们提供的辅助工具 Indexer.php 也支持 JOIN语句和多表导入。

5.RE: 关于词频的解释

更新时间:2013-04-15 11:04 t By hightman

...s.ini 和 etc/rules.utf8.ini 的 [attrs] 后方加入 p(1) + n = 5 即可 我们的DEMO已经更新,[url]http://www.xunsearch.com/scws/demo/v4.php[/url] 您也可以参见我们的 GITHUB 日志:[url]https://github.com/hightman/scws/commit/53269c304f6f8b84263ed18522152eb3b070c51a[/url]

6.能否提供字典dict.xdb的生成程序

更新时间:2009-06-28 10:06 t By heraldboy

...东西非常高兴,正和我用。 但发现现有的字典不太适合我们做地址的分词,能不能给个办法将文本的转为dict.xdb格式,看到你在论坛中回复提到一个转换程序,但我不知道在哪里下载。 先谢谢你。[hr] 我们系统对速度要求不高...

7.伯乐网的xunsearch已经成功试用半年

更新时间:2014-10-15 13:10 t By tangniyuqi

...的信息服务,以让优质人才和优秀企业及时相遇为己任。我们是一个热爱互联网的年轻团队,我们用责任来做这件事情,致力于打造最专业的互联网招聘平台。

8.RE: xunsearch 经典案例大收集!!!

更新时间:2014-10-13 16:10 t By tangniyuqi

...的信息服务,以让优质人才和优秀企业及时相遇为己任。我们是一个热爱互联网的年轻团队,我们用责任来做这件事情,致力于打造最专业的互联网招聘平台。 xunsearch 1.4.8

9.RE: Demo遇险记:今天碰到的错误,5576段错误莫名被解决

发布时间:2011-12-05 11:12 t By hightman

./bin/xs-ctl.sh: line 71: 5676 段错误 bin/xs-searchd -l tmp/searchd.log -b $bsearch -k $cmd 这个东西在有些操作系统下有时会发生,但不影响使用,原因在进一步调查。。。我们自己的系统上没出现 麻烦你给我们提供一下操作系统的版本号

10.RE: xunsearch 经典案例大收集!!!

发布时间:2014-11-17 10:11 t By hightman

...的信息服务,以让优质人才和优秀企业及时相遇为己任。我们是一个热爱互联网的年轻团队,我们用责任来做这件事情,致力于打造最专业的互联网招聘平台。 xunsearch 1.4.8 [/quote] 不错啊,感觉就像是开发人员拿bootstrap自...

  • 时间不限
  • 按相关性排序