...的多粒度分词,有一种情况不能实现 比如词典里有: 我们是中国人 我们是中国 我们是 中国人 中国 当要分句子: 我们是中国人 无论怎么设置,都无法分出 我们是中国 我们是 这些词 就是目前是按照词典最长...
我们一直致力于开源的 xunsearch 中文全文检索和 scws 中文分词开发。 我们一直在努力做得更好,如果您对我们的成果表示认同或对您有所帮助, 我们乐意接受您的捐赠。我们的开源事业离不开您的支持。 [url]http://www.xunsearch...
你好,我们最近在postgresql整合了scws,效果很棒,现在我们自己增加了一些词库,不知道xdb与txt相比,那个效率更高 另外,scws对于中英文分词效果不是很好,即文中的中文分得还可以,但对于页面中的英文部分,包括email,url,hos...
其实我们提供的搜索方案是提供API的,简单来说就是你可以通过API维护数据。至于如何同步完全取决于你的作法和设计,至于JOIN也一样,这个本身不是XUNSEARCH的功能 但我们提供的辅助工具 Indexer.php 也支持 JOIN语句和多表导入。
...s.ini 和 etc/rules.utf8.ini 的 [attrs] 后方加入 p(1) + n = 5 即可 我们的DEMO已经更新,[url]http://www.xunsearch.com/scws/demo/v4.php[/url] 您也可以参见我们的 GITHUB 日志:[url]https://github.com/hightman/scws/commit/53269c304f6f8b84263ed18522152eb3b070c51a[/url]
...东西非常高兴,正和我用。 但发现现有的字典不太适合我们做地址的分词,能不能给个办法将文本的转为dict.xdb格式,看到你在论坛中回复提到一个转换程序,但我不知道在哪里下载。 先谢谢你。[hr] 我们系统对速度要求不高...
...的信息服务,以让优质人才和优秀企业及时相遇为己任。我们是一个热爱互联网的年轻团队,我们用责任来做这件事情,致力于打造最专业的互联网招聘平台。
...的信息服务,以让优质人才和优秀企业及时相遇为己任。我们是一个热爱互联网的年轻团队,我们用责任来做这件事情,致力于打造最专业的互联网招聘平台。 xunsearch 1.4.8
./bin/xs-ctl.sh: line 71: 5676 段错误 bin/xs-searchd -l tmp/searchd.log -b $bsearch -k $cmd 这个东西在有些操作系统下有时会发生,但不影响使用,原因在进一步调查。。。我们自己的系统上没出现 麻烦你给我们提供一下操作系统的版本号
...的信息服务,以让优质人才和优秀企业及时相遇为己任。我们是一个热爱互联网的年轻团队,我们用责任来做这件事情,致力于打造最专业的互联网招聘平台。 xunsearch 1.4.8 [/quote] 不错啊,感觉就像是开发人员拿bootstrap自...