看了一下基本上说内置了中文分词 内置中文分词 好处我想应该索引会相对的小一些 但是坏处就是要维护词库 新出词语不用立马根据 所以问一下是否支持一元分词 这样就可以实现类似mysql like方式的搜索了
如果你了解scws就会知道它其实对散字也是自动二元处理。 你所谓的一元是一个字一个词?你也可以拓展 XSTokenizer 自己实现分词
在 Xunsearch 使用 SCWS 为了便于用户在安装完 `Xunsearch` 后可以通过服务端内置的 scws[1] 实现分词, 而不需要另外再安装 scws 的 php 扩展。从 `1.3.1` 版本起,`Xunsearch` 的 PHP-SDK 中加入 [XSTokenizerScws] 类,可通过搜...
经过较长一段时间的维护和改进,目前 xunsearch 运行较为稳定。今天很高兴发布 1.3.1 正式版,在 SDK 层面加入了许多用户诉求的 scws 分词接口,并修正了许多小 BUG,强烈建议所有用户升级到这个最新稳定版本。 [b]主要更新如...
... Chinese Words Segmentation 即简易中文分词系统。 [url=http://www.xunsearch.com/scws][b][size=5][color=#FFA500]2010/01, scws-1.1.0 发布,支持加载文本词典,下载及介绍请进项目站点 http://www.xunsearch.com/scws[/color][/size][/b][/url] [url=http://www.xunsearch.com/scws...
非常感谢...也在刚开始学习xunsearch xunsearch采用 scws 分词 xunsearch好像集成了 scws 对于分词 xunsearch 可以通过 XSTokenizer 扩展 我想问的是 既然是 集成scws 那么 1.有没有提供scws的api接口,实现短语分词功能 2.是否可以对scws自定义中文...
...007' pid='126' dateline='1319615395'] 非常感谢...也在刚开始学习xunsearch xunsearch采用 scws 分词 xunsearch好像集成了 scws 对于分词 xunsearch 可以通过 XSTokenizer 扩展 我想问的是 既然是 集成scws 那么 1.有没有提供scws的api接口,实现短语分...
:s最近在开发检索项目.这两天学习了下xunsearch. 找了许久,没找到xunsearch的分词原理是什么,是否支持最大颗粒分词?:exclamation: (弱弱的说,我没有找到这方面的东西. 哪位同仁,可以给我点提示和援助啊?:huh:)[hr] 在线先行回复,项目进...