如果你了解scws就会知道它其实对散字也是自动二元处理。 你所谓的一元是一个字一个词?你也可以拓展 XSTokenizer 自己实现分词
...s 分词 xunsearch好像集成了 scws 对于分词 xunsearch 可以通过 XSTokenizer 扩展 我想问的是 既然是 集成scws 那么 1.有没有提供scws的api接口,实现短语分词功能 2.是否可以对scws自定义中文词典,方便扩展
...分词 xunsearch好像集成了 scws 对于分词 xunsearch 可以通过 XSTokenizer 扩展 我想问的是 既然是 集成scws 那么 1.有没有提供scws的api接口,实现短语分词功能 2.是否可以对scws自定义中文词典,方便扩展 [/quote] 目前没有直接支持自...
...函数的参数。自定义分词器需要在 lib/ 目录下编写名为 XSTokenizerName 的分词类并实现接口 XSTokenizer,内置支持的分词器有以下几种: full 表示本字段的值整体作为一个检索词,像各种 ID 都适合这种情况 none 表示本字段没有任...
...单位。 最后贴出我的代码给有需要的人: [php] class XSTokenizerUnary implements XSTokenizer { private $length = 1; // 默认切分长度 public function __construct($arg = null){ if ($arg !== null && $arg !== '') $this->length = $arg; } public function getTok...
...网上也查了一些资料,貌似没找到什么好的方案 class XSTokenizerUnary implements XSTokenizer { private $length = 1; // 默认切分长度 public function __construct($arg = null){ if ($arg !== null && $arg !== '') $this->length = $arg; } public function getToken...
... 2011-09-16 hightman: PHP-SDK: 添加一些 PHPUnit 测试代码并修正 XSTokenizerSplit 参数解析 bug * 2011-09-16 hightman: PHP-SDK: 调整 XSTokenizer 支持在搜索语句中执行自定义分词 * 2011-09-16 hightman: 修正安装脚本 setup.sh 中 'read -e' 的兼容问题