这个要考虑一些用户没有安装MBSTRING扩展的情况。 像你这样你可以考虑自己拓展一个 Tokenizer 类,然后根据自己需要生成 tokens 就可以了。 二元分词并不是直接分成N长的若干段,而是 ABCD => AB + BC + CD 你的作法会把 ABCD => AB+CD ...
我下了个PSCWS23 代码并成功安装,结果分词只对汉字有效。我用的其中的pscws3分词。 比如我输入“2009年” 分词结果却为“年”。也就是说,它只输出了汉字部分 请问这该怎么解决
[quote='hightman' pid='685' dateline='1333164501'] 没有最低要求啊,能装的就可以 [/quote] :s我的256的VPS好像是能够安装,但是开不起来。因为内存不够用。
在 Xunsearch 使用 SCWS 为了便于用户在安装完 `Xunsearch` 后可以通过服务端内置的 scws[1] 实现分词, 而不需要另外再安装 scws 的 php 扩展。从 `1.3.1` 版本起,`Xunsearch` 的 PHP-SDK 中加入 [XSTokenizerScws] 类,可通过搜...
对比Lucene, sphinx等来说,xunsearch在安装和使用简便上来说,已经做得非常优秀了。
参见 [url]http://www.ftphp.com/scws/[/url] 下载上面的 php_scws.dll 并按照文档的说法安装吧
重新安装了xunsearch1.4.6, 这种问题只是偶尔出现,,但是发现用户搜索时cpu消耗却很高。。。在官方上没有看到相关的优化信息。。。。