[quote='admin' pid='2688' dateline='1291049346'] 词库没有正确加载,你检查一下 /usr/local/scws/etc/ 下的 .xdb 的文件属性,默认.tar.bz2 解开有可能是600,建议 chmod a+r /usr/local/scws/etc/* [/quote] 非常感谢,被这个问题折磨了1天,原来是权限问题...
...能够正常的被php加载上去了。 但是现在有个问题是 无法分词,情况是这样的: 1. 按照统计形式分词,返回结果为空 2. 而按照非统计形式分词,结果是单字,没有词组。 3.回头去查,发现原来安装的另外一台32位的1.1.1版本的分...
因为我的项目是电商网站,所以我自定义了一个词库,把我自己的品牌、商品类目名字给加进去了。 我希望是这样的搜索结果,比如搜索“迪卡侬蓝色货品”: 现在是这样的: [code]Xapian::Query(((迪卡侬:(pos=1) SYNONYM (迪卡:(po...
...在安装完 `Xunsearch` 后可以通过服务端内置的 scws[1] 实现分词, 而不需要另外再安装 scws 的 php 扩展。从 `1.3.1` 版本起,`Xunsearch` 的 PHP-SDK 中加入 [XSTokenizerScws] 类,可通过搜索服务端执行分词功能。 用法简单说明 ---------- 这...
[b][size=3]关于 PHP 版简易中文分词[/size][/b] 目前已经发布的PHP版分词有第2版和第3版,这两个版本的用法完全一样,主要区别在于分词的算法,前者采用正向最大匹配2级交叉消岐,而后者采用的是双向匹配综合消岐。并没有绝...
比如说“这本书”,在用C语言编译调用scws分词结果为"这/本书",但是编译为php扩展后调用,结果为"这本书",没有分掉,同一份代码同一个词库同一个规则集,为什么会出现不一样的结果?
词典没有正确放置或设置吧,看看你的 php.ini 中关于 scws.default.fpath 的设置
由于词库太大干扰所致,建议可以附加一个小词典(目的是删除这些无用词汇,以下我写出来作参考,把下面的文字存成dict.txt,然后在原有的set_dict之后加上 scws_add_dict(s, 'path/to/this_ad_dict.txt', SCWS_XDICT_TXT); 这样使文本词典生效. ...
...r 自定义字段词法分析器接口 XSTokenizerFull 内置整值分词器 XSTokenizerNone 内置空分词器 XSTokenizerScws SCWS - 分词器(与搜索服务端通讯) XSTokenizerSplit 内置的分割分词器 XSTokenizerXlen 内置的定长分词器 XSTokenize...