老大,有没有什么方法可以检索到不等于某个字段值的数据。 比如我有个字段是。 [specialcid] index = self tokenizer = split(,) 里面的内容是:45668,98644,110134,214567 有没有什么方法构造搜索语句是不等于这个字段的值,比如我想检索...
...“分成“租房/v 合同/n 上标/n 明了/n 房租/n ,/un 但是/c 没有/v 标明/v 租赁/vn 时间/n ,/un 房东/n 要/v 涨价/v ,/un 合理/ad 吗/r ?/un”,其中的“上标”不合理; “那个人实在太笨了,没有一点头 脑”分成“那个/r 人/n 实在/d 太/d...
[quote='hightman' pid='3934' dateline='1293717997'] 看看错误提示吧,这样我也不好说。 [/quote] 没有提示什么错误,就是没有结果。
[quote='hightman' pid='5447' dateline='1387443918'] addRange 后会影响概率计算,count 会有问题 [/quote] 有什么什么方法能得出相对准确的count呢,数据量小时count没有问题,大的时候差别非常大
比如说“这本书”,在用C语言编译调用scws分词结果为"这/本书",但是编译为php扩展后调用,结果为"这本书",没有分掉,同一份代码同一个词库同一个规则集,为什么会出现不一样的结果?
规则倒是可以匹配,rules.utf8.ini没有问题,但dict.utf8.xdb怎么也转换不过来 版主可有什么办法?
...似这样的名称分词的结果 却是 富贵 鸟(Y1W) 最关键的 Y1W 没有被分出来。 而且 六灯夜视D502 这样的名称 也只能分出 中文, 英文和数字没有被分出来,是为什么?请教高手。 我用的是SCWS 扩展 PHP 5.2.x 版二进制文件!
我在我的平台上反复测试过,完全没有这样的情况。改什么就是什么,前提是确定你的txt文件确实被成功修改了。 你建议你在 test.php 里的 scws_new() 之前加一句: echo "dict content: \n"; echo file_get_contents('/data/html/365search/dict.film.txt')...
用了最新版也不行. 如"冰毒"scws_has_word判断不出来 , 真奇怪 还有什么问题导致的呢?