...比如”中国“可以切成”中“+”国“+”中国“ 你的问题必须是 [code] $tk = $tokenizer->setDuality(false)->setIgnore(true)->setMulti(11)->getResult("是一"); [/code]
我测试 加不加 引号 UTF-8都有问题,UTF8就没事 应该和 引号没有关系 我直接连数据库 运行:SET NAMES UTF-8 报:Unknown character set: 'UTF' 运行:SET NAMES 'UTF-8' 报:Unknown character set: 'UTF-8' 这个应该可以 用 show character set 支持的字符集中查吧 ...
...什么情况[hr] 又重建了一次,数据全丢了... 啥情况啊[hr] 问题挺严重的,也是自己写的程序,平滑update了几条数据 结果就只有update的那几条数据,其他的全没了,太恐怖了...
我又测试了下 问题无法重现 下次再有这个问题 我用catch($e)抓详细日志贴出来吧 不过昨天测试时候的确遇到过几次 也或许只是临时的问题[hr] 我又测试了下 问题无法重现 下次再有这个问题 我用catch($e)抓详细日志贴出来吧 不...
[quote='子不语' pid='5105' dateline='1383978605'] [quote='hightman' pid='5090' dateline='1383799152'] 添加不会自动去重的哦。 [/quote] 还一个问题 我搜索123可以出来结果 搜索12 却不可以出结果 怎么回事? [/quote] 谢谢,感谢
最长的词16个汉字,250个英文字母。 应该是你的词典做错了,比如字符集不匹配之类。生成词典要严格按照字段区分开,字段之间用区分,这说都有相关的说明,按说明操作应当没有问题。
[quote='net_li' pid='4355' dateline='1374126126'] 没人给解答下吗? [/quote] 可以使用1.4.7测试版本,这样就可以设置分词的setMulti属性,设置成11就能把所有单字都分出来,但是这样数据文件会变大,个人权衡效率问题吧
以前的二元分词只支持英文,最后找到问题 public function getTokens($value, XSDocument $doc = null) { $terms = array(); for ($i = 0; $i < mb_strlen($value,"utf-8"); $i += $this->arg) { $terms[] = mb_substr($value, $i, $this->arg,"utf-8"); } return $terms; }...
...下吗,看到我的信息请联系我。我现在紧急需要解决这个问题,请及时联系我!!! 我的联系方式: 电话:15201116385 qq:915251120
...下吗,看到我的信息请联系我。我现在紧急需要解决这个问题,请及时联系我!!! 我的联系方式: 电话:15201116385 qq:915251120