搜索

大约有 991 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.0059秒)

81.RE: XSTokenizerScws的一个使用问题

发布时间:2013-01-30 14:01 t By hightman

...比如”中国“可以切成”中“+”国“+”中国“ 你的问题必须是 [code] $tk = $tokenizer->setDuality(false)->setIgnore(true)->setMulti(11)->getResult("是一"); [/code]

82.RE: 数据导入 乱码问题

发布时间:2011-11-25 19:11 t By vist2007

我测试 加不加 引号 UTF-8都有问题,UTF8就没事 应该和 引号没有关系 我直接连数据库 运行:SET NAMES UTF-8 报:Unknown character set: 'UTF' 运行:SET NAMES 'UTF-8' 报:Unknown character set: 'UTF-8' 这个应该可以 用 show character set 支持的字符集中查吧 ...

83.RE: 平滑建索引问题

更新时间:2012-06-19 04:06 t By beck917

...什么情况[hr] 又重建了一次,数据全丢了... 啥情况啊[hr] 问题挺严重的,也是自己写的程序,平滑update了几条数据 结果就只有update的那几条数据,其他的全没了,太恐怖了...

84.RE: 连续输入长字符串会出错

更新时间:2012-04-01 17:04 t By Dull

我又测试了下 问题无法重现 下次再有这个问题 我用catch($e)抓详细日志贴出来吧 不过昨天测试时候的确遇到过几次 也或许只是临时的问题[hr] 我又测试了下 问题无法重现 下次再有这个问题 我用catch($e)抓详细日志贴出来吧 不...

85.RE: 我用csv进行添加是的ID问题

发布时间:2013-11-11 00:11 t By 子不语

[quote='子不语' pid='5105' dateline='1383978605'] [quote='hightman' pid='5090' dateline='1383799152'] 添加不会自动去重的哦。 [/quote] 还一个问题 我搜索123可以出来结果 搜索12 却不可以出结果 怎么回事? [/quote] 谢谢,感谢

86.RE: 自定义的 txt 字典 有关问题 求助

发布时间:2010-04-10 01:04 t By hightman

最长的词16个汉字,250个英文字母。 应该是你的词典做错了,比如字符集不匹配之类。生成词典要严格按照字段区分开,字段之间用区分,这说都有相关的说明,按说明操作应当没有问题

87.RE: 搜索上的问题死活搜不到

发布时间:2013-07-19 09:07 t By tisswb

[quote='net_li' pid='4355' dateline='1374126126'] 没人给解答下吗? [/quote] 可以使用1.4.7测试版本,这样就可以设置分词的setMulti属性,设置成11就能把所有单字都分出来,但是这样数据文件会变大,个人权衡效率问题

88.RE: 二元分词问题

更新时间:2011-11-15 13:11 t By icebolt

以前的二元分词只支持英文,最后找到问题 public function getTokens($value, XSDocument $doc = null) { $terms = array(); for ($i = 0; $i < mb_strlen($value,"utf-8"); $i += $this->arg) { $terms[] = mb_substr($value, $i, $this->arg,"utf-8"); } return $terms; }...

89.中文分词demo测试,环境搭建问题

发布时间:2012-03-06 19:03 t By rainseo

...下吗,看到我的信息请联系我。我现在紧急需要解决这个问题,请及时联系我!!! 我的联系方式: 电话:15201116385 qq:915251120

90.中文分词demo测试,环境搭建问题

发布时间:2012-03-06 19:03 t By rainseo

...下吗,看到我的信息请联系我。我现在紧急需要解决这个问题,请及时联系我!!! 我的联系方式: 电话:15201116385 qq:915251120

  • 时间不限
  • 按相关性排序