搜索

大约有 6 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.2916秒)

1.RE: 关于SCWS基于HTTP/POST的分词API的一个问题

发布时间:2011-04-19 15:04 t By tuzwu

.../quote] 感谢管理员回复. 其实我的意思大概可以简化为: 最长分词模式. 分出来的词要达到符合语法的最长.这个难度估计不小,呵呵,也可能是比较不现实的需求. 自己架设scws分词库程序当然可以导入自己的词库,但是不是每个人...

2.检索标题过长的问题

发布时间:2011-11-11 12:11 t By zxing

搜索数据过长的时候 会抛出异常 Data/Name too long 用户体验不是很好 建议官方给出允许最长检索条件的长度,并且最好在SDK中进行判断 如果超长自动截取。

3.关于多粒度的建议

发布时间:2013-12-24 13:12 t By anzm2005

...出 我们是中国 我们是 这些词 就是目前是按照词典最长词匹配,更短的词就忽略了。

4.RE: 公司项目求助

更新时间:2012-03-07 10:03 t By hightman

...tphp.com/scws/ 是C版的。 此外,你所说的最大颗粒分词是指最长匹配吗?分词在 scws/xunsearch 结合时作了很多特殊处理,保障查全率和准确率。 比如“管理制度” 解析为 “管理制度” OR “管理 AND 制度”

5.RE: 自定义的 txt 字典 有关问题 求助

发布时间:2010-04-10 01:04 t By hightman

最长的词16个汉字,250个英文字母。 应该是你的词典做错了,比如字符集不匹配之类。生成词典要严格按照字段区分开,字段之间用区分,这说都有相关的说明,按说明操作应当没有问题。

6.最短分词不起作用

发布时间:2014-02-18 11:02 t By tongkaiteng

...我对语句“我的保暖内衣”进行分词的时候,只能分出来最长的“保暖内衣”,确没有分出来“内衣”,不知道问题在哪里? 另外一个奇怪的问题,我用官方的词典,里面也有这两个词,可以分出来“内衣”和“保暖内衣”...

  • 时间不限
  • 按相关性排序