搜索

大约有 546 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.1000秒)

421.hm老大,英文词典的问题

发布时间:2012-03-22 13:03 t By wodeln

...大家一起提供英文的词典,是不是就可以解决中英文混合分词了??

422.SCWS切分的字符串是否有长度限制?

发布时间:2010-08-18 18:08 t By wrongway

在linux下装了scws1.1.2,并且装了php5的扩展,但是发现在分词时对于较长的字符串会自动截取前多少个字符进行切分,不知这是不是一个BUG?

423.RE: XSTokenizerScws的一个使用问题

发布时间:2013-01-30 14:01 t By hightman

...是因为二元结合法所以scws自动将其合成为一个词。 复合分词是对原本是词的长词情况处理的,比如”中国“可以切成”中“+”国“+”中国“ 你的问题必须是 [code] $tk = $tokenizer->setDuality(false)->setIgnore(true)->setMulti(11)->getResult(...

424.RE: 结合搜索引擎来制作自动标签系统

发布时间:2011-12-07 13:12 t By hightman

多谢建议。这个部分要做得精准的话其实是比较尖端的,SCWS分词后有提供一些热门词排序,如果简单归结为标签也是不妥的,我觉得需要有标签库进行匹配和比对。

425.RE: SCWS切分的字符串是否有长度限制?

发布时间:2010-08-22 00:08 t By hightman

请仔细看说明,$so->get_result() 并不是一次调用,需要多次调用直到返回FALSE 例子1. 使用类方法分词

426.RE: 请问虾片中的枚举类型,在xunsearch 怎么表示?

发布时间:2013-11-26 13:11 t By hightman

看你怎么分词啊,所谓的多值也可以转换成一个值再切割。

427.RE: 搜索上的问题死活搜不到

发布时间:2013-07-19 09:07 t By tisswb

[quote='net_li' pid='4355' dateline='1374126126'] 没人给解答下吗? [/quote] 可以使用1.4.7测试版本,这样就可以设置分词的setMulti属性,设置成11就能把所有单字都分出来,但是这样数据文件会变大,个人权衡效率问题吧

428.scws加载词库和规则集失败,使用者为啥不知道呢?

更新时间:2010-12-09 22:12 t By lauxinz

...中不少都是词库没有加载上,却没有加以判断,结果发现分词结果不准确。 其实在scws文档中有这么一句话: [i][b]注:xdict_t 和 rule_t 分别是词典和规则集的指针,可判断其是否为 NULL 来判断加载的成功与失败。[/b][/i] 调...

429.RE: scws 1.1.2 php extension安装的问题

发布时间:2010-06-20 23:06 t By sambohuang

我也是楼主这个情形,分词结果一样。 最后发现下载的词库权限是600 chmod +r后就正常了

430.关于扩展词库的问题

发布时间:2010-06-02 10:06 t By hide3088569

我使用的版本是1.1.2 使用了复合分词且只用了【最短词】来复合 假定我的扩展词库中有:【球面抛光机】、【冰包餐桌】 没有扩展结果分别是: 【球面抛光机】 -> 球面、抛光机、抛光 【冰包餐桌】 -> 餐桌(idf:6.19) ...

  • 时间不限
  • 按相关性排序