搜索

大约有 4 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.0979秒)

1.RE: 分词问题

更新时间:2010-10-14 21:10 t By hightman

这里需要用到 set_multi,不过鉴于该词先单字后多字,所以达不到“云“+”计算“的效果。 使用 txt 附加词典时请显式地先指定 xdb 词典,以便 txt 词典后生效。 $so->add_dict('dict.xdb', SCWS_XDICT_XDB); $so->add_dict('dict.txt', SCWS_XDICT_TXT); [c...

2.使用自定义词库的时候,部分词会丢失

更新时间:2014-04-18 17:04 t By tianly

...如“中国人”返回“中国+人+中国人”三个词。 $so->set_multi(false); //设定将文字自动以二字分词法聚合 $so->set_duality(true); //要进行分词的语句 $so->send_text("朝鲜近日播放的一个纪录片中,发现"); //获取分词结果,如果提取...

3.关于扩展词库的问题

发布时间:2012-12-10 15:12 t By timeage

... $cws->set_duality(true); $cws->set_ignore(true); $cws->set_multi(1 | 2 | 4 | 8); $cws->send_text($mydata); $cws->get_result();

4.求助:演示的源码在本地和演示上分词测试结果不同【已解决】

更新时间:2013-07-02 21:07 t By jjyang

...arset('utf8'); $cws->set_duality(false); $cws->set_ignore(false); $cws->set_multi(0); $limit=10; $xattr = '~v';[/code] [size=x-large][u][b]求解,不胜感激!![/b][/u][/size][hr] 好奇怪,我分出来的都是nr,我本地用的是demo的源码,没有设置这个~ [b][colo...

  • 时间不限
  • 按相关性排序