搜索

大约有 30 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.0063秒)

11.如何去除无用的词?

发布时间:2013-04-23 14:04 t By longjianghu

输入示例文字“我是国人”,分词之后成了我是,国人两个词,但是我是这个完全没有意义,如何去掉?

12.RE: 如何去除无用的词?

发布时间:2013-05-02 12:05 t By darena

我用UTF8, 也是"我是国人", 出来的正好只有"国人"一个词

13.libscws的问题

发布时间:2009-12-02 16:12 t By nftw

...t res, cur; char *text;// = "Hello, 我名字叫李那曲是一个国人, 我有时买Q币来玩, 我还听说过C#语言"; text = "我是一名中国的程序员"; if(argc == 2) text = argv[1]; if (!(s = scws_new())) { pri...

14.scws_set_multi()函数的一个小问题....

发布时间:2010-12-06 22:12 t By lauxinz

...:设定分词执行时是否执行针对长词复合切分。(例如:国人->中国+人+国人)。参数 mode 表示复合分词法的级别,取值为 1 ~ 15。mode 设定值,1~15。[b]按位与[/b]的 1|2|4|8 依次表示 短词|二元|主要单字|全部单字。缺省不复合...

15.使用自定义词库的时候,部分词会丢失

更新时间:2014-04-18 17:04 t By tianly

...去掉标点符号 $so->set_ignore(false); //是否复式分割,如“国人”返回“中国+人+国人”三个词。 $so->set_multi(false); //设定将文字自动以二字分词法聚合 $so->set_duality(true); //要进行分词的语句 $so->send_text("朝鲜近日播放的...

16.新手請教一个安装成功后的問題

发布时间:2014-02-10 10:02 t By niutou

我下了中文分詞系统1.2.2 在linux环境下安装成功了,但是分词时,会被分成一个一个的汗字 比如:我是一个国人 分词后就变成了:我 是 一 个 中 国 人

17.如何获取到分词对应的id

发布时间:2011-01-30 11:01 t By michael

...ttr] => v ) [2] => Array ( [word] => 国人 [off] => 6 [len] => 9 [idf] => 4.9000000953674 [attr] => n ) )[/php]

18.第一次使用全文搜引,想给xunsearch一点建议

更新时间:2013-10-20 21:10 t By zhanglang

我第一次使用全文索引。。。想使用国人的。。。可以看了一遍你们的手册。。。感觉帮助很不详细。。。就比如我想重建索引。。或者是附加索引。。。不是一目了然。。 我想试一下拼音搜索。。。发现不行。。不知道什...

19.limit 参数好象没有效果。

发布时间:2011-01-28 18:01 t By whjtoby

... $sh = scws_open(); scws_set_charset($sh, 'utf8'); $text = "我是一个国人,我会C++语言,我也有很多T恤衣服"; scws_send_text($sh, $text); $top = scws_get_tops($sh, 5); print_r($top); 我用的是 php_scws.dll (1.1.5) [For PHP-5.2.x (44KB)]

20.关于 misc/ 目录下的文件

发布时间:2007-06-06 10:06 t By hightman

...host', 4700); 查询分词(自动侦测连接?): $cws->send("我是国人"); 获取结果 echo $cws->recv(); 设定参数: key=>value binary => (on) autodis => (on|off) ignore_mark => (yes|no) delim => '_|/'... $cws->set("autodis", "yes") ...

123
  • 时间不限
  • 按相关性排序