搜索

大约有 10 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.1953秒)

1.如何去除无用的词?

发布时间:2013-04-23 14:04 t By longjianghu

输入示例文字“我是国人”,分词之后成了我是国人两个词,但是我是这个完全没有意义,如何去掉?

2.如何去除无用的词?

发布时间:2013-04-23 14:04 t By longjianghu

输入示例文字“我是国人”,分词之后成了我是国人两个词,但是我是这个完全没有意义,如何去掉?

3.中英混合问题

更新时间:2012-10-16 19:10 t By o00ofly

...输入中英文确是可以混合的,比如关键词输入“我是test国人”,在线分词会给出“我是 test 国人 中国 国人 ”,这是什么情况呢? 我的环境是:win7+php5.4+scws的

4.RE: 如何去除无用的词?

发布时间:2013-05-02 12:05 t By darena

我用UTF8, 也是"我是国人", 出来的正好只有"国人"一个词

5.RE: 如何获取到分词对应的id

发布时间:2011-02-14 12:02 t By michael

...d关联来查询,而不用like了。 如,一篇文章标题为:我是国人,假设该文章id为1 分词后,有'中国',‘国人’,如果每个分词有唯一的id对应,假设‘中国’=》1,'国人'=》2 那么保存关联就成了 1(文章id)=》1(词组id) ...

6.libscws的问题

发布时间:2009-12-02 16:12 t By nftw

...t res, cur; char *text;// = "Hello, 我名字叫李那曲是一个国人, 我有时买Q币来玩, 我还听说过C#语言"; text = "我是一名中国的程序员"; if(argc == 2) text = argv[1]; if (!(s = scws_new())) { pri...

7.新手請教一个安装成功后的問題

发布时间:2014-02-10 10:02 t By niutou

我下了中文分詞系统1.2.2 在linux环境下安装成功了,但是分词时,会被分成一个一个的汗字 比如:我是一个国人 分词后就变成了:我 是 一 个 中 国 人

8.limit 参数好象没有效果。

发布时间:2011-01-28 18:01 t By whjtoby

... $sh = scws_open(); scws_set_charset($sh, 'utf8'); $text = "我是一个国人,我会C++语言,我也有很多T恤衣服"; scws_send_text($sh, $text); $top = scws_get_tops($sh, 5); print_r($top); 我用的是 php_scws.dll (1.1.5) [For PHP-5.2.x (44KB)]

9.关于 misc/ 目录下的文件

发布时间:2007-06-06 10:06 t By hightman

...host', 4700); 查询分词(自动侦测连接?): $cws->send("我是国人"); 获取结果 echo $cws->recv(); 设定参数: key=>value binary => (on) autodis => (on|off) ignore_mark => (yes|no) delim => '_|/'... $cws->set("autodis", "yes") ...

10.请教为什么我这个无法分割成功啊?

发布时间:2011-07-05 20:07 t By cool

...ni 中指定路径下的词典和规则文件 $so->send_text("我是一个国人");; while ($tmp = $so->get_result()) { foreach($tmp as $k=>$v){ echo $v['word']."|"; } print_r($tmp); } $so->close(); 我用的版本是:php_scws.dll(2) PHP扩展库 Windows/PHP 5.2.x 准确: 95%, 召...

  • 时间不限
  • 按相关性排序