搜索

大约有 26 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.1008秒)

1.RE: 如何获取到分词对应的id

发布时间:2011-02-14 12:02 t By michael

...联来查询,而不用like了。 如,一篇文章标题为:我是中国人,假设该文章id为1 分词后,有'中国',‘中国人’,如果每个分词有唯一的id对应,假设‘中国’=》1,'中国人'=》2 那么保存关联就成了 1(文章id)=》1(词组id) 1(...

2.RE: 仍然是第一个例子的问题,怎么连“中国人”都没分出来?

发布时间:2013-04-17 15:04 t By zctr

原来如此。 权限改成777就好了

3.RE: 仍然是第一个例子的问题,怎么连“中国人”都没分出来?

发布时间:2013-04-15 11:04 t By hightman

词典确实存在吗?对执行PHP的用户可读吗?(WEB的话通常是NOBODY)

4.仍然是第一个例子的问题,怎么连“中国人”都没分出来?

发布时间:2013-04-14 15:04 t By zctr

例子: 我已经将文件存为ANSI形式了,编码的问题解决了。 可是,我发现分词不了。请看结果: Array ( [0] => Array ( [word] => 我 [off] => 0 [len] => 2 [idf] => 0 [attr] => un ...

5.仍然是第一个例子的问题,怎么连“中国人”都没分出来?

发布时间:2013-04-14 15:04 t By zctr

例子: 我已经将文件存为ANSI形式了,编码的问题解决了。 可是,我发现分词不了。请看结果: Array ( [0] => Array ( [word] => 我 [off] => 0 [len] => 2 [idf] => 0 [attr] => un ...

6.关于多粒度的建议

发布时间:2013-12-24 13:12 t By anzm2005

...分词,有一种情况不能实现 比如词典里有: 我们是中国人 我们是中国 我们是 中国人 中国 当要分句子: 我们是中国人 无论怎么设置,都无法分出 我们是中国 我们是 这些词 就是目前是按照词典最长词匹配,...

7.中英混合问题

更新时间:2012-10-16 19:10 t By o00ofly

...入中英文确是可以混合的,比如关键词输入“我是test中国人”,在线分词会给出“我是 test 中国人 中国 国人 ”,这是什么情况呢? 我的环境是:win7+php5.4+scws的

8.如何去除无用的词?

发布时间:2013-04-23 14:04 t By longjianghu

输入示例文字“我是中国人”,分词之后成了我是,中国人两个词,但是我是这个完全没有意义,如何去掉?

9.如何去除无用的词?

发布时间:2013-04-23 14:04 t By longjianghu

输入示例文字“我是中国人”,分词之后成了我是,中国人两个词,但是我是这个完全没有意义,如何去掉?

10.RE: 如何去除无用的词?

发布时间:2013-05-02 12:05 t By darena

我用UTF8, 也是"我是中国人", 出来的正好只有"中国人"一个词

123
  • 时间不限
  • 按相关性排序