搜索

大约有 95 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.4867秒)

1.RE: 有没有更简单的分词啊?

发布时间:2011-03-12 10:03 t By NCT

咋木人回复啊?

2.RE: 有没有更简单的分词啊?

发布时间:2011-03-14 14:03 t By hightman

自建词库就可以了

3.希望能简单介绍下libscws算法

更新时间:2013-03-13 14:03 t By jasonniu

看了下代码 注释太少了 希望能给介绍一下算法 方便研究。[hr] 顶上去 哈哈

4.狂赞!很难想像居然会有如此简单易用的分词技术

更新时间:2012-04-22 02:04 t By duyipeng

早就对分词技术做过很多研究,但是却从没发现简单易用的产品,哪怕是收费的。 今天无意中发现了FTPHP的SCWS,安装试用了下,非常棒!关键MMD还是开源免费的,能够自定义各种功能。 强烈支持并持续关注!

5.有没有更简单的分词啊?

发布时间:2011-03-12 00:03 t By NCT

这个分词系统虽说是简易的,但是我觉得还是过于强大了 譬如说像我们行业类网站,要分的词不多,屈指可数,也可能就几百个 如果能提供分词方法,和一个自己可以添加的词库就好了 呵呵 谢谢

6.我想问个简单的问题,我的分词有了,然后我怎么使用这些分词啊?

发布时间:2010-05-07 18:05 t By xyliufeng

我想问个简单的问题,分词有了,然后我怎么使用这些分词啊?(在搜索引擎中)谢谢!

7.RE: 有没有更简单的分词啊?

发布时间:2011-03-13 02:03 t By hit

[quote='NCT' pid='4108' dateline='1299895804'] 咋木人回复啊? [/quote] 嘛~这个就不用这么复杂你完全可以导出TXT修改在创建合适的数据库 查查资料 你可以解决的

9.RE: 我想问个简单的问题,我的分词有了,然后我怎么使用这些分词啊?

发布时间:2010-05-09 02:05 t By hightman

通常全文检索是按词构建反向索引。 即以词条为线索,记录包含该词的文档ID~~ 检索的时候将用户的输入切词后在索引中查找出合适的文档ID再返回。

10.RE: 结合搜索引擎来制作自动标签系统

发布时间:2011-12-14 09:12 t By rogical

...当然要剔除很基础的日常词汇,保留分类性的,这个不能简单由前10来实现,比如‘你好’被分词出来,而且频度很高,却不适合做标签的; 有些热门的词汇,流行词汇,那种带有明显时效性可以加权,如‘凤姐’,‘芙蓉姐...

  • 时间不限
  • 按相关性排序