搜索

大约有 200 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.0061秒)

81.中文分组粗分方法

发布时间:2010-05-26 12:05 t By baobao

你好Hightman: 我是一名大学生,对中文分词很感兴趣。 在网上看了很多关于中文分词的课件和论文。 词的粗分有几种: 最大匹配法 最大概率法 最短路径法 未登录词识别方法 等等 我下PSCWS4,学习了好久算法,由于个人...

82.scws-1.1.9 发布,明确采用 BSD 协议;改进复合分词修正BUG等

更新时间:2011-12-28 13:12 t By hightman

...用开源协议 New BSD License 发布新版本 2) 深度优化复合分词中的 SCWS_MULTISHORT 选项,更为合理有效,符合全文检索的需求 3) 测试脚本自动加载当前目录下的 dict_user.txt 文本词典 4) 修正 scws.c 中 __PARSE_XATTR__ 宏的 BUG 导致 scws...

83.2007简易分词第4版(scws-0.1.x)体验

发布时间:2007-06-06 11:06 t By hightman

...专名自动识别,也支持UTF-8/GBK等不同字符集。经评估测试分词准确率在 95% 左右,召回率有 92% 以上。 这套程序的开发其实很早就开始做基础工作了,持续时间和耗费精力都相当大。开始全部采用纯 php 代码编写,功能基本实...

84.在 Xunsearch 使用 SCWS

...在安装完 `Xunsearch` 后可以通过服务端内置的 scws[1] 实现分词, 而不需要另外再安装 scws 的 php 扩展。从 `1.3.1` 版本起,`Xunsearch` 的 PHP-SDK 中加入 [XSTokenizerScws] 类,可通过搜索服务端执行分词功能。 用法简单说明 ---------- 这...

85.RE: 关于多粒度的建议

发布时间:2014-02-18 11:02 t By tongkaiteng

我遇到的问题和你应该一样,我词典里有 内衣和保暖内衣,当我对句子 保暖内衣进行分词的时候,确只分出来 保暖内衣,而丢失了内衣词。请问,有没有人知道怎么解决,在线等待!!

86.英文可以自定义词性吗?

发布时间:2013-08-30 05:08 t By mynoname

通常英文是不需要分词的,但很多时候词性是需要的,比如nike,dior这类品牌英文。 目前默认词性都是en,有什么办法可否自定义词典来改变他的词性。 还有个问题,就是纯数字的词性为什么是en呢,不是m? 望赐教。

87.RE: 搜索问题

更新时间:2012-10-25 13:10 t By hightman

... 3 改为 15 然后重新编译并重建索引就可以了 3. 用自定义分词,自己按字划分

88.字典中的条目的意义与来源

发布时间:2009-08-25 22:08 t By peng860215

从CSDN上下载了 CSWS中文分词词典,里面的条目为: 频道 14.89 3.91 n 音乐 14.89 3.91 n 软件 14.89 3.91 n 资讯 14.89 3.91 n 。。。。。 新浪 14.89 6.26 nz 文学 14.89 3.91 n 二列为词频,三列为词重,可是词频与词重是怎么计算的,单位...

89.RE:1265

发布时间:2008-06-02 14:06 t By lyhiving

...实用PHP脚本也能作,我忘了放出来呵 [/quote] 急求编辑分词库的php脚本啊

90.RE: daemon server(linux后台程序)和embed(库的形式嵌入程序中)

更新时间:2010-12-10 15:12 t By lauxinz

...只是会占用比较多的内存资源,如果需要经常频繁的进行分词操作就应该采用mem方式,比如搜索引擎的建索引时主要耗费的时间都花费在分词上,反正现在内存也便宜,而且词典不算太大。如果程序偶尔才需要分一下词,那就没...

  • 时间不限
  • 按相关性排序