搜索

大约有 30 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.2949秒)

11.添加新的分词无效

发布时间:2013-12-04 15:12 t By mengaifan

...增词库 $cws->set_ignore(true); //var_dump($cws); //添加中文分词 $cws->send_text($a); dict_extra.txt 已经增加了一行:享鑫 1 1 n,但是“享鑫金属”还是只有金属被匹配出来

12.获取搜索结果

...的部分进行飘红或加粗等高亮处理, 由于其中涉及到了分词等细节处理比较麻烦。因此,我们统一提供了 [XSSearch::highlight] 方法,可以对搜索结果文档中的字段值直接进行处理,匹配关键词部分会自动套上 `em` 标签。 您只要在...

13.PHP4版 简易中文分词(PSCWS) 第2/3版

发布时间:2007-06-06 09:06 t By hightman

[b][size=3]关于 PHP 版简易中文分词[/size][/b] 目前已经发布的PHP版分词有第2版和第3版,这两个版本的用法完全一样,主要区别在于分词的算法,前者采用正向最大匹配2级交叉消岐,而后者采用的是双向匹配综合消岐。并没有绝...

14.能否提供字典dict.xdb的生成程序

更新时间:2009-06-28 10:06 t By heraldboy

...,正和我用。 但发现现有的字典不太适合我们做地址的分词,能不能给个办法将文本的转为dict.xdb格式,看到你在论坛中回复提到一个转换程序,但我不知道在哪里下载。 先谢谢你。[hr] 我们系统对速度要求不高,关键是分词...

15.中文分组粗分方法

发布时间:2010-05-26 12:05 t By baobao

你好Hightman: 我是一名大学生,对中文分词很感兴趣。 在网上看了很多关于中文分词的课件和论文。 词的粗分有几种: 最大匹配法 最大概率法 最短路径法 未登录词识别方法 等等 我下PSCWS4,学习了好久算法,由于个人...

16.RE: 能否提供字典dict.xdb的生成程序

发布时间:2009-06-28 21:06 t By hightman

...实上应该针对地名名词(含缩写,别名)建立词库, 然后将其分词, 提取关键字进行比较, 如果相同即可视为相同. 比如同样是 xx市, 有些人可能只写 xx 而没写市

17.关于多粒度的建议

发布时间:2013-12-24 13:12 t By anzm2005

我试了下目前的多粒度分词,有一种情况不能实现 比如词典里有: 我们是中国人 我们是中国 我们是 中国人 中国 当要分句子: 我们是中国人 无论怎么设置,都无法分出 我们是中国 我们是 这些词 就是目前是...

18.RE: 我想用xunsearch代替mysql的like语句

发布时间:2012-03-05 10:03 t By hightman

。。。。 全文检索就已经是分词匹配了,还LIKE什么LIKE啊

19.RE: 结合搜索引擎来制作自动标签系统

发布时间:2011-12-07 13:12 t By hightman

多谢建议。这个部分要做得精准的话其实是比较尖端的,SCWS分词后有提供一些热门词排序,如果简单归结为标签也是不妥的,我觉得需要有标签库进行匹配和比对。

20.RE: 关于自建字典问题

发布时间:2013-09-02 04:09 t By gwgwgw

...典就2个词,好纠结啊,纠结死啦,但是当我输入时还是分词为 纠结|死了),求救啊!! 还有帖子1中,字典的问题,生成的字典是因为无法载入而报错的,求高人相助啊!!

123
  • 时间不限
  • 按相关性排序