搜索

大约有 20 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.2944秒)

1.RE: 结合搜索引擎来制作自动标签系统

发布时间:2011-12-08 08:12 t By Dull

scws分词后的直接做标签都有不错的效果了 :) 我理解其实就是搜索过程的一个反向 正常搜索就是 一句话 -> 分词 -> 搜索匹配 -> 输出 具体实现上 那匹配标签或者关键字这么做似乎也行 一句话 -> 分词 -> 搜索匹配 -> 前10个结果...

2.RE: 结合搜索引擎来制作自动标签系统

发布时间:2011-12-07 13:12 t By hightman

多谢建议。这个部分要做得精准的话其实是比较尖端的,SCWS分词后有提供一些热门词排序,如果简单归结为标签也是不妥的,我觉得需要有标签库进行匹配和比对。

3.结合搜索引擎来制作自动标签系统

发布时间:2011-12-07 00:12 t By rogical

...类。 我想XUNSEARCH是否可以实现, 文章发过来的,自动分词的基础上,得出最适合本文的标签。 这里可以按照权重来给标签来个排序,如:热门度,关联度,重复度等等。 如果xunsearch能出这么一个webservice就更好了。

4.RE: 结合搜索引擎来制作自动标签系统

发布时间:2011-12-14 09:12 t By rogical

...分类性的,这个不能简单由前10来实现,比如‘你好’被分词出来,而且频度很高,却不适合做标签的; 有些热门的词汇,流行词汇,那种带有明显时效性可以加权,如‘凤姐’,‘芙蓉姐姐’, 有点类似百度风云榜的感觉; ...

5.对于分词的一些困惑

更新时间:2010-10-13 17:10 t By 逆雪寒

...定义字典。完全忽略自带的字典。 然后我在字典里面 分词 : 北海365 365 就这两个词。 然后我 搜的时候 是 : 北海365 这时候返回的分词 却只有: 365 “北海”不见了 如果我启动系统自带词典 那么“北海”又...

6.一个疑问……

发布时间:2007-11-28 22:11 t By 逍遥小妖

...搜索引擎结合…… 现在目前已经成功用SCWS替换其原本的分词代码。 但是却发现一个问题,就是SCWS的适用范围似乎特别的窄…… 对于一个页面来说,通常含有数字、英文、英文标点、中文标点、中文等文字要素(可阅读部分...

7.RE: 提高人民生活水平 的分词有误

更新时间:2011-01-04 14:01 t By hightman

多谢,此问题源于 rules.ini 中的词性修正。当初把单个字的动词+名词重点提升了权重。 参见这贴子:http://www.hightman.cn/bbs/showthread.php?tid=575&page=1&highlight=hightman#pid3092 当初解决”结合成分子时“ ”学人家人肉“ 。。 之类,所...

8.RE: XSTokenizerScws的一个使用问题

发布时间:2013-01-30 14:01 t By hightman

...是因为二元结合法所以scws自动将其合成为一个词。 复合分词是对原本是词的长词情况处理的,比如”中国“可以切成”中“+”国“+”中国“ 你的问题必须是 [code] $tk = $tokenizer->setDuality(false)->setIgnore(true)->setMulti(11)->getResult(...

9.RE: XSTokenizerScws的一个使用问题

发布时间:2013-02-02 13:02 t By tisswb

...是因为二元结合法所以scws自动将其合成为一个词。 复合分词是对原本是词的长词情况处理的,比如”中国“可以切成”中“+”国“+”中国“ 你的问题必须是 [code] $tk = $tokenizer->setDuality(false)->setIgnore(true)->setMulti(11)->getRe...

10.共享自己的drupal模块出来,drupal commerce + xunsearch 做出强大的中文搜索,丢掉solr吧

发布时间:2014-03-11 01:03 t By drupal anywhere

今天旗下的http://www.anetb.com需要一个支持中文分词的搜索页,原drupal的太烂了, 我的做法是:结合xunsearch实现drupal commerce下的中文搜索 测试页:http://www.anetb.com/tsearch/demo/commerce/search.php , 可输入“奶粉”,我的站准备做这...

12
  • 时间不限
  • 按相关性排序