搜索

大约有 60 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.2911秒)

41.RE: scws1.1.8为什么第一次都很慢。

更新时间:2011-10-24 00:10 t By ci169

...19383230'] 什么方式运行的? 是不是词典的原因啊,用了定义吗 [/quote] linux Centos5。scws.1.1.8版的。 还没用上定义的词库。 第一次基本大于0.1秒以上。就很短的几个词也是这么慢。 提交同样的词后面几次就很快了。 一有...

42.RE: scws_has_word没有得到部分指定词库中的词

发布时间:2011-12-26 16:12 t By hightman

你可以正常分词试试,然后打印一下词的 attr 属性到底是不是* 号 我估计是不是你定义词典先于默认词典加载,导致attr属性被覆盖了?

43.最新的主要变动

...进优化代码兼容性 - 增加用户案例文档:USERCASE - 改进定义分词器 XSTokenizerScws 接受参数作为复合等级 - 升级 libevent 到 2.x 版 - 修正中文 stopwords 不生效的问题 - 取消恼人的 NODB(S#506) 错误提示 - 新增获取文档匹配词表的接口 [XSS...

44.RE: scws1.1.8为什么第一次都很慢。

发布时间:2011-10-23 23:10 t By hightman

什么方式运行的? 是不是词典的原因啊,用了定义

45.RE: [HELP]xunsearch安装好了,搜索没有结果集。。。

发布时间:2011-10-26 15:10 t By vist2007

...有提供scws的api接口,实现短语分词功能 2.是否可以对scws定义中文词典,方便扩展

46.RE: 搜索问题

更新时间:2012-10-25 13:10 t By hightman

... 把 3 改为 15 然后重新编译并重建索引就可以了 3. 用定义分词,己按字划分

47.RE: 搜索的log

发布时间:2012-04-05 10:04 t By hightman

...现在新版 1.3.1 提供了 scws 接口,只要把这些黑词加到定义词典,并取一个独特的词性,那么就可以用 XSTokenizerScws::hasWord() 的功能来判断是否包含黑词?

48.想手动指定一些不进行分词的词语

发布时间:2013-07-23 16:07 t By seagg

...如何操作,才能使得这个词不被分开 我看到有用户定义词典 dict_user.txt 我在里面写了: 米兔车贴 1.0 1.0 ! 但还是被分了 还看到一个stopwords.txt的文件,但将米兔车贴放到里面了也还是会被分 。。。

49.xunsearch-1.4.6 (基于 xapian 和 scws开源中文搜索引擎,高扛压不再死锁)

更新时间:2013-03-27 13:03 t By hightman

...容性更好功能更强 5. 修改 XSTokenizerScws 以支持项目级定义词典的 6. 定义分词器的字段也能参与权重计算了,在 ini 指定 `non_bool = yes` 7. 采用 bootstrap 框架美化 util.SearchSkel 生成页面效果 官方网站:[url]http://www.xunsearch.com[/...

50.[2013] SCWS-1.2.2 发布,BSD协议、支持定义词库、PHP5.4

更新时间:2013-07-11 21:07 t By hightman

...才行。 -- [color]新功能用法示例[/color] (php为例) -- 1. 定义词库,含新增核心库不存在的词汇及删除核心库存在词汇的功能 1) 创建相应字符集的词库文件 dict_extra.txt 2) TF/IDF 参考值查询,为方便大家我作了一个工具...

  • 时间不限
  • 按相关性排序